JP2019154929A - 算出システム、指標算出方法、およびコンピュータプログラム - Google Patents

算出システム、指標算出方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2019154929A
JP2019154929A JP2018048269A JP2018048269A JP2019154929A JP 2019154929 A JP2019154929 A JP 2019154929A JP 2018048269 A JP2018048269 A JP 2018048269A JP 2018048269 A JP2018048269 A JP 2018048269A JP 2019154929 A JP2019154929 A JP 2019154929A
Authority
JP
Japan
Prior art keywords
moving body
calculation
person
unit
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018048269A
Other languages
English (en)
Other versions
JP6432702B1 (ja
Inventor
倭 竹内
Yamato Takeuchi
倭 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018048269A priority Critical patent/JP6432702B1/ja
Application granted granted Critical
Publication of JP6432702B1 publication Critical patent/JP6432702B1/ja
Priority to PCT/JP2019/006511 priority patent/WO2019176492A1/ja
Publication of JP2019154929A publication Critical patent/JP2019154929A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システムを提供すること。【解決手段】移動体M中の運転者Dの顔を撮影するカメラ11と、移動体Mの運動データを計測するジャイロセンサ2と、カメラ11により撮影された顔の画像を用いて運転者Dの眼球運動を算出する第1の算出部31と、ジャイロセンサ2により計測された前記移動体の運動データ及びカメラ11により撮影された顔の画像を用いて人物の頭部運動を算出する第2の算出部32と、を備えた算出システムとする。【選択図】図5

Description

本発明は、算出システム、情報処理装置、運転支援システム、指標算出方法、およびコンピュータプログラムに関する。
近年、カメラで撮影された運転者の顔画像から運転者の頭部運動や眼球運動を検出し、該検出した運転者の頭部運動や眼球運動などに基づいて、車両走行時の運転者の覚醒度低下を検出して警告を発したり、運転注意力を喚起したりする種々の運転への支援又は介入に関する技術が開示されている。
例えば、下記の特許文献1には、覚醒度推定装置として、運転者の瞬き時間を検出し、覚醒時における運転者に固有の瞬きの基準時間を、所定の割合だけ増大させて長い瞬きを評価するための瞬き評価時間を設定すると共に、この瞬き評価時間に従って長い瞬きを検出し、所定時間内における瞬きの総数と、長い瞬きの回数とからその生起比率を求め、眠気予測モデルを用いた回帰分析により求められる予測式に従って、運転者の覚醒度を評価する技術が開示されている。
また、下記の特許文献2には、眠気予兆検出装置として、頭部運動検出手段により頭部運動を検出し、眼球運動検出手段により眼球運動を検出し、理想眼球運動角速度算出部により、頭部運動データに基づいて理想眼球運動角速度を算出し、眼球回転角速度算出部により、眼球運動データに基づいて眼球回転角速度を算出し、眠気予兆判定手段により理想眼球運動角速度と眼球回転角速度とから前庭動眼反射を検出し、この前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する技術が開示されている。
[発明が解決しようとする課題]
下記の特許文献1に開示されている技術では、運転者の瞬き時間を検出して、所定時間内における瞬きの総数と、長い瞬きの回数とから運転者の覚醒度を評価する。このため、低下した覚醒度の検出は可能であるものの、覚醒度低下の予兆、すなわち眠気を自覚する前の眠気の予兆を検出することはできない。
下記の特許文献2に開示されている技術では、前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する。前庭動眼反射(Vestibulo-Ocular Reflex:VOR)は、頭部運動に対してほぼ同じ速さで眼球を逆方向に回転させ、ブレのない視界を得るための反射性眼球運動である。前庭動眼反射のゲインの減少及び残差標準偏差の増大は、眠気を自覚する前から生じるため、眠気の予兆を示す指標として有効である。特許文献2には、自動車運転時を模擬したドライビングシミュレータシステムを用いた実験例が記載されると共に、眠気に関する内省を被験者に報告させて、前庭動眼反射のゲイン(VORゲイン)、残差標準偏差(SDres)の変化から眠気の予兆を判定した、と記載されている。
しかしながら、特許文献2に記載のものでは、被験者が、眼球回旋撮影装置および加速度センサとジャイロセンサを頭部に装着後、振動装置を備えたドライバーシートに着座し、前方スクリーンに映し出される前方自動車のテール部を注視する状況を維持させた状態での実験しか行われていない。実際の乗用移動体では、乗車の度に運転者の頭部にジャイロセンサや撮影装置を取り付けることはできない。従って、実際の移動体を運転中の運転者の覚醒度を評価するシステムにあっては、ジャイロセンサや撮影装置を運転者の頭部に取り付けるよりも、移動体の内部に取り付けることが通常となる。
しかしながら、撮影装置を移動体の内部に取り付けると、移動体内の座標系(移動体座標系)における運転者の情報しか得られない。移動体を運転している運転者の眼球運動は、運転者が車外前方を注視している場合、絶対座標系に属する運動となる。このため、頭部運動も絶対座標系で検出できなければ、前庭動眼反射を精度良く算出することは困難となる。
ところが上記したように、撮影装置を移動体の内部に取り付けた場合、移動体座標系における運転者の情報しか得られない。
このため、乗車し、実際に走行中の運転者の覚醒に関する情報を高い精度に検出することは極めて困難であるという課題があった。
特開平10−272960号公報 WO2010/032424公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システム、情報処理装置、運転支援システム、指標算出方法、およびコンピュータプログラムを提供することを例示的な目的としている。
上記目的を達成するために、本開示に係る算出システム(1)は、
移動体中の人物の顔を撮影する撮像部と、
前記移動体の運動データを計測するセンサと、
前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記人物の頭部運動を算出する第2の算出部と、
を備えていることを特徴としている。
上記算出システム(1)によれば、前記撮像部により移動体中における前記人物の顔の画像が撮影され、前記センサにより移動体の運動データが計測され、前記第1の算出部により、前記人物の顔の画像に基づいて前記人物の眼球運動が算出される。そして前記第2の算出部により前記移動体の運動データ及び顔の画像に基づいて前記人物の頭部運動が算出される。
従って、移動体の運動を考慮した頭部運動が算出される。このため、少なくとも前記撮像部及び前記センサが移動体に配備され、移動体が移動中の場合であっても、絶対座標系に対する頭部運動の正確な情報を得ることができる。
また、本開示に係る算出システム(2)は、上記算出システム(1)において、
さらに、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体中における人物の覚醒に関する指標を算出する第3の算出部を備えていることを特徴としている。
上記算出システム(2)によれば、前記撮像部と前記センサとが移動体に設置された構成で、さらに前記第3の算出部を備えることで、運転者の頭部に撮像部やセンサを装着しなくても、移動体の運動を考慮した頭部運動の情報に基づいて前記移動体中における前記人物の覚醒に関する指標を高い精度に算出することが可能となる。
また、本開示に係る算出システム(3)は、上記算出システム(2)において、
前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している第1の状態か否かを判別する第1の判別部をさらに備え、
前記第3の算出部は、前記第1の判別部によって第1の状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴としている。
上記算出システム(3)は、覚醒に関する指標の算出を、人物が移動体の外部の注視点を注視している場合に行うものである。上記算出システム(3)によれば、車外を注視している場合の頭部運動と眼球運動の情報に基づいて運転者の覚醒に関する指標を算出することで、高い精度の覚醒に関する指標を得ることができる。車外を注視している状態の覚醒に関する指標としては、例えばVOR(前庭動眼反射)に関する各種の値が挙げられる。
また、本開示に係る算出システム(4)は、上記算出システム(2)又は(3)のいずれかにおいて、
前記撮像部により撮影された顔の画像を用いて、眼球と頭部とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴としている。
一般的に、人物が視線方向を意識的に変えるときは、眼球の運動方向と顔の運動方向とが同方向となる。このような同方向の運動時における情報を除くことで、高い精度の覚醒に関する指標を得ることができる。
また、本開示に係る算出システム(5)は、上記算出システム(2)〜(4)のいずれかにおいて、
前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴としている。
上記算出システム(5)によれば、覚醒度低下の指標として知られるVOR(前庭動眼反射)に関する各値、又はこれらに基づく演算値を用いることで、覚醒度との相関性に優れた指標を算出することができる。
また、本開示に係る算出システム(6)は、上記算出システム(2)〜(5)のいずれかにおいて、
前記頭部運動が、
前記撮像部により撮影された顔の画像に基づく顔の運動情報と、
前記センサにより計測された前記移動体の運動情報と、の対応値同士の加算によって、
前記移動体外の絶対座標系の値として算出されることを特徴としている。
上記算出システム(6)は、頭部運動を対応値の加算処理によって絶対座標系の値に換算するものである。顔の運動情報の各値と、移動体自体の運動情報の各値とを加算することで、絶対座標系における顔の運動情報を得ることができる。これにより、より高い精度の覚醒に関する指標を算出することが可能となる。
また、本開示に係る情報処理装置(1)は、
上記算出システム(1)〜(6)のいずれかを構成する情報処理装置であって、
移動体に設置された撮像部によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部と、
前記移動体に設置されたセンサによって計測された前記移動体の運動データ、及び、前記撮像部によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部と、
を備えていることを特徴としている。
上記情報処理装置(1)は、移動体に設置された撮像部により人物の顔の画像を撮影し、この撮影された顔の画像に基づき、前記人物の眼球運動を算出する。また、前記移動体に設置されたセンサにより前記移動体の運動データを計測し、計測された前記移動体の運動データと前記顔の画像に基づいて、人物の頭部運動を算出する。
前記第2の算出部は、前記移動体の運動データと顔の画像に基づいて頭部運動を算出するため、移動体の運動状態にかかわらず、頭部運動を、移動体外の絶対座標系として得ることができる。これにより、移動体中の運転者の覚醒に関連する情報をより正確に算出することが可能となる。
また、本開示に係る運転支援システム(1)は、上記情報処理装置(1)と、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段とを備えていることを特徴としている。
上記運転支援システム(1)によれば、移動体中の運転者の覚醒に関連する情報を正確に算出することが可能なシステムとすることができる。
また、本開示に係る覚醒に関する指標算出方法(1)は、
移動体中の人物の覚醒に関する指標を算出する方法であって、
前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を備えていることを特徴としている。
上記覚醒に関する指標算出方法(1)によれば、移動体の運動状態にかかわらず、頭部運動を、移動体外の絶対座標系として得ることができる。これにより、第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に算出することが可能となる。
また、本開示に係る覚醒に関する指標算出のためのコンピュータプログラム(1)は、
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を実行させることを特徴としている。
上記覚醒に関する指標算出のためのコンピュータプログラム(1)によれば、移動体の運動状態にかかわらず、頭部運動を、移動体外の絶対座標系として取得させることができる。これにより、前記第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に、コンピュータに算出させることが可能となる。
実施の形態に係る情報処理装置を含む算出システムを移動体へ適用した例を示す概略平面図である。 実施の形態に係る算出システムを示す概略斜視図である。 実施の形態に係る情報処理装置における、撮像部の処理動作に関する構成例を示す概略側面図である。 実施の形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 実施の形態に係る算出システムの情報処理の流れを示すブロック図である。 情報処理の流れにおけるデータ構造例を示すブロック図である。 実施の形態に係る情報処理装置のVOR情報の算出処理動作全体の一例を示すフローチャートである。 情報処理における、頭部運動算出処理の一例を示すフローチャートである。 実施の形態に係る情報処理装置における、眼球運動算出処理の一例を示すフローチャートである。 実施の形態に係る情報処理装置における、VOR情報の算出処理の一例を示すフローチャートである。 実施の形態に係る情報処理装置を含む別の算出システムを移動体へ適用した例を示す概略平面図である。
以下、本発明に係る算出システム、情報処理装置、運転支援システム、指標算出方法、およびコンピュータプログラムの実施の形態を図面に基づいて説明する。
[適用例]
図1は、実施の形態に係る情報処理装置を含む算出システムを移動体Mへ適用した例を示す概略平面図であり、図2は、移動体Mに搭載された算出システムを示す概略斜視図である。
この例において、移動体Mは人物を乗せて移動する車両であって、外部を透過視認する視認部(例えばフロントガラス)を有している。移動体Mは、運転者Dが着座するための着座部(例えば運転席)を備えており、運転者Dは、移動中の移動体Mの着座部に着座した状態で、視認部を介して移動体Mの外部の任意の注視点Pを視認することができる。注視点Pは、実際には、図示された位置よりも移動体Mから遠くにあってもよい。
図2に示す例において、運転者Dは、頭部DHを含む上半身が視認部方向を向いた状態で着座部に着座し、眼球の瞳孔101(図3)が視認部の先の注視点Pの方向を向いている。
注視点Pとしては、例えば、通常は前方車両のテール部、あるいは図1に示した、道路周辺に配置された遠方の道路標識などを挙げることができる。図1に示した道路標識は移動体M外部の絶対座標系で静止したものとなる。
また、図2に示す符号DOは、人物の顔の向きを算出するための顔の一つの顔器官点を示している。情報処理装置10(図4)は、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。
運転者Dの視線ベクトルは、例えば、図3に示したように、眼球の画像部分における瞳孔中心11Aの位置と、眼球の画像部分における照射部3からの照射光の反射位置(角膜反射像121)とによって特定することができる。この視線ベクトルを微分することで動き(眼球運動)を算出することも可能である。
また、眼球運動は、眼球の画像部分における瞳孔101の動きから算出することも可能である。
前記照射光は非可視光線であることも多く、非可視光線である場合、カメラ11によって撮影される画像は、非可視光線の反射光に基づく人物の画像からなる。
[構成例]
[算出システムの構成例]
算出システム1は、図4に示したように、移動体M中の人物である運転者Dの顔を撮影する撮像部としてのカメラ11、各種の情報処理を行う情報処理装置10、及び移動体Mの運動データを計測するジャイロセンサ2を含んで構成されている。
算出システム1は、カメラ11、情報処理装置10、及びジャイロセンサ2を含んで構成されており、いわゆるドライブモニタリングシステムの一部を構成しているとみなすこともできる。
また、算出システム1は、図5に示したような機能構成ブロックでも表すことができ、
カメラ11により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部31と、
ジャイロセンサ2により計測された移動体Mの運動データ及びカメラ11により撮影された顔の画像を用いて絶対座標系に対する人物の頭部運動を算出する第2の算出部32と、
第1の算出部31により算出された眼球運動、及び、第2の算出部32により算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出部33とを備えている。
算出システム1には、人物の頭部を含む画像を所定の時間間隔で撮影する撮像部としてのカメラ11と、運転者Dの眼球に照射光を照射する照射部3とが装備され、情報処理装置10が内蔵されている。算出システム1は、例えば、移動体M内にあって運転者Dと対向する位置に固定されている(図1)。
撮像部としてのカメラ11は、例えば、図示しないレンズ部、撮像素子部、インターフェース部、これら各部を制御する制御部などを含んで構成されている。撮像素子部は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成される。撮像素子部は、可視領域の光を受けて撮影画像を形成できるものを含む他、紫外線、赤外線、あるいは近赤外線を受けて撮影画像を形成できるCCD、CMOS、或いはフォトダイオード等のセンサを含んでもよい。
カメラ11は、運転者Dを撮影する。カメラ11によって撮影された画像によって、移動体M中における運転者Dの頭部運動を測定することが可能になる。また、カメラ11によって撮影される画像は、画像内の人物の眼球及び視線の方向を特定できる解像度を有しており、運転者Dの眼球運動を算出することも可能になっている。
カメラ11の数は、図2に示したように1台でもよいし、後述の変形構成例では、図11に示したように、補助カメラ4を含む2台以上のカメラで構成される。カメラ11は、単眼カメラであってもよいし、ステレオカメラであってもよい。
カメラ11は所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、カメラ11で撮影された画像のデータが情報処理装置10へ出力されるようになっている。
ジャイロセンサ2は、移動体Mの移動に伴う運動情報を取得する。例えば、図2に示したジャイロセンサ2は三次元ジャイロセンサからなり、移動体Mの前部に固定された算出システム1に固定される(図1)。この例において、計測される運動情報は、外部の絶対座標系に対する、移動体Mの回転運動量である。運動情報の内容として、三次元的に互いに直交するXYZ軸の各軸周りの回転量、及び単位時間当たりにおける、ロール、ピッチ、ヨーそれぞれの回転角速度が取得される。
ジャイロセンサ2は移動体Mに不要に揺動することなく設置されていればよく、移動体Mへの設置位置は特に限定されない。
照射部3は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮影できるように赤外線LED、近赤外線LEDなどが採用される。
照射部3は、例えば図2に示したように、移動体M内の決められた位置から、人物のいる運転席の方向へ照射光を照射する。照射光は、一定方向へ照射されることで、眼球上の一定方向の一点が角膜反射像121として反射される。この角膜反射像121は、照射部3の固定位置から人物の眼球までの距離が最短距離となる点に形成される。また、照射光が非可視光線である場合、人物の視線の動きを妨げることがない。カメラ11によって撮影される画像は、角膜反射像121を含む画像である。
[情報処理装置の構成例]
図4は、実施の形態に係る情報処理装置10を含む算出システム1の機能構成例を示すブロック図である。
情報処理装置10は、入出力インターフェース(I/F)110、制御ユニット12、及び記憶ユニット13を含んで構成されている。
入出力I/F110には、例えば、カメラ11、ジャイロセンサ2、照射部3、運転制御装置30、報知装置37などが接続され、入出力I/F110は、これら外部機器との間で信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。運転制御装置30は、情報処理装置10から供給される種々の情報に基づいて、移動体Mを制御することができる。例えば、運転制御装置30は、移動体Mの運転を制御してもよいし、移動体Mに設けられたスピーカやディスプレイによる出力を制御してもよい。
制御ユニット12は、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fを含んで構成され、さらに、算出部12g、処理部12h、基準変更部12iなどを含んで構成されてもよい。制御ユニット12は、例えば、CPU(Central Processing Unit)、メモリ、画像処理回路などを含んで構成され、記憶ユニット13等に保存されている所定の制御プログラムを読み出してCPUで解釈実行することにより、その働きが実現される。制御ユニット12は、前記撮像素子部や照射部3を制御して、照射部3から光(例えば、近赤外線など)を照射させ、前記撮像素子部でその反射光を撮影する制御などを行う。制御ユニット12は、CPU、Graphics processing unit(GPU)などの1つ以上のハードウェアプロセッサを含んで構成される。
記憶ユニット13は、画像記憶部13a、顔の向き記憶部13b、パラメータ記憶部13c、基準記憶部13d、及びプログラム記憶部13eを含んで構成される。記憶ユニット13は、Random Access Memory(RAM)、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、その他の不揮発性メモリや揮発性メモリなど、半導体素子によってデータを記憶可能な1つ以上の記憶装置で構成される。なお、RAM及びROMを制御ユニット12に含んで構成してもよい。
画像記憶部13aには、画像取得部12aによりカメラ11から取得された運転者Dの画像が記憶される。
顔の向き記憶部13bには、検出部12bで検出された各画像の運転者Dの顔の向き及び移動量に関する情報が、画像記憶部13aに記憶される各画像と対応付けて記憶される。
パラメータ記憶部13cには、第2判定部12eでの判定に用いられる、顔の向きの閾値や移動量の閾値などの各種パラメータが記憶されている。
基準記憶部13dには、基準決定部12fで決定された運転者Dの顔の向きの基準に関する情報、例えば、基準を示す値(基準値)などが記憶される。
プログラム記憶部13eには、制御ユニット12の各部で実行される情報処理プログラムや該プログラムの実行に必要なデータなどが記憶されている。
[動作例]
情報処理装置10は、移動体Mに搭載される算出システム1に内蔵され、車載機器(図示せず)から移動体Mの走行状態に関する各種情報を取得できるとともに、車載機器に対して制御信号などを出力するように構成されている。
情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。また、情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、運転者Dの眼球の向きの基準となる、運転者Dの少なくとも片側の眼球及び当該眼球に含まれる瞳孔を把握し、前記眼球における瞳孔の移動量を把握する処理も実行し、眼球運動の検出を可能としている。
運転者Dの頭部運動には、例えば、図2に示すように、運転者Dの顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角のうち、少なくとも1つが含まれている。
移動体Mの運動情報には、移動体Mの三次元軸それぞれの速度情報のほか、例えば、CAN(Controller Area Network)で接続された車載機器から取得した、車速情報、或いは操舵情報を含んでもよい。運動情報が車載機器から取得した情報を含む場合、当該取得した情報に基づいて、特定の走行状態にあるかどうかを判別することが可能となる。特定の走行状態としては、例えば、移動体Mの車速が所定の車速域にあり、かつ非操舵状態にある走行状態、換言すれば、移動体Mが直進している走行状態が挙げられる。このような走行状態は、運転者Dの覚醒に関する指標を算出するのに適した状態と言える。
情報処理装置10は、「頭部運動算出処理」として、カメラ11により撮影された画像に基づいて、運転者Dの頭部DHを検出し、さらに、頭部DHのうち頭部運動の基準である顔器官点DOを検出する処理を実行する。
顔器官点DOの情報として、例えば、顔器官点DOの位置情報と、顔器官点DOの向き情報とを組み合わせた値が用いられる。
このうち、顔器官点DOの位置情報としては、例えば、運転者Dの顔の3次元の軸上位置を示す幅位置Xd、高さ位置Yd、前後位置Zdの各値の組合せが用いられる。また、顔器官点DOの向きの情報としては、例えば、3次元軸のうちX軸周りの回転角であるピッチPd、Y軸周りの回転角であるヨーYd、Z軸周りの回転角であるロールRdからなる各値の組合せが用いられる。これらは、運転者Dの頭部の位置を示す情報、及び、運転者Dの頭部運動を示す情報となる。
カメラ11で撮影された1以上の画像から、前記幅位置Xd、高さ位置Yd、前後位置Zd、ピッチPd、ヨーYd、ロールRdのうち、少なくとも1つ以上の値の組合せ、これらの平均値又は最頻値などの値の組合せを、顔器官点DOの移動情報として用いることができる。
本実施の形態では、情報処理装置10が、カメラ11によって撮影された画像を取得し、取得した画像から運転者Dの頭部運動を算出するとともに、移動体Mの運動情報を取得する。そして、情報処理装置10の第1判定部12dが、取得した前記情報に基づいて、運転者Dが特定の状態(以下「第1の状態」という。)にあるか否かを判定する(図7)。第1の状態は、具体的には、運転者Dが移動体Mの外部(ここでは車外)を注視している状態であるといえる。
情報処理装置10の第1判定部12dは、移動体M内の運転者Dの頭部運動の変化量を、移動体M自体の運動情報に応じて修正した上で、あらかじめ設定された閾値をこえるか否か、判別するものとしてもよい。
制御ユニット12は、記憶ユニット13に各種データを記憶する処理を行う。また、制御ユニット12は、記憶ユニット13に記憶された各種データや各種プログラムを読み出し、これらプログラムを実行する。制御ユニット12が記憶ユニット13と協働して、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fの動作、さらには、算出部12g、処理部12h、及び基準変更部12iの動作が実現される。
画像取得部12aは、所定のフレームレートで撮影された運転者Dの画像をカメラ11から取得する処理を行い、カメラ11から取得した画像を画像記憶部13aに記憶する処理を行う。
検出部12bは、画像記憶部13aに記憶された画像を毎フレーム、又は所定間隔のフレーム毎に読み出し、これら画像から運転者Dの頭部DHを検出する処理を行い、検出した運転者Dの頭部DHの運動情報を、当該画像と対応付けて顔の向き記憶部13bに記憶する処理を行う。
運転者Dの頭部DHの運動情報には、画像処理により検出された運転者Dの顔の向きを示す角度、例えば、上記したヨー角、ピッチ角、及びロール角のうち少なくとも1つの角度の情報が含まれる。また、運転者Dの頭部DHの運動情報には、目、鼻付け根部、鼻先端部、口、眉、頭頂部などの顔器官点DOに関する位置情報が含まれる。顔器官点DOは例えば、顔の各器官の代表的又は特徴的な位置を示す特徴点として画像処理によって特定され、頭部運動の基準点として検出される。
情報取得部12cは、運転制御装置30を介して移動体Mの運動情報を取得する処理を行い、取得した前記情報を第1判定部12dに出力する。情報取得部12cの処理と、画像取得部12aの処理との先後は必ずしも限定されない。例えば、これらの各処置を並行して行ってもよい。なお、情報取得部12cは、運転制御装置30を介さずに、車載システム(図示せず)の各部から前記情報を取得するようにしてもよい。
移動体Mの運動情報には、少なくともジャイロセンサ2で検出された回転角速度などが含まれる。
また、情報取得部12cは、移動体Mの加減速情報や移動体Mの傾斜情報等を取得してもよい。
また、情報取得部12cは、移動体Mの位置情報と、移動体Mの周辺の地図情報とを取得してもよい。これら情報には、例えば、ナビゲーション装置で割り出された自車位置と、該自車位置周辺の地図情報などが含まれる。
さらに、情報取得部12cは、移動体Mの周辺、特に進行方向に存在する他の移動体や人などの監視対象物に関する情報を取得してもよい。これら情報には、例えば、周辺監視センサで検出された、対象物の種類や対象物までの距離に関する情報などが含まれる。
第1判定部12dは、運転者Dに関する第1の状態の条件を満たすか否かを判別する。第1判定部12dは、カメラ11により撮影された顔の画像を用いて、第1の状態か否かを視線ベクトルに基づいて判別する。判別結果は例えば二値信号として、第1判定部12dから第2判定部12eに出力される。第1判定部12dは、本開示に係る第1の判別部の一例である。
第2判定部12eは、現在の状態が後述のVOR情報の算出に適さない状態であるか否かを判別する。本実施の形態では、一例として、眼球の運動方向と顔の運動方向とが同方向である状態をVOR情報の算出に適さない状態とし、以下これを「第2の状態」ともいう。例えば、第2判定部12eは、カメラ11により撮影された顔の画像を用いて、眼球の運動方向と顔の運動方向とが同方向か否かを判別することによって、第2の状態か否かを判別することができる。判別結果は例えば二値信号として、第2判定部12eから基準決定部12fに出力される。第2判定部12eは、本開示に係る第2の判別部の一例である。
基準決定部12fは、運転者Dが第1の状態にあり、かつ第2の状態にあると判別されているときの運転者Dの頭部DHを含む画像要素ID20(図6)を画像解析によって抽出し、さらに、運転者Dの頭部DHに含まれる眼球の画像要素ID10(図6)を画像解析によって抽出する。眼球の画像要素ID10に基づいて、瞳孔101の位置及び向きを特定する処理を行う。そして、連続撮影された各画像の顔器官点DOの位置情報及び向きの情報の変化に基づいて、運転者Dの“眼球運動”を決定する処理を行い、決定した頭部運動を基準記憶部13dに記憶する。
具体的には、まず、第2判定部12eで判定された、運転者Dの顔の向きと視線の向きの変化が同一方向ではない、“非同方向運動状態(すなわち第2の状態)”にあると推定できる状態が所定期間以上継続しているか否かが判定される。すなわち、第2判定部12eから、“非同方向運動状態”にあることを示す判定結果を撮影された画像のフレーム毎に付与し、当該判定結果が、所定のフレーム数以上継続したか否かが判定される。
所定期間以上継続して取得されたと判断すれば、基準決定部12fは、次に、顔の向き記憶部13bから前記所定期間に取得した画像に対応する運転者Dの眼球(図3の実施形態では顔器官点DOとなる左目)の画像要素ID10を読み出し、連続的又は断続的に読み出した各フレームの眼球の画像要素ID10から、運転者Dの眼球運動を決定する。
眼球運動は、眼球内における瞳孔101の位置に関する情報であるから、例えば、カメラ11で撮影される眼球の画像要素に基づいて、眼球の画像要素における瞳孔101の動きを特定することにより求めることができる。瞳孔101の位置情報の変化を特定することで、運転者Dの眼球運動が決定される。
上記した検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、基準決定部12f、及び顔の向き記憶部13bが協働して、VORに関する情報(以下「VOR情報」という。)の算出処理を実行する。
一方、算出部12g、処理部12h、及び基準記憶部13dが協働して、運転者Dの状態を把握(モニタリング)する処理を実行する。
算出部12gは、基準決定部12fで決定された顔の向き記憶部13bから頭部を含む画像を読みだすと共に、眼球運動を基準記憶部13dから読み出して、頭部運動及び眼球運動からVOR情報の算出処理を行い、算出結果を処理部12hに出力する。
処理部12hは、算出部12gで算出された、顔の向きの基準に対する運転者Dの顔の向き(例えば、基準値からのずれ)に基づいて、所定の処理を行う。
所定の処理は、例えば、脇見状態にあるか否かの判定処理を行って、脇見状態にある場合(例えば、左右方向の顔の向きが基準値から所定値以上ずれている場合)、報知装置37に報知を指示する処理でもよいし、報知処理を行うことなく、脇見状態にある顔の向きの情報を記憶ユニット13に記憶する処理や、運転制御装置30に出力する処理でもよい。
また、処理部12hは、VOR情報の算出処理の算出結果によって、運転者Dの覚醒度の低下が予兆されるかどうかの判定処理を行い、覚醒度の低下が予兆されると判断される場合には、報知装置37に検知信号を出力して、移動体M内へ覚醒度低下に関する報知を指示する処理を行ってもよい。
また、処理部12hは、報知処理に代えて、又は報知処理とともに、運転者Dの覚醒度が低下した状態になっているときのVOR情報を記憶ユニット13に記憶する処理を行ってもよい。
また、処理部12hは、移動体Mの移動状態の判定処理を行って、明らかに移動体Mが停止している場合、或いは明らかに移動体Mが右左折移動を行っている場合を検知し、前記いずれの場合でもない時に限って、前記報知処理、あるいは前記記憶ユニット13への記憶処理を行ってもよい。
また、所定の処理は、自動運転モードから手動運転モードへの切り替え時において、運転者Dが手動運転への引き継ぎが可能な状態にあるか否かの判定処理を行って、引き継ぎが可能な状態にあると判定された場合(例えば、基準値からの顔の向きのずれが、手動運転に適切な所定範囲内である場合)、運転制御装置30に、手動運転への切り替えを許可する信号を出力する処理でもよい。
基準変更部12iは、基準決定部12fで決定された顔の向きの基準、例えば、基準値を変更する処理を行い、変更した基準値を基準記憶部13dに記憶する処理を行う。
例えば、特定の走行状態(例えば、直進している走行状態)であるときに、算出部12gで算出された前記運転者Dの顔の向きと、前記顔の向きの基準との差が所定範囲内である状態(例えば、基準値から一定の方向に顔の向きがずれているが、脇見ほどずれていない状態)で一定期間又は断続的に継続している場合に、前記差が小さくなるように前記顔の向きの基準を変更、例えば補正してもよい。また、基準変更部12iが行う処理には、運転者Dが変わった場合に、顔の向きの基準を変更する処理も含まれる。
実施の形態に係る算出システムは、運転者Dが、運転席に着座し、外部の注視点Pを注視した状態にあるとき、運転者Dの眼球運動、及び頭部運動に基づいて、運転者DのVOR情報が算出される。
図7は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理動作全体の一例を示すフローチャートである。
まず、ステップS1では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS2では、取得した画像から運転者Dの頭部を含む画像要素ID20を抽出し、当該画像要素に含まれる顔器官点を検出したうえで、移動体M座標系における運転者Dの頭部運動を算出する処理を行う。カメラ11では、毎秒所定フレーム数の画像が撮影される。
制御ユニット12は、これら撮影された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行する。
次に、ステップS3では、制御ユニット12が、取得した画像から運転者Dの眼球を含む画像要素ID10を抽出したうえで、眼球運動を算出する処理を行う。
次に、ステップS4では、ジャイロセンサ2によって得られた情報に基づき、車両運動を算出し、次にステップS5に進む。
ステップS5では、絶対座標系に関する運転者Dの頭部運動を求めるために、ステップS2で算出された車両座標系における運転者Dの頭部運動の値に、ステップS4で算出された移動体Mの絶対座標系における車両運動の値を加算する処理を行う。この加算処理は、例えば、ある時刻における頭部運動を示す値を、当該時刻の車両運動を示す値とを加算する処理である。
次に、ステップS6では、第1判定部12dによって、運転者Dが第1の状態にあるか否かが判断され、第1の状態にあると判断されれば、次にステップS7に進み、第1の状態にはないと判断されれば、本処理を終了する。
次に、ステップS7では、運転者Dが第1の状態にあると判断されたときの絶対座標系に変換された頭部運動及び眼球運動に基づいて、運転者DのVOR情報を算出する処理を行い、その後、ステップS8に進む。
ステップS8では、VOR情報を記憶ユニット13に格納して記憶していく処理が行われ、同時に、5秒以上前のデータは消去され、直近5秒間以内のVOR情報への書換えが行われる。
その後、ステップS9では、5秒間分のデータが格納されたか否かが判断され、格納されたと判断されれば、ステップS10に進み、一方、格納されたと判断されなければ、本処理を終了する。
ステップS10では、第2判定部12eにおいて頭部運動と眼球運動との相関性が“同方向運動状態にある”と判断されたデータを除外する処理が行われ、その後、ステップS11に進み、ステップS11では、“非同方向運動状態”と判断されたVOR情報のみの出力処理が行われ、その後、本処理が終了する。
図8は、実施の形態に係る情報処理装置10の制御ユニット12が行う、頭部運動算出処理(図7に示したフローチャートにおけるステップS2の処理)の詳細を示すフローチャートである。
まず、ステップS21では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次に、ステップS22では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS23に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
ステップS23では、取得した画像に基づいて運転者Dの頭部DHから顔器官点DOが検出できるか否かを判断し、顔器官点DOが検出できると判断すると、次にステップS24に進む一方、顔器官点DOが検出できないと判断すると、本処理を終了する。
ステップS24では、検出された顔器官点の位置の移動量である“顔運動量”を、移動体Mにおける車両座標系での運動量(すなわち移動体Mに対する相対的顔運動量)として算出する。
次にステップS25に進み、ステップS25では、顔器官点位置の移動量に基づき、車両座標系における頭部運動を算出し、次に、ステップS26に進む。
ステップS26では、算出された頭部運動を示す情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
図9は、実施の形態に係る情報処理装置10の制御ユニット12が行う、眼球運動算出処理(図7に示したフローチャートにおけるステップS3の処理)の詳細を示すフローチャートである。
まず、ステップS31では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS32に進み、ステップS32では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS33に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
ステップS33では、取得した画像に基づいて運転者Dの頭部DHから眼球DOが検出できるか否かを判断し、眼球DOが検出できると判断すると、次にステップS34に進む一方、眼球DOが検出できないと判断すると、本処理を終了する。
ステップS34では、運転者Dの眼球DOから瞳孔101が検出できるか否かを判断し、瞳孔101が検出できると判断すると、次にステップS35に進む一方、瞳孔101が検出できないと判断すると、本処理を終了する。
ステップS35では、瞳孔の移動量を算出し、次にステップS36に進み、ステップS36では、瞳孔の移動量に基づいて、眼球の移動量を算出し、次にステップS37に進み、ステップS37では、眼球の移動量に基づいて、眼球運動を算出する。
次にステップS38に進み、ステップS38では、算出された眼球運動を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
図10は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理(図7に示したフローチャートにおけるステップS7の処理)の詳細を示すフローチャートである。
まず、ステップS71では、前庭動眼反射のゲイン(VORゲイン)が算出される。
次に、ステップS72では、頭部角速度と眼球角速度の位相差が算出される。
次に、ステップS73では、VORゲインと上記位相差に基づいて、残差標準偏差が算出される。
次に、ステップS74では、これらのVOR情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
[他の適用例]
実施の形態に係る情報処理装置を含む算出システムの他の適用例を図11に示す。本適用例は撮像部として二つのカメラを備えている点、照射部3が不可視光線像を運転者Dの眼球に加えて運転者D背部にも照射する点で、図2に示した適用例とは異なっている。
図11に示す適用例では、撮像部が、カメラ11と補助カメラ4とからなる二つのカメラを異なる位置に備えている。異なる2つの位置から運転者Dの頭部を含む画像を取得することで、撮影される画像の奥行き方向の値の変化を確実に得ることができる。
また、図11に示す適用例では、運転者D背部に照射時刻と同期して表示変化する不可視光線の時刻表示画像を照射する。時刻表示画像は例えば時刻変化する時計の画像からなる。カメラによって撮影される画像に時刻表示画像を含めることで、撮影した画像と各画像の撮影時刻との同期を確実に行うことができる。なお、時刻表示画像は、時刻を識別可能な画像であればよい。例えば、時刻表示画像は、時計のような人間が時刻を認識できる画像に限定されず、バーコード、2次元コード等の符号化された画像であってもよい。
以上、本発明の実施の形態を詳細に説明したが、上記説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
上記実施の形態では、算出システムを車両に適用した場合について説明したが、車両以外の他の移動体、例えば、船舶、潜水機、航空機にも適用することが可能である。
[付記]
本発明の実施の形態は、以下の付記のようにも記載され得るが、これらに限定されない。
[付記1]
移動体に設置されたカメラ(11)によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部(31)と、
前記移動体に設置されたセンサ(2)によって計測された前記移動体の運動データ、及び、
カメラ(11)によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部(32)と、
を備えていることを特徴とする情報処理装置。
[付記2]
移動体M中の人物の覚醒に関する指標を算出する方法であって、
移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
を備えていることを特徴とする指標算出方法。
[付記3]
情報処置装置(10)と、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段とを備えていることを特徴とする運転支援システム。
[付記4]
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。
1 算出システム
2 ジャイロセンサ
3 照射部
4 補助カメラ
10 情報処理装置
11 カメラ
11A 瞳孔中心
12 制御ユニット
13 記憶ユニット
30 運転制御装置
31 第1の算出部
32 第2の算出部
33 第3の算出部
37 報知装置
101 瞳孔
110 入出力インターフェース
121 角膜反射像
M 移動体
D 運転者
DO 顔器官点
X−Y−Z 絶対座標系における三次元軸
本発明は、算出システム指標算出方法、およびコンピュータプログラムに関する。
本発明は上記課題に鑑みなされたものであって、移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システム指標算出方法、およびコンピュータプログラムを提供することを例示的な目的としている。
上記目的を達成するために、本開示に係る算出システム(1)は、
移動体に設置され、前記移動体中の人物の顔を撮影する撮像部と、
前記移動体に設置され、前記移動体の運動データを計測するセンサと、
前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記移動体中の前記人物の頭部運動を算出する第2の算出部と、
前記第1の算出部によって算出された眼球運動、及び、前記第2の算出部によって算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出部と、
を備えていることを特徴としている。
上記算出システム(1)によれば、前記移動体に設置された前記撮像部により移動体中における前記人物の顔の画像が撮影され、前記移動体に設置された前記センサにより移動体の運動データが計測され、前記第1の算出部により、前記人物の顔の画像に基づいて前記人物の眼球運動が算出される。そして前記第2の算出部により前記移動体の運動データ及び顔の画像に基づいて前記人物の頭部運動が算出される。
従って、移動体の運動を考慮した頭部運動が算出される。このため、少なくとも前記撮像部及び前記センサが移動体に配備され、移動体が移動中の場合であっても、頭部運動の正確な情報を得ることができる。
前記撮像部と前記センサとが移動体に設置された構成で、さらに前記第3の算出部を備えることで、運転者の頭部に撮像部やセンサを装着しなくても、移動体の運動を考慮した頭部運動の情報に基づいて前記移動体中における前記人物の覚醒に関する指標を高い精度で算出することが可能となる。
また、本開示に係る算出システム()は、上記算出システム()において、
前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している外部注視状態か否かを判別する第1の判別部をさらに備え、
前記第3の算出部は、前記第1の判別部によって外部を注視している外部注視状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴としている。
上記算出システム()は、覚醒に関する指標の算出を、人物が移動体の外部の注視点を注視している場合に行うものである。上記算出システム()によれば、車外を注視している場合の頭部運動と眼球運動の情報に基づいて運転者の覚醒に関する指標を算出することで、高い精度の覚醒に関する指標を得ることができる。車外を注視している状態の覚醒に関する指標としては、例えばVOR(前庭動眼反射)の各値が挙げられる。
また、本開示に係る算出システム()は、上記算出システム()又は()のいずれかにおいて、
前記撮像部により撮影された顔の画像を用いて、眼球運動と頭部運動とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の判別部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴としている。
また、本開示に係る算出システム()は、上記算出システム()〜()のいずれかにおいて、
前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴としている。
上記算出システム()によれば、覚醒度低下の指標として知られるVOR(前庭動眼反射)に関する各値、又はこれらに基づく演算値を用いることで、覚醒度との相関性に優れた指標を算出することができる。
また、本開示に係る覚醒に関する指標算出方法(1)は、
移動体中の人物の覚醒に関する指標を算出する方法であって、
前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップ
において算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出す
る第3の算出ステップと、
を備えていることを特徴としている。
上記覚醒に関する指標算出方法(1)によれば、移動体の運動状態にかかわらず、頭部運動を得ることができる。これにより、第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に算出することが可能となる。
また、本開示に係る覚醒に関する指標算出のためのコンピュータプログラム(1)は、
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
前記移動体に設置された撮像部によって撮像された、前記移動体中の前記人物の顔の画像を取得する画像取得ステップと
前記移動体に設置されたセンサによって計測された、移動中の前記移動体の運動データを取得する情報取得ステップと
前記画像取得ステップにおいて取得した顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記画像取得ステップにおいて取得した顔の画像、及び、前記情報取得ステップにおいて取得した前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を実行させることを特徴としている。
上記覚醒に関する指標算出のためのコンピュータプログラム(1)によれば、移動体の運動状態にかかわらず、頭部運動を取得させることができる。これにより、前記第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に、コンピュータに算出させることが可能となる。

Claims (10)

  1. 移動体中の人物の顔を撮影する撮像部と、
    前記移動体の運動データを計測するセンサと、
    前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
    前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記人物の頭部運動を算出する第2の算出部と、
    を備えていることを特徴とする算出システム。
  2. さらに、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体中における人物の覚醒に関する指標を算出する第3の算出部を備えていることを特徴とする請求項1記載の算出システム。
  3. 前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している第1の状態か否かを判別する第1の判別部をさらに備え、
    前記第3の算出部は、前記第1の判別部によって第1の状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴とする請求項2記載の算出システム。
  4. 前記撮像部により撮影された顔の画像を用いて、眼球と頭部とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
    前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴とする請求項2又は請求項3記載の算出システム。
  5. 前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴とする請求項2〜4のいずれかの項に記載の算出システム。
  6. 前記頭部運動が、
    前記撮像部により撮影された顔の画像に基づく顔の運動情報と、
    前記センサにより計測された前記移動体の運動情報と、の対応値同士の加算によって、
    前記移動体外の絶対座標系の値として算出されることを特徴とする請求項2〜5のいずれかの項に記載の算出システム。
  7. 移動体に設置された撮像部によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部と、
    前記移動体に設置されたセンサによって計測された前記移動体の運動データ、及び、前記撮像部によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部と、
    を備えていることを特徴とする情報処理装置。
  8. 請求項7に記載の情報処理装置と、
    前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段と
    を備えていることを特徴とする運転支援システム。
  9. 移動体中の人物の覚醒に関する指標を算出する方法であって、
    前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
    前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
    前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
    前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
    前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
    を備えていることを特徴とする覚醒に関する指標算出方法。
  10. 移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
    前記少なくとも1つのコンピュータに、
    前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
    前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
    前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
    前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
    前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
    を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。
JP2018048269A 2018-03-15 2018-03-15 算出システム、指標算出方法、およびコンピュータプログラム Active JP6432702B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018048269A JP6432702B1 (ja) 2018-03-15 2018-03-15 算出システム、指標算出方法、およびコンピュータプログラム
PCT/JP2019/006511 WO2019176492A1 (ja) 2018-03-15 2019-02-21 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018048269A JP6432702B1 (ja) 2018-03-15 2018-03-15 算出システム、指標算出方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP6432702B1 JP6432702B1 (ja) 2018-12-05
JP2019154929A true JP2019154929A (ja) 2019-09-19

Family

ID=64560686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018048269A Active JP6432702B1 (ja) 2018-03-15 2018-03-15 算出システム、指標算出方法、およびコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP6432702B1 (ja)
WO (1) WO2019176492A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234632A1 (ja) * 2021-05-07 2022-11-10 三菱電機株式会社 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法
WO2024079779A1 (ja) * 2022-10-11 2024-04-18 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
WO2024122039A1 (ja) * 2022-12-09 2024-06-13 三菱電機株式会社 集中度判定装置及び集中度判定方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6972393B2 (ja) * 2019-01-21 2021-11-24 三菱電機株式会社 注意力判定装置、注意力判定システム、注意力判定方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04288123A (ja) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk 視線表示装置
WO2010032424A1 (ja) * 2008-09-18 2010-03-25 学校法人中部大学 眠気予兆検出装置
WO2010091464A1 (en) * 2009-02-11 2010-08-19 Seeing Machines Limited Method and system for monitoring an operator of machinery
JP6344747B2 (ja) * 2016-12-26 2018-06-20 ヤマハ発動機株式会社 演算処理装置及び人の状態推定方法
EP4368469A2 (en) * 2017-08-10 2024-05-15 Yamaha Hatsudoki Kabushiki Kaisha Visual line movement-related value acquisition device, and transport apparatus equipped with same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234632A1 (ja) * 2021-05-07 2022-11-10 三菱電機株式会社 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法
JP7466766B2 (ja) 2021-05-07 2024-04-12 三菱電機株式会社 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法
WO2024079779A1 (ja) * 2022-10-11 2024-04-18 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
WO2024122039A1 (ja) * 2022-12-09 2024-06-13 三菱電機株式会社 集中度判定装置及び集中度判定方法

Also Published As

Publication number Publication date
JP6432702B1 (ja) 2018-12-05
WO2019176492A1 (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
WO2019176492A1 (ja) 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体
CN109791739B (zh) 晕车估计装置、晕车防止装置和晕车估计方法
JP7099037B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
CN106663377B (zh) 驾驶员的驾驶不能状态检测装置
JP5406328B2 (ja) 車両用表示装置、その制御方法及びプログラム
JP6454368B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
JP6497158B2 (ja) 表示装置、移動体
CN109760689A (zh) 驾驶员监视系统
JP2016057839A (ja) 顔向き検出装置及び車両用警告システム
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP2015207163A (ja) 状態推定装置、および状態推定プログラム
JP2008079737A (ja) 集中度評価装置及びこれを用いた車両用表示装置
JP2018183532A (ja) 状態推定装置
JP2015085719A (ja) 注視対象物推定装置
JP7099036B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP6418342B1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP6418341B1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP4325271B2 (ja) 状態検出装置及び状態検出システム
JP7024332B2 (ja) ドライバモニタシステム
JP2017126151A (ja) 視線検出装置および視線検出方法
JP6775135B2 (ja) ドライバ状態検出装置
CN113879321B (zh) 驾驶员监视装置及驾驶员监视方法
JP7298351B2 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム
JP7060841B2 (ja) 運転評価装置、運転評価方法、及び運転評価プログラム
US20230394702A1 (en) Device, method, and computer program for estimating seat position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180315

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6432702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150