JP7409184B2 - 状態推定装置 - Google Patents

状態推定装置 Download PDF

Info

Publication number
JP7409184B2
JP7409184B2 JP2020049973A JP2020049973A JP7409184B2 JP 7409184 B2 JP7409184 B2 JP 7409184B2 JP 2020049973 A JP2020049973 A JP 2020049973A JP 2020049973 A JP2020049973 A JP 2020049973A JP 7409184 B2 JP7409184 B2 JP 7409184B2
Authority
JP
Japan
Prior art keywords
user
state
attention
estimation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020049973A
Other languages
English (en)
Other versions
JP2021145974A (ja
Inventor
耕二 岩瀬
和夫 坂本
明秀 ▲高▼見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2020049973A priority Critical patent/JP7409184B2/ja
Priority to EP21157824.0A priority patent/EP3882744A1/en
Priority to CN202110188140.6A priority patent/CN113495623A/zh
Priority to US17/178,277 priority patent/US20210290129A1/en
Publication of JP2021145974A publication Critical patent/JP2021145974A/ja
Application granted granted Critical
Publication of JP7409184B2 publication Critical patent/JP7409184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks

Description

ここに開示する技術は、状態推定装置に関する。
特許文献1には、携帯端末が開示されている。この携帯端末は、入力操作をするための複数のオブジェクトを主面に表示する表示部と、移動を検出する移動検出部と、画像を取得する画像取得部と、視線位置検出部と、制御部とを備える。視線位置検出部は、画像取得部により取得された画像に基づいて、複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する。制御部は、複数のオブジェクトのうち、視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定する。また、制御部は、表示部の主面に対して水平方向の移動が移動検出部により検出された場合には、その水平方向の移動検出後に視線位置検出部により検出される視線位置を第2の視線位置として確定する。そして、制御部は、第1の視線位置と第2の視線位置との間の距離が閾値以上である場合に、対象オブジェクトの表示位置を第2の視線位置に基づいて変更する。
特開2016-103102号公報
ところで、特許文献1のような携帯端末の機能向上などのために、注意機能低下状態などを含む携帯端末の利用者の状態を推定することが考えられる。しかしながら、どのようにして携帯端末の利用者の状態を推定するのかについては、従来、論じられていない。
ここに開示する技術は、かかる点に鑑みてなされたものであり、その目的とするところは、携帯端末の利用者の状態を推定することにある。
ここに開示する技術は、画像を表示する表示部を有する携帯端末の利用者の状態を推定する状態推定装置に関し、この状態推定装置は、前記利用者の視線を検出する視線検出部と、前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備える。
本願発明者は、鋭意研究の結果、表示部に表示される画像に対する利用者の視線の動きと利用者の状態(特に注意機能に関する状態)との間に相関があることを見出した。したがって、第1推定処理を行うことにより、表示部に表示される画像に対する利用者の視線の動きに基づいて、注意機能低下状態を含む利用者の状態を推定することができる。
前記状態推定装置において、前記推定処理部は、前記利用者のメインタスクが前記携帯端末の操作に該当する場合に、前記第1推定処理を行い、前記利用者のメインタスクが前記携帯端末の操作に該当しない場合に、前記第1推定処理を行わないように構成されてもよい。
なお、利用者のメインタスクが携帯端末の操作に該当する場合、携帯端末の表示部に表示された画像に利用者の視線が向きやすくなる。そのため、表示部に表示される画像に対する利用者の視線の動きが阻害されにくい。一方、利用者のメインタスクが携帯端末の操作に該当しない場合、携帯端末の表示部に表示された画像に利用者の視線が向きにくくなる。そのため、表示部に表示される画像に対する利用者の視線の動きが阻害されやすい。したがって、利用者のメインタスクが携帯端末の操作に該当する場合に第1推定処理を行い、利用者のメインタスクが携帯端末の操作に該当しない場合に第1推定処理を行わないようすることにより、表示部に表示される画像に対する利用者の視線の動きに基づく第1推定処理を適切に行うことができる。これにより、利用者の状態の推定を適切に行うことができる。
前記状態推定装置において、前記第1推定処理において前記利用者の状態が前記注意機能低下状態であると推定されるための条件は、前記利用者のメインタスクが前記携帯端末の操作に該当しない場合のほうが、前記利用者のメインタスクが前記携帯端末の操作に該当する場合よりも厳しくてもよい。
なお、利用者のメインタスクが携帯端末の操作に該当しない場合、携帯端末の表示部に表示される画像に対する利用者の視線の動きが阻害されやすいので、第1推定処理における利用者の状態の推定に誤りが生じやすい。したがって、利用者のメインタスクが携帯端末の操作に該当しない場合に行われる第1推定処理における条件(利用者の状態が注意機能低下状態であると推定されるための条件)を、利用者のメインタスクが携帯端末の操作に該当する場合に行われる第1推定処理における条件よりも厳しくすることにより、第1推定処理における利用者の状態の推定誤りの発生を低減することができる。これにより、利用者の状態の推定を適切に行うことができる。
前記状態推定装置において、前記推定処理部は、前記第1推定処理において、前記表示部に表示される画像と前記視線検出部により検出される前記利用者の視線とに基づいて、前記画像に対する前記利用者のボトムアップ注意に割り当てられる注意資源の量と相関のあるボトムアップ指標値を計測するボトムアップ計測部と、前記第1推定処理において、前記ボトムアップ計測部により計測されたボトムアップ指標値に基づいて、前記利用者の状態を推定する推定部とを有してもよい。
前記の構成では、利用者のボトムアップ注意に割り当てられる注意資源の量(以下では「ボトムアップ注意資源量」と記載)に基づいて、利用者の状態を適切に推定することができる。これにより、利用者の状態の推定を適切に行うことができる。
前記状態推定装置において、前記ボトムアップ計測部は、前記第1推定処理において、前記表示部に表示される画像におけるサリエンシーの分布を検出するサリエンシー検出部と、前記第1推定処理において、前記画像におけるサリエンシーの分布に対する前記利用者の視線の動きに基づいて前記ボトムアップ指標値を導出するボトムアップ指標導出部とを有してもよい。
前記の構成では、表示部に表示される画像におけるサリエンシーの分布に対する利用者の視線の動きに基づいて、ボトムアップ指標値を適切に導出することができる。これにより、利用者の状態の推定を適切に行うことができる。
前記状態推定装置において、前記推定処理部は、前記第1推定処理において、前記表示部に表示される画像と前記視線検出部により検出される前記利用者の視線とに基づいて、前記画像に対する前記利用者のトップダウン注意に割り当てられる注意資源の量と相関のあるトップダウン指標値を計測するトップダウン計測部を有してもよい。前記推定部は、前記第1推定処理において、前記トップダウン計測部により計測されたトップダウン指標値と前記ボトムアップ計測部により計測されたボトムアップ指標値とに基づいて、前記利用者の状態を推定してもよい。
前記の構成では、利用者のトップダウン注意に割り当てられる注意資源の量(以下では「トップダウン注意資源量」と記載)とボトムアップ注意資源量とに基づいて、利用者の状態を適切に推定することができる。これにより、利用者の状態の推定を適切に行うことができる。
前記状態推定装置において、前記トップダウン計測部は、前記第1推定処理において、前記表示部に表示される画像における注目箇所を検出する注目箇所検出部と、前記第1推定処理において、前記画像における注目箇所に対する前記利用者の視線の動きに基づいて前記トップダウン指標値を導出するトップダウン指標導出部とを有してもよい。
前記の構成では、表示部に表示される画像における注目箇所に対する利用者の視線の動きに基づいて、トップダウン指標値を適切に導出することができる。これにより、利用者の状態の推定を適切に行うことができる。
前記状態推定装置において、前記推定処理部は、前記利用者のメインタスクが歩行に該当する場合に、前記利用者の周囲環境に対する前記利用者の視線の動きに基づいて前記利用者の状態を推定する第2推定処理を行うように構成されてもよい。
本願発明者は、鋭意研究の結果、利用者の周囲環境に対する利用者の視線の動きと利用者の状態(特に注意機能に関する状態)との間に相関があることを見出した。また、利用者のメインタスクが歩行に該当する場合、利用者の周囲環境に利用者の視線が向きやすくなる。したがって、利用者のメインタスクが歩行に該当する場合に、第2推定処理を行うことにより、利用者の周囲環境に対する利用者の視線の動きに基づいて、注意機能低下状態を含む利用者の状態を適切に推定することができる。これにより、利用者の状態の推定を適切に行うことができる。
前記状態推定装置において、前記推定処理部は、前記表示部に表示される画像に対する前記利用者のボトムアップ注意の生じやすさに応じて、前記第1推定処理と、前記利用者の認知反応時間に基づいて前記利用者の状態を推定する処理とを選択的に行うように構成されてもよい。
前記の構成では、表示部に表示される画像に対する利用者のボトムアップ注意の生じやすさを考慮することにより、表示部に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する第1推定処理と、利用者の認知反応時間に基づいて利用者の状態を推定する処理とを適切に行うことができる。これにより、利用者の状態の推定を適切に行うことができる。
ここに開示する技術によれば、携帯端末の利用者の状態を推定することができる。
実施形態1の携帯端末の外観を例示する斜視図である。 実施形態1の携帯端末の構成を例示するブロック図である。 表示部に表示されるアプリ選択画像を例示する図である。 ニュースアプリの記事閲覧画像を例示する図である。 テレビアプリの視聴画像を例示する図である。 SNSアプリのメッセージ閲覧画像を例示する図である。 注意機能低下に伴うトップダウン注意およびボトムアップ注意の各々に割り当てられる注意資源の量の変化と認知反応時間の変化を例示する図である。 状態推定部の構成を例示するブロック図である。 利用者の前方環境を示す前方環境画像を例示する図である。 携帯端末画像が重ねられた前方環境画像を例示する図である。 注目箇所の分布を示す注目箇所マップを例示する図である。 サリエンシーの分布を示すサリエンシーマップを例示する図である。 注視点におけるサリエンシーの変化を例示するグラフである。 ランダム点におけるサリエンシーの変化を例示するグラフである。 注視点におけるサリエンシーが閾値を超える確率とランダム点におけるサリエンシーが閾値を超える確率との関係を示すグラフである。 推定処理部の動作について説明するためのフローチャートである。 実施形態1の第1処理について説明するためのフローチャートである。 実施形態1の第2処理について説明するためのフローチャートである。 実施形態1の第3処理について説明するためのフローチャートである。 実施形態1の第4処理について説明するためのフローチャートである。 実施形態1の第5処理について説明するためのフローチャートである。 実施形態1の第6処理について説明するためのフローチャートである。 実施形態2の状態推定部の構成を例示するブロック図である。 実施形態2の第1処理について説明するためのフローチャートである。 実施形態2の第4処理について説明するためのフローチャートである。
以下、図面を参照して実施の形態を詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。
(実施形態1)
図1および図2は、実施形態1の携帯端末10の外観および構成を例示する。携帯端末10は、利用者の手に持たれて操作される。この例では、携帯端末10は、スマートフォンを構成する。具体的には、携帯端末10は、筐体10aと、表示部11と、スピーカ12と、記憶部13と、情報取得部20と、制御装置30とを備える。以下では、携帯端末10の利用者を単に「利用者」と記載する。
〔筐体〕
筐体10aは、扁平な直方体型の箱状に形成される。筐体10aには、携帯端末10の構成部品が収納される。
〔表示部とスピーカと記憶部〕
表示部11は、画像を表示する。表示部11は、矩形の板状に形成され、筐体10aの前面に設けられる。スピーカ12は、音声を再生する。記憶部13は、各種の情報およびデータを記憶する。この例では、記憶部13は、携帯端末10において実行可能な各種のアプリケーションのプログラムを記憶する。以下では、アプリケーションを「アプリ」と記載する。このようなアプリの例としては、ニュースアプリ、テレビアプリ、SNS(Social Networking Service)アプリなどが挙げられる。
〔情報取得部〕
情報取得部20は、携帯端末10において用いられる各種の情報を取得する。この例では、情報取得部20は、フロントカメラ21と、リアカメラ22と、操作部23と、通信部24と、マイクロフォン25と、位置センサ26と、状態センサ27と、環境センサ28とを含む。
〈フロントカメラ〉
フロントカメラ21は、筐体10aの前面に設けられ、フロントカメラ21は、携帯端末10の前方に広がる前方領域を撮像することで、携帯端末10の前方領域を示す画像を取得する。このような構成により、フロントカメラ21は、利用者の顔(特に眼球)を含む画像を取得することが可能である。例えば、フロントカメラ21と利用者の顔とが向かい合うように携帯端末10が利用者の手に持たれた状態で、フロントカメラ21が撮像動作を行うことにより、利用者の顔を含む画像が取得される。フロントカメラ21により得られた画像(画像データ)は、制御装置30に送信される。例えば、フロントカメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。
〈リアカメラ〉
リアカメラ22は、筐体10aの後面に設けられる。リアカメラ22は、携帯端末10の後方に広がる後方領域を撮像することで、携帯端末10の後方領域を示す画像を取得する。このような構成により、リアカメラ22は、利用者の周囲に広がる周囲環境(この例では利用者の前方に広がる前方環境)を含む画像を取得することが可能である。例えば、リアカメラ22が前方環境を向くように携帯端末10が利用者の手に持たれた状態で、リアカメラ22が撮像動作を行うことにより、利用者の前方環境を含む画像が取得される。リアカメラ22により得られた画像(画像データ)は、制御装置30に送信される。例えば、リアカメラ22は、CCDやCMOSなどの固体撮像素子を用いて構成される。
〈操作部〉
操作部23は、利用者により操作され、利用者により与えられた操作に応じた信号を出力する。このような構成により、利用者は、操作部23を操作して情報を入力することができる。操作部23の出力は、制御装置30に送信される。この例では、操作部23は、表示部11とともにタッチパネルを構成するタッチ操作部を含む。なお、操作部23は、タッチ操作部の他に、操作ダイヤル、操作ボタンなどを含んでもよい。
〈通信部〉
通信部24は、携帯端末10の外部に設けられた通信ネットワーク(例えばインターネットや携帯電話回線など)を通じて各種の情報およびデータを受信する。例えば、通信部24は、他の情報端末(図示省略)からの音声データ、画像データ、地図情報などを受信する。通信部24により得られた情報およびデータは、制御装置30に送信される。
なお、上記の地図情報は、ダイナミックマップなどの三次元地図情報であってもよい。例えば、地図情報は、歩道などの道路に関する道路マップデータと、物体に関する物体情報とを含む。道路マップデータには、道路の形状、道路の構造、道路の勾配、区画線、路面標示などに関する情報が含まれる。物体情報には、静的物体情報と、動的物体情報とが含まれる。静的物体情報は、時間経過により変位しない静止体に関する情報である。静的物体情報には、静止体の形状、静止体の位置座標などに関する情報が含まれる。静止体の例としては、道路標識、構造物などが挙げられる。構造物の例としては、信号機、中央分離帯、センターポール、建物、看板、踏切、トンネル、軌道敷、バス停留所などが挙げられる。動的物体情報は、時間経過により変位する可能性がある動体に関する情報である。動的物体情報には、動体の形状、動体の位置座標、動体の速度などに関する情報が含まれる。動体の例としては、車両、歩行者などが挙げられる。
〈マイクロフォン〉
マイクロフォン25は、音声を電気信号に変換する。マイクロフォン25により得られた電気信号(音声データ)は、制御装置30に送信される。
〈位置センサ〉
位置センサ26は、携帯端末10の位置(例えば緯度と経度)を検出する。例えば、位置センサ26は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて携帯端末10の位置を検出する。位置センサ26により得られた情報(携帯端末10の位置)は、制御装置30に送信される。
〈状態センサ〉
状態センサ27は、携帯端末10の状態(例えば加速度や角速度や姿勢など)を検出する。例えば、状態センサ27は、加速度センサ、ジャイロセンサなどを含む。状態センサ27により得られた情報(携帯端末10の状態)は、制御装置30に送信される。
〈環境センサ〉
環境センサ28は、携帯端末10の周囲に広がる環境に関する情報(例えば光や磁気など)を検出する。例えば、環境センサ28は、光センサ、磁気センサ、近接センサなどを含む。環境センサ28により得られた情報(携帯端末10の周囲環境に関する情報)は、制御装置30に送信される。
〔制御装置〕
制御装置30は、携帯端末10の各部(この例では表示部11とスピーカ12と記憶部13と情報取得部20)と信号伝送可能に接続される。そして、制御装置30は、携帯端末10の各部により得られた情報に基づいて携帯端末10の各部を制御する。なお、制御装置30は、状態推定装置の一例である。
例えば、制御装置30は、1つまたは複数のIC(Integrated Circuit)により構成される。IC内には、単一のコアまたはダイが設けられてもよいし、連携する複数のコアまたはダイが設けられてもよい。コアまたはダイは、例えば、CPU(プロセッサ)と、CPUを動作させるためのプログラムやCPUでの処理結果などの情報を記憶するメモリとにより構成されてもよい。
制御装置30は、制御部31と、状態推定部40とを含む。
〈制御部〉
制御部31は、携帯端末10の各部により得られた各種の情報およびデータに基づいて携帯端末10の各部を制御する。また、制御部31は、記憶部13に記憶されたアプリのプログラムを実行することで、そのアプリに応じた動作を行う。
例えば、制御部31は、情報取得部20により得られた情報およびデータを記憶部13に記憶する。また、制御部31は、表示制御、通話制御などを行う。表示制御では、制御部31は、画像データを表示部11に出力する。表示部11は、画像データに示された画像を再生する。通話制御では、制御部31は、通信部24により得られた音声データをスピーカ12に出力する。スピーカ12は、音声データに示された音声を再生する。また、制御部31は、マイクロフォン25により得られた音声データを、通信部24を経由して通信ネットワークに送信する。
〈状態推定部〉
状態推定部40は、利用者の状態を推定する。なお、状態推定部40については、後で詳しく説明する。
〔用語の説明〕
次に、以下の説明において用いられる用語について説明する。以下の説明では、注意資源、トップダウン注意、トップダウン注意資源量、トップダウン注意ディマンド量、ボトムアップ注意、ボトムアップ注意資源量、ボトムアップ注意ディマンド量、タスクディマンド、注目箇所、サリエンシー、認知反応時間、注意機能低下状態、運動機能低下状態、認知運動機能低下状態、正常状態という用語が用いられる。
〈注意資源〉
注意資源は、人の注意力を定量的に示す概念である。人の注意力は、有限の資源であると考えることができる。ある対象に対する注意に割り当てられる注意資源の量が不足している場合、その対象に対して人の注意力を十分に発揮することができず、その対象に対する人の注意が不十分となる。
〈トップダウン注意〉
トップダウン注意は、人が意図する箇所に視線を能動的に移動させる注意メカニズムのことである。例えば、選ぶべき刺激について事前知識をもっている場合、人は、能動的にバイアスをかけることによって目的とする刺激を選択することができる。
〈トップダウン注意資源量とトップダウン注意ディマンド量〉
トップダウン注意資源量は、トップダウン注意に割り当てられる注意資源の量のことである。また、トップダウン注意ディマンド量は、トップダウン注意に対して要求される注意資源の量のことである。トップダウン注意資源量がトップダウン注意ディマンド量を下回ると、トップダウン注意が不十分となる。
〈ボトムアップ注意〉
ボトムアップ注意は、目立つ箇所に人の視線が受動的に惹きつけられる注意メカニズムのことである。例えば、複数の視覚刺激のうち1つの刺激が周囲の刺激と顕著に異なる場合、視覚刺激が突然出現した場合など、その刺激に対して人の視線が受動的に惹きつけられる。
〈ボトムアップ注意資源量とボトムアップ注意ディマンド量〉
ボトムアップ注意資源量は、ボトムアップ注意に割り当てられる注意資源の量のことである。また、ボトムアップ注意ディマンド量は、ボトムアップ注意に対して要求される注意資源の量のことである。ボトムアップ注意資源量がボトムアップ注意ディマンド量を下回ると、ボトムアップ注意が不十分となる。
〈タスクディマンド〉
タスクディマンドは、人に課せられるタスクの難易度のことである。タスクの難易度が高くなるに連れて、タスクディマンドが大きくなる。タスクの例としては、携帯端末10の表示を確認しながら携帯端末10を操作するという操作タスク、携帯端末10の表示を確認しながら歩行するという歩行タスクなどが挙げられる。操作タスクにおいて行われる動作の例としては、ニュース記事の閲覧、テレビ映像の閲覧、メッセージの閲覧、アイコンの視認、アイコンの選択などが挙げられる。歩行タスクにおいて行われる動作の例としては、状況監視、危険回避、交通ルール遵守、目的地探索などが挙げられる。
〈注目箇所〉
注目箇所は、タスクを達成するために人が注目すべき箇所のことであり、トップダウン注意において人が意図的に視線を向けるべき箇所である。注目箇所の例としては、表示部11に表示される画像における注目箇所、利用者の周囲環境における注目箇所などが挙げられる。
表示部11に表示される画像における注目箇所は、操作タスクを達成するために利用者が注目すべき箇所のことである。表示部11に表示される画像における注目箇所の例としては、操作タスクと関連性のある情報が表示される情報箇所、携帯端末10の操作のために視認すべき操作箇所などが挙げられる。情報箇所の例としては、意味性の高い箇所が挙げられる。
利用者の周囲環境における注目箇所は、歩行タスクを達成するために利用者が注目すべき箇所のことである。利用者の周囲環境における注目箇所の例としては、歩行タスクと関連性のある情報が表示される歩行情報箇所、利用者が安全に歩行するために視認すべき視認要求箇所などが挙げられる。歩行情報箇所の例としては、信号機、道路標識、路面標示などが挙げられる。視認要求箇所の例としては、他の歩行者、車両などが挙げられる。
なお、注目箇所は、経験的に定められてもよい。例えば、歩行者の飛び出しが予測される交差点が利用者の周囲環境における注目箇所に設定されてもよい。
〈サリエンシー〉
サリエンシーは、ボトムアップ注意を誘引する視覚刺激の度合いを示す値であり、色、輝度、方向、動きなどの特徴により変化する値である。例えば、画像に含まれる任意の領域とその領域の周囲の領域との間において色、輝度、方向、動きなどの特徴の違いが顕著になるに連れて、ボトムアップ注意を誘引する視覚刺激が強くなり、その任意の領域におけるサリエンシーが高くなる。画像に含まれる任意の箇所におけるサリエンシーが高くなるほど、その任意の箇所に人の視線が惹きつけられやすくなる。
以下では、サリエンシーが比較的に高い箇所を「高誘目箇所」と記載し、サリエンシーが比較的に低い箇所を「低誘目箇所」と記載する。例えば、高誘目箇所は、サリエンシーが予め定められたサリエンシー基準値を上回る箇所であり、低誘目箇所は、サリエンシーがサリエンシー基準値を下回る箇所である。
また、以下では、画像において高誘目箇所が占める割合を「高誘目割合」と記載する。例えば、高誘目割合は、画像に含まれる高誘目箇所の総面積を画像の全面積で除算して得られる値である。また、以下では、高誘目割合が比較的に高い画像を「高誘目画像」と記載し、高誘目割合が比較的に低い画像を「低誘目画像」と記載する。例えば、高誘目画像は、高誘目割合が予め定められた高誘目割合閾値を上回る画像であり、低誘目画像は、高誘目割合が高誘目割合閾値を上回らない画像である。なお、高誘目画像は、ボトムアップ注意が比較的に生じやすい画像である。低誘目画像は、ボトムアップ注意が比較的に生じにくい画像である。
〈認知反応時間〉
認知反応時間は、人が認知してから行動を起こすまでに要する時間のことである。認知反応時間の例としては、人が表示部11に表示された画像に含まれる特定箇所を視認してから人が特定箇所を選択する操作(例えばタッチ操作)を操作部23に与えるまでに要する時間が挙げられる。特定箇所の例としては、アイコン、文字盤に含まれる文字などが挙げられる。
〈注意機能低下状態〉
注意機能低下状態は、人の注意機能が低下している状態のことである。注意機能低下状態では、利用者による携帯端末10の操作に支障がある。注意機能低下状態には、軽度の注意機能低下状態である第1注意機能低下状態と、重度の注意機能低下状態である第2注意機能低下状態とがある。
第1注意機能低下状態は、休憩などにより正常状態に回復することが可能な注意機能低下状態のことである。第1注意機能低下状態の例としては、覚醒低下、疲労、漫然状態などが挙げられる。
第2注意機能低下状態は、第1注意機能低下状態よりも人の注意機能が低下している状態のことである。また、第2注意機能低下状態は、休憩などにより正常状態に回復することが困難な状態である。第2注意機能低下状態の例としては、注意機能の低下を伴う疾患が挙げられる。注意機能の低下を伴う疾患の例としては、心筋梗塞などの心疾患、脳卒中などの脳疾患、癲癇、低血糖などが挙げられる。
〈運動機能低下状態と認知運動機能低下状態〉
運動機能低下状態は、人の運動機能が低下している状態のことである。運動機能低下状態では、人の歩調および姿勢の振れに異常が生じやすい。認知運動機能低下状態は、人が認知して行動するという認知運動機能が低下している状態のことである。認知運動機能低下状態では、誤操作が生じやすい。
〈正常状態〉
正常状態は、上記のような異常が人に生じていない状態であり、人が行うべき操作を正常に行うことが可能な状態のことである。正常状態では、利用者による携帯端末10の操作が正常に行われる。
〔表示部に表示される画像〕
次に、図3~図6を参照して、携帯端末10の表示部11に表示される画像について説明する。例えば、制御装置30は、図3に示すアプリ選択画像D10を表示部11に表示させる。アプリ選択画像D10には、ニュースアプリアイコン81と、テレビアプリアイコン82と、SNSアプリアイコン83とが含まれる。
〈記事閲覧画像〉
アプリ選択画像D10に含まれるニュースアプリアイコン81を選択する操作が操作部23に与えられると、ニュースアプリが起動する。そして、図4に示すように、記事閲覧画像D11が表示部11に表示される。図4に示した記事閲覧画像D11には、テキスト領域RTと、ピクチャ領域RPとが含まれる。テキスト領域RTには、記事などの意味性の高い情報が表示される。ピクチャ領域RPには、広告などの意味性の低い情報が表示される。図4に示した記事閲覧画像D11では、注目箇所と高誘目箇所とが混在する。図4の例では、テキスト領域RTが注目箇所に該当し、ピクチャ領域RPが高誘目箇所に該当する。図4に示した記事閲覧画像D11は、高誘目画像(高誘目箇所の占める割合が比較的に高い画像)に該当する。
〈視聴画像〉
アプリ選択画像D10に含まれるテレビアプリアイコン82を選択する操作が操作部23に与えられると、テレビアプリが起動する。そして、図5に示すように、視聴画像D12が表示部11に表示される。図5に示した視聴画像D12には、テキスト領域RTと、ピクチャ領域RPとが含まれる。ピクチャ領域PRには、テレビ番組の映像などの意味性の高い情報が表示される。テキスト領域RTには、テレビ番組に関する説明などの意味性の高い情報が表示される。なお、視聴画像D12には、広告などの意味性の低い情報が表示されるサブピクチャ領域(図示省略)が含まれてもよい。図5に示した視聴画像D12では、注目箇所と高誘目箇所とが混在する。図5の例では、テキスト領域RTが注目箇所に該当し、ピクチャ領域RPが注目箇所と高誘目箇所の両方に該当し、サブピクチャ領域が高誘目箇所に該当する。図5に示した視聴画像D12は、高誘目画像(高誘目箇所の占める割合が比較的に高い画像)に該当する。
〈メッセージ閲覧画像〉
アプリ選択画像D10に含まれるSNSアプリアイコン83を選択する操作が操作部23に与えられると、SNSアプリが起動する。そして、図6に示すように、メッセージ閲覧画像D13が表示部11に表示される。図6に示したメッセージ閲覧画像D13には、テキスト領域RTが含まれる。テキスト領域RTには、メッセージ本文などの意味性の高い情報が表示される。なお、図6に示したメッセージ閲覧画像D13では、注目箇所と高誘目箇所とが混在しておらず、注目箇所が支配的である。図6の例では、テキスト領域RTが注目領域に該当する。図6に示したメッセージ閲覧画像D13は、低誘目画像(高誘目箇所の占める割合が比較的に低い画像)に該当する。
〔本願発明者により得られた知見〕
本願発明者は、鋭意研究の結果、表示部11に表示される画像(または利用者の周囲環境)に対する利用者の視線の動きと、利用者の状態(特に注意機能に関する状態)との間に相関があることを見出した。具体的には、本願発明者は、図7に示すように、利用者などの人の注意機能の低下に応じてトップダウン注意資源量およびボトムアップ注意資源量が変化することを見出した。図7の例において、右上がりの斜線のハッチングが付された上向きの三角形の高さは、トップダウン注意資源量を示す。破線の上向きの三角形の高さは、トップダウン注意ディマンド量を示す。左上がりの斜線のハッチングが付された下向きの三角形の高さは、ボトムアップ注意資源量を示す。また、本願発明者は、図7に示すように、人の注意機能の変化に応じて人の認知反応時間が変化することを見出した。
そして、本願発明者は、以下のことを見出した。
(1)人の状態が正常状態から第2注意機能低下状態(重度の注意機能低下状態)になると、人の注意資源の総量が減少する。具体的には、トップダウン注意資源量が減少し、トップダウン注意資源量がトップダウン注意ディマンド量を下回る。一方、ボトムアップ注意資源量も減少する。
(2)人の状態が正常状態から第1注意機能低下状態(軽度の注意機能低下状態)になると、トップダウン注意資源量が減少し、トップダウン注意資源量がトップダウン注意ディマンド量を下回る。一方、トップダウン注意資源量が減少した分、ボトムアップ注意資源量が増加する。逆に、人の状態が第1注意機能低下状態(軽度の注意機能低下状態)から正常状態になると、トップダウン注意資源量が増加し、トップダウン注意資源量がトップダウン注意ディマンド量に到達する。一方、トップダウン注意資源量が増加した分、ボトムアップ注意資源量が減少する。なお、人の状態が第1注意機能低下状態である場合の注意資源の総量は、人の状態が正常状態である場合の注意資源の総量と同等である。
(3)トップダウン注意資源量およびボトムアップ注意資源量は、タスクディマンドに応じて変化する。具体的には、タスクディマンドが増加すると、トップダウン注意ディマンド量が増加する。その結果、トップダウン注意資源量が増加し、トップダウン注意資源量がトップダウン注意ディマンド量に到達する。一方、トップダウン注意資源量が増加した分、ボトムアップ注意資源量が減少する。逆に、タスクディマンドが減少すると、トップダウン注意ディマンド量が減少する。その結果、トップダウン注意資源量が減少し、トップダウン注意資源量がトップダウン注意ディマンド量に到達する。一方、トップダウン注意資源量が減少した分、ボトムアップ注意資源量が増加する。
(4)トップダウン注意資源量と相関のあるトップダウン指標値と予め定められたトップダウン閾値とを比較することで、トップダウン注意資源量を評価することができる。なお、トップダウン閾値は、トップダウン注意ディマンド量に応じた値に設定される。具体的には、トップダウン注意ディマンド量が多くなるに連れて、トップダウン閾値が大きくなる。例えば、トップダウン閾値は、トップダウン注意資源量がトップダウン注意ディマンド量と一致するときのトップダウン指標値に設定される。なお、トップダウン注意ディマンド量は、タスクディマンドに応じて変化する。具体的には、タスクディマンドが大きくなるに連れて、トップダウン注意ディマンド量が多くなる。
(5)ボトムアップ注意資源量と相間のあるボトムアップ指標値と予め定められたボトムアップ閾値とを比較することで、ボトムアップ注意資源量を評価することができる。なお、ボトムアップ閾値は、ボトムアップ注意ディマンド量に応じた値に設定される。具体的には、ボトムアップ注意ディマンド量が多くなるに連れて、ボトムアップ閾値が大きくなる。例えば、ボトムアップ閾値は、ボトムアップ注意資源量がボトムアップ注意ディマンド量と一致するときのボトムアップ指標値に設定される。なお、ボトムアップ注意ディマンド量は、タスクディマンドに応じて変化する。具体的には、タスクディマンドが大きくなるに連れて、ボトムアップ注意ディマンド量が少なくなる。例えば、ボトムアップ注意ディマンド量は、予め定められた注意ディマンド総量からトップダウン注意ディマンド量を差し引いて得られる量である。注意ディマンド総量は、例えば、正常状態時における注意資源の総量である。
(6)人の注意機能が低下していくに連れて、人の認知反応時間が長くなっていく。具体的は、人の状態が正常状態から第1注意機能低下状態(軽度の注意機能低下状態)になると、認知反応時間が長くなり、人の状態が第1注意機能低下状態から第2注意機能低下状態(重度の注意機能低下状態)になると、認知反応時間がさらに長くなる。
(7)認知反応時間と予め定められた時間閾値(具体的には第1時間閾値と第2時間閾値)とを比較することで、認知反応時間を評価することができる。例えば、第1時間閾値は、正常状態と第1注意機能低下状態との境界となる認知反応時間に設定される。第2時間閾値は、第1注意機能低下状態と第2注意機能低下状態との境界となる認知反応時間に設定される。そして、認知反応時間と第1時間閾値と第2時間閾値とを比較することで、正常状態と第1注意機能低下状態と第2注意機能低下状態とを推定することができる。
〔状態推定部の構成〕
図8は、状態推定部40の構成を例示する。状態推定部40は、視線検出部41と推定処理部42と、画像取得部50と、メインタスク検出部51と、画像種類検出部52と、時間検出部53と、誤操作検出部54と、歩調検出部55と、ふらつき検出部56とを有する。
〔視線検出部〕
視線検出部41は、利用者の視線を検出する。この例では、視線検出部41は、フロントカメラ21により得られた画像(利用者の顔を含む画像)に対して視線検出処理を行うことにより、利用者の視線を検出する。なお、この視線検出処理は、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の視線検出技術を用いて行われる処理であってもよい。例えば、視線検出部41は、フロントカメラ21により得られた画像の中から利用者の瞳孔を検出し、その検出された瞳孔に基づいて利用者の視線を検出する。なお、利用者の視線は、利用者の右眼の視線であってもよいし、利用者の左眼の視線であってもよいし、利用者の右眼の視線および左眼の視線に基づいて導出される視線であってもよい。
〔画像取得部〕
画像取得部50は、利用者の周囲環境を示す画像(画像データ)を取得する。画像取得部50により得られた画像は、推定処理部42に送られる。例えば、画像取得部50は、以下の手順により、利用者の周囲環境を示す画像を取得する。
まず、画像取得部50は、リアカメラ22の出力に基づいて、利用者の前方環境を示す前方環境画像D20(図9参照)を取得する。次に、画像取得部50は、前方環境画像D20に、携帯端末10を示す携帯端末画像D15(図10参照)を合成することにより、利用者の前方環境を示す前方環境画像D21を生成する。図10に示すように、前方環境画像D21では、前方環境画像D20に、携帯端末画像D15が重ねられている。なお、携帯端末画像D15は、予め準備された携帯端末10の前面を示す画像と、表示部11に表示される画像とが合成されて生成される。図10に示した携帯端末画像D15では、携帯端末10の前面の画像に、表示部11に表示される記事閲覧画像D11が重ねられている。
なお、画像取得部50は、利用者の前方環境を示す前方環境画像D20を推定処理部42に出力してもよい。また、画像取得部50は、通信部24により得られた地図情報と、位置センサ26により得られた位置情報(携帯端末10の位置)とに基づいて、利用者の周囲環境を示す画像を生成してもよい。
〔メインタスク検出部〕
メインタスク検出部51は、情報取得部20により取得された情報に基づいて、利用者のメインタスクを検出する。メインタスク検出部51による検出結果は、推定処理部42に送られる。利用者のメインタスクの例としては、操作タスクに該当する携帯端末10の操作、歩行タスクに該当する歩行などが挙げられる。
この例では、メインタスク検出部51は、利用者のメインタスクが携帯端末10の操作(操作タスク)に該当することを検出する。例えば、メインタスク検出部51は、位置センサ26の出力に基づいて携帯端末10の位置を検出し、携帯端末10の位置の時間的変化に基づいて利用者の移動速度を推定する。また、メインタスク検出部51は、操作部23の出力に基づいて利用者が操作部23を操作していることを検出する。そして、メインタスク検出部51は、利用者の移動速度が予め定められた第1速度閾値を下回り、且つ、利用者による操作が操作部23(タッチ操作部)に与えられている場合に、利用者のメインタスクが携帯端末10の操作に該当することを示す検出結果を出力する。なお、第1速度閾値は、利用者が歩行せずに停止していると見なすことができる最高の移動速度に設定されてもよい。
また、この例では、メインタスク検出部51は、利用者のメインタスクが歩行(歩行タスク)に該当することを検出する。例えば、メインタスク検出部51は、利用者の移動速度が第1速度閾値を上回るが予め定められた第2速度閾値を下回る場合に、利用者のメインタスクが歩行に該当することを示す検出結果を出力する。なお、第2速度閾値は、利用者が歩行していると見なすことができる最高の移動速度に設定されてもよい。
〔画像種類検出部〕
画像種類検出部52は、情報取得部20により取得された情報に基づいて、表示部11に表示される画像の種類を検出する。画像種類検出部52による検出結果は、推定処理部42に送られる。画像の種類の例としては、画像に関連するアプリの種類、画像に対する利用者のボトムアップ注意の生じやすさに関連する分類などが挙げられる。画像に対する利用者のボトムアップ注意の生じやすさは、画像における高誘目割合(画像において高誘目箇所が占める割合)に依存する。
例えば、画像種類検出部52は、表示部11に表示される画像に対する利用者のボトムアップ注意の生じやすさを検出する。そして、画像種類検出部52は、表示部11に表示される画像に対する利用者のボトムアップ注意の生じやすさに基づいて、表示部11に表示される画像が「高誘目画像」と「低誘目画像」のどちらに該当するのかを検出する。
具体的には、画像種類検出部52は、表示部11に表示される画像における高誘目割合を検出する。表示部11に表示される画像における高誘目割合が高誘目割合閾値を上回る場合、画像種類検出部52は、表示部11に表示される画像が「高誘目画像」に該当することを示す検出結果を出力する。一方、表示部11に表示される画像における高誘目割合が高誘目割合閾値を上回らない場合、画像種類検出部52は、表示部11に表示される画像が「低誘目画像」に該当することを示す検出結果を出力する。
〔時間検出部〕
時間検出部53は、情報取得部20により取得された情報に基づいて、利用者の認知反応時間を検出する。時間検出部53による検出結果は、推定処理部42に送られる。例えば、時間検出部53は、視線検出部41により検出された視線と、表示部11に表示される画像とに基づいて、表示部11に表示された画像に含まれる特定箇所(例えばアイコンや文字盤の文字など)を利用者が視認したことを検出する。また、時間検出部53は、利用者に視認された箇所を選択する操作(具体的にはタッチ)を利用者が操作部23に与えたことを検出する。そして、時間検出部53は、表示部11に表示された画像に含まれる特定箇所を利用者が視認してからその特定箇所を選択する操作を利用者が操作部23に与えるまでに要する時間を「認知反応時間」として検出する。
〔誤操作検出部〕
誤操作検出部54は、情報取得部20により取得された情報に基づいて、利用者の誤操作の頻度を検出する。誤操作検出部54による検出結果は、推定処理部42に送られる。誤操作の例としては、文字の入力ミス、アイコンの選択ミスなどが挙げられる。例えば、誤操作検出部54は、利用者により入力された文字の正誤を判定し、その判定結果に基づいて文字の入力ミスの頻度を検出し、文字の入力ミスの頻度を「利用者の誤操作の頻度」として出力する。なお、誤操作の検出は、深層学習により生成された学習モデル(誤操作を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の正誤判定技術を用いて行われる処理であってもよい。
〔歩調検出部〕
歩調検出部55は、情報取得部20により取得された情報に基づいて、利用者の歩調を検出する。歩調検出部55による検出結果は、推定処理部42に送られる。例えば、歩調検出部55は、位置センサ26の出力に基づいて携帯端末10の位置を検出し、その携帯端末10の位置の時間的変化に基づいて利用者の移動速度の単位時間当たりの変化量を推定し、利用者の移動速度の単位時間当たりの変化量を「利用者の歩調」として出力する。
〔ふらつき検出部〕
ふらつき検出部56は、情報取得部20により取得された情報に基づいて、利用者のふらつき(姿勢の振れ)を検出する。ふらつき検出部56による検出結果は、推定処理部42に送られる。例えば、ふらつき検出部56は、状態センサ27の出力に基づいて携帯端末10の姿勢の振れ幅を検出し、その携帯端末10の姿勢の振れ幅に基づいて利用者の姿勢の振れ幅を推定し、利用者の姿勢の振れ幅を「利用者のふらつき」として出力する。
〔推定処理部〕
推定処理部42は、利用者の状態を推定する推定処理を行う。この例では、推定処理部42は、視線検出部41と画像取得部50とメインタスク検出部51と画像種類検出部52と時間検出部53と誤操作検出部54と歩調検出部55とふらつき検出部56の各々の出力に基づいて、第1処理と第2処理と第3処理と第4処理と第5処理と第6処理とを行う。なお、第1処理は、第1推定処理の一例であり、第4処理は、第2推定処理の一例である。
第1処理は、表示部11に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する処理である。第2処理は、利用者の認知反応時間に基づいて利用者の状態を推定する処理である。第3処理は、利用者の誤操作の頻度に基づいて利用者の状態を推定する処理である。第4処理は、利用者の周囲環境に対する利用者の視線の動きに基づいて利用者の状態を推定する処理である。第5処理は、利用者の歩調に基づいて利用者の状態を推定する処理である。第6処理は、利用者のふらつきに基づいて利用者の状態を推定する処理である。なお、第1~第6処理については、後で詳しく説明する。
この例では、推定処理部42は、トップダウン計測部61と、ボトムアップ計測部62と、推定部63とを有する。
〈トップダウン計測部〉
トップダウン計測部61は、第1処理において、表示部11に表示される画像と視線検出部41により検出される利用者の視線とに基づいて、表示部11に表示される画像に対する利用者のトップダウン注意資源量と相間のある第1トップダウン指標値TD1を計測する。また、トップダウン計測部61は、第4処理において、利用者の周囲環境と視線検出部41により検出される利用者の視線とに基づいて、利用者の周囲環境に対する利用者のトップダウン注意資源量と相間のある第2トップダウン指標値TD2を計測する。利用者のトップダウン注意資源量が多くなるに連れて、第1トップダウン指標値TD1および第2トップダウン指標値TD2が大きくなる。この例では、トップダウン計測部61は、注目箇所検出部611と、トップダウン指標導出部612とを有する。
《注目箇所検出部》
注目箇所検出部611は、第1処理において、表示部11に表示される画像における注目箇所を検出する。この例では、注目箇所検出部611は、表示部11に表示される画像(画像データ)に基づいて、表示部11に表示される画像における注目箇所を示す注目箇所マップD30(注目箇所マップデータ)を生成する。具体的には、注目箇所検出部611は、メインタスク検出部51により検出された利用者のメインタスクが携帯端末10の操作(操作タスク)に該当する場合に、表示部11に表示される画像(画像データ)を入力する。そして、注目箇所検出部611は、以下のように、注目箇所マップD30を生成する。
例えば、注目箇所検出部611は、表示部11に表示される記事閲覧画像D11(図4参照)を取得する。次に、注目箇所検出部611は、記事閲覧画像D11の中から注目箇所を検出する。注目箇所の検出は、深層学習により生成された学習モデル(注目箇所を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の特徴検出技術を用いて行われる処理であってもよい。次に、注目箇所検出部611は、注目箇所の検出結果に基づいて、注目箇所マップD30を生成する。図11に示すように、注目箇所マップD30は、表示部11に表示される画像における注目箇所の分布を示す。図11の例では、ハッチングが付された箇所が注目箇所である。具体的には、図11の例では、テキスト領域RTが注目箇所となる。そして、注目箇所検出部611は、表示部11に表示される画像が更新される毎(または所定時間毎)に、上記の手順により注目箇所マップD30を生成する。これにより、時系列順に並ぶ複数の注目箇所マップD30が得られる。
また、注目箇所検出部611は、第4処理において、利用者の周囲環境における注目箇所を検出する。この例では、注目箇所検出部611は、画像取得部50により取得された画像(利用者の周囲環境を示す画像)に基づいて、利用者の周囲環境における注目箇所を示す注目箇所マップ(注目箇所マップデータ)を生成する。具体的には、注目箇所検出部611は、メインタスク検出部51により検出された利用者のメインタスクが歩行(歩行タスク)に該当する場合に、画像取得部50の出力を入力する。なお、第4処理における注目箇所マップの生成は、第1処理における注目箇所マップD30の生成と同様である。
《トップダウン指標導出部》
トップダウン指標導出部612は、第1処理において、表示部11に表示される画像における注目箇所に対する利用者の視線の動きに基づいて、第1トップダウン指標値TD1を導出する。具体的には、トップダウン指標導出部612は、第1処理において、表示部11に表示される画像における注目箇所と利用者の視線との合致度(合致頻度)に基づいて、第1トップダウン指標値TD1を導出する。利用者のトップダウン注意資源量が増加すると、表示部11に表示される画像における注目箇所と利用者の視線との合致度が増加し、第1トップダウン指標値TD1が増加する。
この例では、トップダウン指標導出部612は、第1処理において、注目箇所検出部611により生成された注目箇所マップD30に示された注目箇所と、視線検出部41により検出された利用者の視線との合致度に応じた値を、第1トップダウン指標値TD1として導出する。具体的には、トップダウン指標導出部612は、予め定められた計測期間毎に、以下の処理を行う。
まず、トップダウン指標導出部612は、時系列順に並ぶ複数の注目箇所マップD30の中から計測期間内に含まれる2つ以上の注目箇所マップD30を抽出し、視線検出部41により検出された利用者の視線の方向に基づいて、計測期間内に含まれる2つ以上の注目箇所マップD30の各々において注視点を検出する。注視点は、注目箇所マップD30における利用者の視線の位置(座標)を示す点である。例えば、トップダウン指標導出部612は、予め定められたサンプリング周期毎に、注目箇所マップD30から利用者の視線の位置を注視点として検出してもよい。または、トップダウン指標導出部612は、停滞時間が予め定められた基準時間を上回る利用者の視線の位置を注視点として検出してもよい。
次に、トップダウン指標導出部612は、計測期間内に含まれる注目箇所マップD30から検出された注視点がその注目箇所マップD30に示された注目箇所と合致するか否かを判定する。
次に、トップダウン指標導出部612は、注視点と注目箇所との合致判定の結果に基づいて、第1トップダウン指標値TD1を導出する。例えば、第1トップダウン指標値TD1は、計測期間内に含まれる注視点の総数に対して注目箇所と合致する注視点の数が占める割合(以下では「注目合致割合」と記載)に応じた値である。この注目合致割合は、注目箇所と利用者の視線との合致度の一例である。このようにして、計測期間毎に第1トップダウン指標値TD1が導出される。
また、トップダウン指標導出部612は、第4処理において、利用者の周囲環境における注目箇所に対する利用者の視線の動きに基づいて、第2トップダウン指標値TD2を導出する。具体的には、トップダウン指標導出部612は、第4処理において、利用者の周囲環境における注目箇所と利用者の視線との合致度(合致頻度)に基づいて、第2トップダウン指標値TD2を導出する。利用者のトップダウン注意資源量が増加すると、利用者の周囲環境における注目箇所と利用者の視線との合致度が増加し、第2トップダウン指標値TD2が増加する。
この例では、トップダウン指標導出部612は、第4処理において、注目箇所検出部611により生成された注目箇所マップに示された注目箇所と、視線検出部41により検出された利用者の視線との合致度に応じた値を、第2トップダウン指標値TD2として導出する。なお、第4処理における第2トップダウン指標値TD2の導出は、第1処理における第1トップダウン指標値TD1の導出と同様である。
〈ボトムアップ計測部〉
ボトムアップ計測部62は、第1処理において、表示部11に表示される画像と視線検出部41により検出される利用者の視線とに基づいて、表示部11に表示される画像に対する利用者のボトムアップ注意資源量と相間のある第1ボトムアップ指標値BU1を計測する。また、ボトムアップ計測部62は、第4処理において、利用者の周囲環境と視線検出部41により検出される利用者の視線とに基づいて、利用者の周囲環境に対する利用者のボトムアップ注意資源量と相間のある第2ボトムアップ指標値BU2を計測する。利用者のボトムアップ注意資源量が多くなるに連れて、第1ボトムアップ指標値BU1および第2ボトムアップ指標値BU2が大きくなる。この例では、ボトムアップ計測部62は、サリエンシー検出部621と、ボトムアップ指標導出部622とを有する。
《サリエンシー検出部》
サリエンシー検出部621は、第1処理において、表示部11に表示される画像におけるサリエンシーの分布を検出する。この例では、サリエンシー検出部621は、表示部11に表示される画像(画像データ)に基づいて、表示部11に表示される画像におけるサリエンシーの分布を示すサリエンシーマップD40(サリエンシーマップデータ)を生成する。具体的には、サリエンシー検出部621は、メインタスク検出部51により検出された利用者のメインタスクが携帯端末10の操作(操作タスク)に該当する場合に、表示部11に表示される画像(画像データ)を入力する。そして、サリエンシー検出部621は、以下の手順により、サリエンシーマップD40を生成する。
例えば、注目箇所検出部611と同様に、サリエンシー検出部621は、表示部11に供表示される記事閲覧画像D11(図4参照)を取得する。次に、サリエンシー検出部621は、記事閲覧画像D11に対してサリエンシーマップ生成処理を行うことにより、サリエンシーマップD40を生成する。なお、サリエンシーマップ生成処理には、サリエンシーディテクションなどの周知の技術を用いることができる。例えば、サリエンシー検出部621は、色、輝度、方向、動きなどの特徴毎にサリエンシーマップを生成し、それらの特徴毎のサリエンシーマップを足し合わせることで、最終的なサリエンシーマップ(すべての特徴が反映されたサリエンシーマップ)を生成する。
図12に示すように、サリエンシーマップD40は、表示部11に表示される画像におけるサリエンシーの分布を示す。サリエンシーマップD40の画素の値は、その画素の領域におけるサリエンシーを示す。図12の例では、ハッチングの濃淡によりサリエンシーの高低が示されている。ハッチングが濃くなるに連れて、そのハッチングが付された領域におけるサリエンシーが高くなる。
そして、サリエンシー検出部621は、表示部11に表示される画像が更新される毎(または所定時間毎)に、上記の手順によりサリエンシーマップD40を生成する。これにより、時系列順に並ぶ複数のサリエンシーマップD40が得られる。
また、サリエンシー検出部621は、第4処理において、利用者の周囲環境におけるサリエンシーの分布を検出する。この例では、サリエンシー検出部621は、画像取得部50により取得された画像(利用者の周囲環境を示す画像)に基づいて、利用者の周囲環境におけるサリエンシーの分布を示すサリエンシーマップ(サリエンシーマップデータ)を生成する。具体的には、サリエンシー検出部621は、メインタスク検出部51により検出された利用者のメインタスクが歩行(歩行タスク)に該当する場合に、画像取得部50の出力を入力する。なお、第4処理におけるサリエンシーマップの生成は、第1処理におけるサリエンシーマップD40の生成と同様である。
《ボトムアップ指標導出部》
ボトムアップ指標導出部622は、第1処理において、表示部11に表示される画像におけるサリエンシーの分布に対する利用者の視線の動きに基づいて、第1ボトムアップ指標値BU1を導出する。具体的には、ボトムアップ指標導出部622は、第1処理において、表示部11に表示される画像における高誘目箇所と利用者の視線との合致度(合致頻度)に基づいて、第1ボトムアップ指標値BU1を導出する。利用者のボトムアップ注意資源量が増加すると、表示部11に表示される画像における高誘目箇所と利用者の視線との合致度が増加し、第1ボトムアップ指標値BU1が増加する。
この例では、ボトムアップ指標導出部622は、第1処理において、サリエンシー検出部621により生成されたサリエンシーマップD40に示された高誘目箇所と、視線検出部41により検出された利用者の視線との合致度に応じた値を、第1ボトムアップ指標値BU1として導出する。具体的には、ボトムアップ指標導出部622は、予め定められた演算期間毎に、以下の第1導出処理と第2導出処理と第3導出処理と第4導出処理とを行う。
第1導出処理において、ボトムアップ指標導出部622は、時系列順に並ぶ複数のサリエンシーマップD40の中から演算期間内に含まれる2つ以上のサリエンシーマップD40を抽出し、視線検出部41により検出された利用者の視線の方向に基づいて、計測期間内に含まれる2つ以上のサリエンシーマップD40の各々において注視点を検出し、注視点におけるサリエンシーを検出する。注視点は、サリエンシーマップD40における利用者の視線の位置(座標)を示す点である。例えば、ボトムアップ指標導出部622は、予め定められたサンプリング周期毎に、サリエンシーマップD40から利用者の視線の位置を注視点として検出してもよい。または、ボトムアップ指標導出部622は、停滞時間が予め定められた基準時間を上回る利用者の視線の位置を注視点として検出してもよい。この第1導出処理により、所定時刻毎の注視点のサリエンシーが得られる。図13に示すように、注視点のサリエンシーは、時間の経過に応じて変化する。
第2導出処理において、ボトムアップ指標導出部622は、時系列順に並ぶ複数のサリエンシーマップD40の中から演算期間内に含まれる2つ以上のサリエンシーマップD40を抽出し、計測期間内に含まれる2つ以上のサリエンシーマップD40の各々においてランダム点を指定し、ランダム点におけるサリエンシーを検出する。ランダム点は、サリエンシーマップD40においてランダムに指定される位置を示す点である。なお、ランダム点は、複数のサリエンシーマップD40のうち第1導出処理により注視点が検出されるサリエンシーマップD40において指定されることが好ましい。すなわち、ランダム点におけるサリエンシーが検出される時刻は、注視点におけるサリエンシーが検出される時刻と一致していることが好ましい。この第2導出処理により、所定時刻毎のランダム点のサリエンシーが得られる。図14に示すように、ランダム点のサリエンシーは、時間の経過に応じて変化する。
次に、第3導出処理が行われる。第3導出処理において、ボトムアップ指標導出部622は、第1導出処理により得られた演算期間内の所定時刻毎の注視点のサリエンシーと、第2導出処理により得られた演算期間内の所定時刻毎のランダム点のサリエンシーとに基づいて、「注視点のサリエンシーが閾値を超える確率」と「ランダム点のサリエンシーが閾値を超える確率」との関係を示すROC(Receiver Operating Characteristic)曲線を導出する。
具体的には、ボトムアップ指標導出部622は、サリエンシーに関する閾値を最大値から最小値まで段階的に変更する。そして、トップダウン指標導出部612は、閾値を変更する毎に、以下の処理を行う。
まず、ボトムアップ指標導出部622は、演算期間内の所定時刻毎の注視点のサリエンシーのうち閾値を超える注視点のサリエンシーの数を求め、閾値を超える注視点のサリエンシーの数を演算期間内の注視点のサリエンシーの総数で除算することで、注視点のサリエンシーが閾値を超える確率を求める。また、ボトムアップ指標導出部622は、演算期間内の所定時刻毎のランダム点のサリエンシーのうち閾値を超えるランダム点のサリエンシーの数を求め、閾値を超えるランダム点のサリエンシーの数を演算期間内のランダム点のサリエンシーの総数で除算することで、ランダム点のサリエンシーが閾値を超える確率を求める。
そして、ボトムアップ指標導出部622は、閾値毎に求められた「注視点のサリエンシーが閾値を超える確率」と「ランダム点のサリエンシーが閾値を超える確率」との組合せに基づいて、ROC曲線を導出する。図15は、ROC曲線を例示する。ROC曲線は、利用者の視線が高誘目箇所に誘引される傾向の強さに応じて変化する。例えば、利用者の視線が高誘目箇所を向く傾向がある場合、ROC曲線は、図15に示した第1曲線C1のように、傾きが1の直線(破線で示す直線)よりも上側に凸の曲線となる。一方、利用者の視線が低誘目箇所を向く傾向がある場合、ROC曲線は、図15に示した第2曲線C2のように、傾きが1の直線よりも下側に凸の曲線となる。
次に、第4導出処理が行われる。第4導出処理において、ボトムアップ指標導出部622は、ROC曲線の下側の面積であるAUC(Area Under the Curve)値を、サリエンシー指標値として求める。例えば、図15の第1曲線C1がROC曲線である場合、AUC値は、図15のハッチングが付された領域の面積に相当する。例えば、利用者の視線が高誘目箇所を向く傾向が強くなるに連れて、サリエンシー指標値であるAUC値が大きくなり、利用者の視線が低誘目箇所を向く傾向が強くなるに連れて、サリエンシー指標値であるAUC値が小さくなる。このようにして、演算期間毎にサリエンシー指標値が導出される。
また、ボトムアップ指標導出部622は、予め定められた計測期間毎に、第5導出処理を行う。計測期間は、演算期間よりも長い。計測期間の各々には、複数の演算期間が含まれる。第5導出処理において、ボトムアップ指標導出部622は、計測期間内に含まれるサリエンシー指標値が予め定められた高誘目閾値を上回るか否かを判定する。そして、ボトムアップ指標導出部622は、サリエンシー指標値の判定結果に基づいて、第1ボトムアップ指標値BU1を導出する。例えば、第1ボトムアップ指標値BU1は、計測期間内に含まれるサリエンシー指標値の総数に対して高誘目閾値を上回るサリエンシー指標値の数が占める割合(以下では「高指標割合」と記載)に応じた値である。なお、この高指標割合は、高誘目箇所と利用者の視線との合致度の一例である。このようにして、計測期間毎に第1ボトムアップ指標値BU1が導出される。
また、ボトムアップ指標導出部622は、第4処理において、利用者の周囲環境におけるサリエンシーの分布に対する利用者の視線の動きに基づいて、第2ボトムアップ指標値BU2を導出する。具体的には、ボトムアップ指標導出部622は、第4処理において、利用者の周囲環境における高誘目箇所と利用者の視線との合致度(合致頻度)に基づいて、第2ボトムアップ指標値BU2を導出する。利用者のボトムアップ注意資源量が増加すると、利用者の周囲環境における高誘目箇所と利用者の視線との合致度が増加し、第2ボトムアップ指標値BU2が増加する。
この例では、ボトムアップ指標導出部622は、第4処理において、サリエンシー検出部621により生成されたサリエンシーマップに示された高誘目箇所と、視線検出部41により検出された利用者の視線との合致度に応じた値を、第2ボトムアップ指標値BU2として導出する。なお、第4処理における第2ボトムアップ指標値BU2の導出は、第1処理における第1ボトムアップ指標値BU1の導出と同様である。
〈推定部〉
推定部63は、第1処理において、第1トップダウン指標値TD1と第1ボトムアップ指標値BU1とに基づいて、利用者の状態を推定する。具体的には、推定部63は、第1処理において、第1トップダウン指標値TD1の変化と第1ボトムアップ指標値BU1の変化とに基づいて、利用者の状態を推定する。また、推定部63は、第4処理において、第2トップダウン指標値TD2と第2ボトムアップ指標値BU2とに基づいて、利用者の状態を推定する。具体的には、推定部63は、第4処理において、第2トップダウン指標値TD2の変化と第2ボトムアップ指標値BU2の変化とに基づいて、利用者の状態を推定する。なお、利用者の状態の推定については、後で詳しく説明する。
〔推定処理部の動作〕
次に、図16を参照して、推定処理部42の動作について説明する。この例では、推定処理部42は、利用者のメインタスクに応じて、第1処理と第2処理と第3処理の群と、第4処理と第5処理と第6処理の群とを選択的に行う。具体的には、推定処理部42は、利用者のメインタスクが携帯端末10の操作に該当する場合に、第1処理と第2処理と第3処理とを行う。また、推定処理部42は、利用者のメインタスクが歩行に該当する場合に、第4処理と第5処理と第6処理とを行う。例えば、推定処理部42は、予め定められた推定周期毎(例えば10分毎)に、以下の処理を行う。
〈ステップST10〉
推定部63は、メインタスク検出部51による検出結果に基づいて、利用者のメインタスクが携帯端末10の操作(操作タスク)に該当するか否かを判定する。利用者のメインタスクが携帯端末10の操作に該当する場合には、ステップST11~ST13の処理が行われ、そうでない場合には、ステップST20の処理が行われる。
〈ステップST11~ST13〉
利用者のメインタスクが携帯端末10の操作に該当する場合、推定部63は、第1処理(ステップST11)と、第2処理(ステップST12)と、第3処理(ステップST13)とを行う。これらの処理が完了すると、ステップST30の処理が行われる。
〈ステップST20〉
利用者のメインタスクが携帯端末10の操作に該当しない場合、推定部63は、メインタスク検出部51による検出結果に基づいて、利用者のメインタスクが歩行(歩行タスク)に該当するか否かを判定する。利用者のメインタスクが歩行に該当する場合には、ステップST21~ST23の処理が行われ、そうでない場合には、ステップST10の処理が行われる。
〈ステップST21~ST23〉
利用者のメインタスクが歩行に該当する場合、推定部63は、第4処理(ステップST21)と、第5処理(ステップST22)と、第6処理(ステップST23)とを行う。これらの処理が完了すると、ステップST30の処理が行われる。
〈ステップST30〉
ステップST11~ST13の処理(またはステップST21~ST23の処理)が完了すると、推定部63は、ステップST11~ST13の処理(またはステップST21~ST23の処理)により得られた利用者の状態に関する推定結果に基づいて、利用者の状態を総合的に推定する。ステップST30の処理(総合的推定)については、後で詳しく説明する。
〔第1処理〕
次に、図17を参照して、ステップS11の処理である第1処理について説明する。上述のとおり、第1処理は、表示部11に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する処理である。以下の第1処理では、第1注意機能低下状態と第2注意機能低下状態とを区別して推定することができる。
〈ステップST111〉
推定部63は、第1トップダウン指標値TD1が予め定められた第1トップダウン閾値TDth1を下回るか否かを判定する。例えば、第1トップダウン閾値TDth1は、利用者のメインタスクが携帯端末10の操作に該当する場合の利用者のトップダウン注意ディマンド量に応じた値に設定される。第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回る場合には、ステップST112の処理が行われ、そうでない場合には、ステップST115の処理が行われる。
〈ステップST112〉
推定部63は、第1ボトムアップ指標値BU1が予め定められた第1ボトムアップ閾値BUth1を下回るか否かを判定する。例えば、第1ボトムアップ閾値BUth1は、利用者のメインタスクが携帯端末10の操作に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第1ボトムアップ指標値BU1が第1ボトムアップ閾値BUth1を下回る場合には、ステップST113の処理が行われ、そうでない場合には、ステップST114の処理が行われる。
〈ステップST113〉
第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回り、且つ、第1ボトムアップ指標値BU1が第1ボトムアップ閾値BUth1を下回る場合、推定部63は、利用者の状態が第2注意機能低下状態(重度の注意機能低下)であると推定する。この例では、推定部63は、第2注意機能低下状態であることを示すフラグを立てる。
〈ステップST114〉
第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回り、且つ、第1ボトムアップ指標値BU1が第1ボトムアップ閾値BUth1を下回らない場合、推定部63は、利用者の状態が第2注意機能低下状態であると推定せずに、利用者の状態が第1注意機能低下状態(軽度の注意機能低下)であると推定する。この例では、推定部63は、第1注意機能低下状態であることを示すフラグを立てる。
〈ステップST115〉
また、第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回らない場合、推定部63は、利用者の状態が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
〔第2処理〕
次に、図18を参照して、ステップS12の処理である第2処理について説明する。上述のとおり、第2処理は、利用者の認知反応時間に基づいて利用者の状態を推定する処理である。以下の第2処理では、第1注意機能低下状態と第2注意機能低下状態とを区別して推定することができる。
〈ステップST121〉
推定部63は、認知反応時間Tが予め定められた第1時間閾値Tth1を上回るか否かを判定する。認知反応時間Tが第1時間閾値Tth1を上回る場合には、ステップST122の処理が行われ、そうでない場合には、ステップST125の処理が行われる。
〈ステップST122〉
推定部63は、認知反応時間Tが予め定められた第2時間閾値Tth2を上回るか否かを判定する。第2時間閾値Tth2は、第1時間閾値Tth1よりも長い。認知反応時間Tが第2時間閾値Tth2を下回る場合には、ステップST123の処理が行われ、そうでない場合には、ステップST124の処理が行われる。
〈ステップST123〉
認知反応時間Tが第2時間閾値Tth2を上回る場合、推定部63は、利用者の状態が第2注意機能低下状態(重度の注意機能低下)であると推定する。この例では、推定部63は、第2注意機能低下状態であることを示すフラグを立てる。
〈ステップST124〉
認知反応時間Tが第1時間閾値Tth1を上回るが第2時間閾値Tth2を上回らない場合、推定部63は、利用者の状態が第2注意機能低下状態であると推定せずに、利用者の状態が第1注意機能低下状態(軽度の注意機能低下)であると推定する。この例では、推定部63は、第1注意機能低下状態であることを示すフラグを立てる。
〈ステップST125〉
認知反応時間Tが第1時間閾値Tth1を上回らない場合、推定部63は、利用者の状態が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
〔第3処理〕
次に、図19を参照して、ステップS13の処理である第3処理について説明する。上述のとおり、第3処理は、利用者の誤操作の頻度に基づいて利用者の状態を推定する処理である。
〈ステップS131〉
推定部63は、所定時間内における利用者の誤操作の頻度が異常であるか否かを判定する。例えば、推定部63は、所定時間内における利用者の誤操作の頻度が予め定められた許容頻度を上回る場合に、所定時間内における利用者の誤操作の頻度が異常であると判定する。所定時間内における利用者の誤操作の頻度が異常である場合には、ステップS132へ進み、そうでない場合には、ステップS133へ進む。
〈ステップS132〉
所定時間内における利用者の誤操作の頻度が異常である場合、推定部63は、利用者の状態が認知運動機能低下状態であると推定する。この例では、推定部63は、認知運動機能低下状態であることを示すフラグを立てる。
〈ステップS133〉
所定時間内における利用者の誤操作の頻度が異常ではない場合、推定部63は、利用者の状態が認知運動機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、認知運動機能低下状態であることを示すフラグを立てない。
〔第4処理〕
次に、図20を参照して、ステップS21の処理である第4処理について説明する。上述のとおり、第4処理は、利用者の周囲環境に対する利用者の視線の動きに基づいて利用者の状態を推定する処理である。以下の第4処理では、第1注意機能低下状態と第2注意機能低下状態とを区別して推定することができる。
〈ステップST211〉
推定部63は、第2トップダウン指標値TD2が予め定められた第2トップダウン閾値TDth2を下回るか否かを判定する。例えば、第2トップダウン閾値TDth2は、利用者のメインタスクが歩行に該当する場合の利用者のトップダウン注意ディマンド量に応じた値に設定される。第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回る場合には、ステップST212の処理が行われ、そうでない場合には、ステップST215の処理が行われる。
〈ステップST212〉
推定部63は、第2ボトムアップ指標値BU2が予め定められた第2ボトムアップ閾値BUth2を下回るか否かを判定する。例えば、第2ボトムアップ閾値BUth2は、利用者のメインタスクが歩行に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第2ボトムアップ指標値BU2が第2ボトムアップ閾値BUth2を下回る場合には、ステップST213の処理が行われ、そうでない場合には、ステップST214の処理が行われる。
〈ステップST213〉
第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回り、且つ、第2ボトムアップ指標値BU2が第2ボトムアップ閾値BUth2を下回る場合、推定部63は、利用者の状態が第2注意機能低下状態(重度の注意機能低下)であると推定する。この例では、推定部63は、第2注意機能低下状態であることを示すフラグを立てる。
〈ステップST214〉
第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回り、且つ、第2ボトムアップ指標値BU2が第2ボトムアップ閾値BUth2を下回らない場合、推定部63は、利用者の状態が第2注意機能低下状態であると推定せずに、利用者の状態が第1注意機能低下状態(軽度の注意機能低下)であると推定する。この例では、推定部63は、第1注意機能低下状態であることを示すフラグを立てる。
〈ステップST215〉
第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回らない場合、推定部63は、利用者の状態が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
〔第5処理〕
次に、図21を参照して、ステップS22の処理である第5処理について説明する。上述のとおり、第5処理は、利用者の歩調に基づいて利用者の状態を推定する処理である。
〈ステップS221〉
推定部63は、所定時間内における利用者の歩調が異常であるか否かを判定する。例えば、推定部63は、利用者の移動速度の単位時間当たりの変化量が予め定められた許容量を上回る状態の継続時間を計測し、その継続時間が予め定められた許容時間を上回る場合に、所定時間内における利用者の歩調が異常であると判定する。所定時間内における利用者の歩調が異常である場合には、ステップS222へ進み、そうでない場合には、ステップS223へ進む。
〈ステップS222〉
所定時間内における利用者の歩調が異常である場合、推定部63は、利用者の状態が運動機能低下状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てる。
〈ステップS223〉
所定時間内における利用者の歩調が異常ではない場合、推定部63は、利用者の状態が運動機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てない。
〔第6処理〕
次に、図22を参照して、ステップS23の処理である第6処理について説明する。上述のとおり、第6処理は、利用者のふらつきに基づいて利用者の状態を推定する処理である。
〈ステップS231〉
推定部63は、所定時間内における利用者のふらつきが異常であるか否かを判定する。例えば、推定部63は、利用者の姿勢の振れ幅が予め定められた許容幅を上回る状態の継続時間を計測し、その継続時間が予め定められた許容時間を上回る場合に、所定時間内における利用者のふらつきが異常であると判定する。所定時間内における利用者のふらつきが異常である場合には、ステップS232へ進み、そうでない場合には、ステップS233へ進む。
〈ステップS232〉
所定時間内における利用者のふらつきが異常である場合、推定部63は、利用者の状態が運動機能低下状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てる。
〈ステップS233〉
所定時間内における利用者のふらつきが異常ではない場合、推定部63は、利用者の状態が運動機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てない。
〔総合的推定〕
次に、ステップS30の処理である総合的推定について説明する。推定部63は、第1~第6処理の結果に基づいて利用者の状態を総合的に推定する。例えば、推定部63は、次のような動作を行うように構成されてもよい。
推定部63は、第1~第3処理(または第4~第6処理)の結果の全部を、推定結果として出力してもよい。例えば、推定部63は、第1処理において第1機能低下状態であることを示すフラグが立てられ、第3処理において認知運動機能低下状態であることを示すフラグが立てられた場合、利用者の状態が第1機能低下状態であり且つ認知運動機能低下状態であると推定されることを示す推定結果を出力する。この例では、推定部63は、第1機能低下状態であることを示すフラグと認知運動機能低下状態であることを示すフラグの両方を立てる。
または、推定部63は、第1~第3処理(または第4~第6処理)の結果の多数決を行い、その多数決の結果を推定結果として出力してもよい。例えば、推定部63は、第1処理および第2処理の各々において第1機能低下状態であることを示すフラグが立てられ、第3処理において認知運動機能低下状態であることを示すフラグが立てられた場合、利用者の状態が第1機能低下状態であると推定されることを示す推定結果を出力する。この例では、推定部63は、第1機能低下状態であることを示すフラグを立てる。
また、推定部63は、表示部11に表示される画像の種類に応じて第1~第3処理の結果に重みを付け、重み付けられた第1~第3処理の結果の多数決を行い、その多数決の結果を推定結果として出力してもよい。例えば、推定部63は、表示部11に表示される画像が「高誘目画像」に該当する場合に、第1処理の結果に付けられる重みを第2処理の結果に付けられる重みよりも大きくしてもよい。また、推定部63は、表示部11に表示される画像が「低誘目画像」に該当する場合に、第2処理の結果に付けられる重みを第1処理の結果に付けられる重みよりも大きくしてもよい。
〔実施形態1の効果〕
以上のように、実施形態1の携帯端末10では、推定処理部42は、表示部11に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する第1処理を行う。なお、表示部11に表示される画像に対する利用者の視線の動きと、利用者の状態(特に注意機能に関する状態)との間に相関がある。したがって、第1処理を行うことにより、表示部11に表示される画像に対する利用者の視線の動きに基づいて、注意機能低下状態を含む利用者の状態を推定することができる。
また、実施形態1の携帯端末10では、推定処理部42は、利用者のメインタスクが携帯端末10の操作に該当する場合に第1処理を行い、利用者のメインタスクが携帯端末10の操作に該当しない場合に第1処理を行わない。
なお、利用者のメインタスクが携帯端末10の操作に該当する場合、携帯端末10の表示部11に表示された画像に利用者の視線が向きやすくなる。そのため、表示部11に表示される画像に対する利用者の視線の動きが阻害されにくい。一方、利用者のメインタスクが携帯端末10の操作に該当しない場合、携帯端末10の表示部11に表示された画像に利用者の視線が向きにくくなる。そのため、表示部11に表示される画像に対する利用者の視線の動きが阻害されやすい。
したがって、利用者のメインタスクが携帯端末10の操作に該当する場合に第1処理を行い、利用者のメインタスクが携帯端末10の操作に該当しない場合に第1処理を行わないようすることにより、表示部11に表示される画像に対する利用者の視線の動きに基づく第1処理を適切に行うことができる。これにより、利用者の状態の推定を適切に行うことができる。
また、実施形態1の携帯端末10では、推定処理部42は、利用者のメインタスクが歩行に該当する場合に、利用者の周囲環境に対する利用者の視線の動きに基づいて利用者の状態を推定する第4処理を行う。なお、利用者の周囲環境に対する利用者の視線の動きと利用者の状態(特に注意機能に関する状態)との間に相関がある。また、利用者のメインタスクが歩行に該当する場合、利用者の周囲環境に利用者の視線が向きやすくなる。したがって、利用者のメインタスクが歩行に該当する場合に第4処理を行うことにより、利用者の周囲環境に対する利用者の視線の動きに基づいて、注意機能低下状態を含む利用者の状態を適切に推定することができる。これにより、利用者の状態の推定を適切に行うことができる。
また、実施形態1の携帯端末10では、第1処理において、利用者のトップダウン注意資源量とボトムアップ注意資源量とに基づいて、利用者の状態を適切に推定することができる。これにより、利用者の状態の推定を適切に行うことができる。なお、第4処理についても同様のことがいえる。
また、実施形態1の携帯端末10では、トップダウン計測部61に注目箇所検出部611とトップダウン指標導出部612とを設けることにより、表示部11に表示される画像における注目箇所に対する利用者の視線の動きに基づいて、第1トップダウン指標値TD1を適切に導出することができる。これにより、利用者の状態の推定を適切に行うことができる。なお、第2トップダウン指標値TD2についても同様のことがいえる。
また、実施形態1の携帯端末10では、ボトムアップ計測部62にサリエンシー検出部621とボトムアップ指標導出部622とを設けることにより、表示部11に表示される画像におけるサリエンシーの分布に対する利用者の視線の動きに基づいて、第1ボトムアップ指標値BU1を適切に導出することができる。これにより、利用者の状態の推定を適切に行うことができる。なお、第2ボトムアップ指標値BU2についても同様のことがいえる。
(制御部の動作)
実施形態1の携帯端末10では、制御部31は、状態推定部40により推定された利用者の状態に応じた動作を行う。例えば、制御部31は、状態推定部40により利用者の状態が第1注意機能低下状態であると推定されると、第1注意機能低下状態に応じた第1動作を行う。また、制御部31は、状態推定部40により利用者の状態が第2注意機能低下状態であると推定されると、第2注意機能低下状態に応じた第2動作を行う。また、制御部31は、状態推定部40による推定結果を示す情報を、通信部24を経由して外部に送信してもよい。
〔第1動作の具体例〕
第1動作の例としては、利用者の注意機能低下を解消するための動作、利用者の状態が第1注意機能低下状態であることを示す第1通知情報を出力する動作などが挙げられる。利用者の注意機能低下を解消するための動作の例としては、利用者に休憩をとることを促すための警報情報を出力する動作、携帯端末10の操作に集中することを利用者に促すための注意喚起情報を出力する動作などが挙げられる。警報情報を出力する動作の例としては、警報情報を表示部11に出力することで警報情報が表示部11から画像で出力される動作、警報情報をスピーカ12に出力することで警報情報がスピーカ12から音声で出力される動作などが挙げられる。注意喚起情報および第1通知情報についても同様である。また、第1通知情報を出力する動作の他の例としては、第1通知情報を通信部24に出力することで第1通知情報が他の情報端末(図示省略)に送信される動作が挙げられる。
〔第2動作の具体例〕
第2動作の例としては、利用者の状態が第2注意機能低下状態であることを示す第2通知情報を出力する動作、利用者の状態が第2注意機能低下状態であることを携帯端末10の周囲に通知するための動作などが挙げられる。第2通知情報を出力する動作の例としては、第2通知情報を表示部11に出力することで第2通知情報が表示部11から画像で出力される動作、第2通知情報をスピーカ12に出力することで第2通知情報がスピーカ12から音声で出力される動作、第2通知情報を通信部24に出力することで第2通知情報が他の情報端末(図示省略)に送信される動作などが挙げられる。利用者の状態が第2注意機能低下状態であることを携帯端末10の周囲に通知するための動作の例としては、携帯端末10のライト(図示省略)を点滅させる動作が挙げられる。
(ボトムアップ指標導出部の変形例)
なお、ボトムアップ指標導出部622は、第1処理において、次のようにして、予め定められた計測期間毎に第1ボトムアップ指標値BU1を導出してもよい。
まず、ボトムアップ指標導出部622は、時系列順に並ぶ複数のサリエンシーマップD40の中から、計測期間内に含まれる2つ以上のサリエンシーマップD40を抽出し、視線検出部41により検出された利用者の視線の方向に基づいて、計測期間内に含まれる2つ以上のサリエンシーマップD40の各々において注視点を検出する。
次に、ボトムアップ指標導出部622は、計測期間内に含まれるサリエンシーマップD40から検出された注視点がそのサリエンシーマップD40に示された高誘目箇所と一致するか否かを判定する。
次に、ボトムアップ指標導出部622は、注視点と高誘目箇所との合致判定の結果に基づいて、第1ボトムアップ指標値BU1を導出する。例えば、第1ボトムアップ指標値BU1は、計測期間内に含まれる注視点の総数に対して高誘目箇所と合致する注視点の数が占める割合(以下では「高誘目合致割合」と記載)に応じた値である。この高誘目合致割合は、高誘目箇所と利用者の視線との合致度の一例である。
また、ボトムアップ指標導出部622は、第4処理において、上記の第1処理における手順と同様の手順により、予め定められた計測期間毎に第2ボトムアップ指標値BU2を導出してもよい。
(実施形態1の変形例1)
次に、実施形態1の変形例1の携帯端末10について説明する。実施形態1の変形例1の携帯端末10は、推定処理部42の動作が実施形態1の携帯端末10と異なる。
実施形態1の変形例1では、推定処理部42は、利用者のメインタスクが携帯端末10の操作に該当する場合に、表示部11に表示される画像に対する利用者のボトムアップ注意の生じやすさに応じて、第1処理と第2処理とを選択的に行う。具体的には、推定処理部42は、表示部11に表示される画像における高誘目割合(画像において高誘目箇所が占める割合)に応じて、第1処理と第2処理とを選択的に行う。表示部11に表示される画像における高誘目割合が高誘目割合閾値を上回る場合、推定処理部42は、第1処理を行う。一方、表示部11に表示される画像における高誘目割合が高誘目割合閾値を上回らない場合、推定処理部42は、第2処理を行う。
この例では、推定部63は、メインタスク検出部51により検出された利用者のメインタスクが携帯端末10の操作に該当する場合に、画像種類検出部52による検出結果に基づいて、第1処理と第2処理とを選択的に行う。画像種類検出部52により検出された画像(表示部11に表示される画像)の種類が「高誘目画像」に該当する場合、推定部63は、第1処理を行う。一方、画像種類検出部52により検出された画像の種類が「低誘目画像」に該当する場合、推定部63は、第2処理を行う。
〔実施形態1の変形例1の効果〕
以上のように、実施形態1の変形例1の携帯端末10では、推定処理部42は、表示部11に表示される画像に対する利用者のボトムアップ注意の生じやすさに応じて、第1処理と第2処理とを選択的に行う。具体的には、推定処理部42は、表示部11に表示される画像に対する利用者のボトムアップ注意が生じやすい場合(この例では高誘目画像に該当する場合)に、第1処理を行う。また、推定処理部42は、表示部11に表示される画像に対する利用者のボトムアップ注意が生じにくい場合(この例では低誘目画像に該当する場合)に、第2処理を行う。
なお、表示部11に表示される画像に対する利用者のボトムアップ注意が生じやすい場合、表示部11に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する第1処理を精度良く行うことができる。一方、表示部11に表示される画像に対する利用者のボトムアップ注意が生じにくい場合、第1処理を精度良く行うことが困難となる。
したがって、表示部11に表示される画像に対する利用者のボトムアップ注意の生じやすさを考慮することにより、表示部11に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する第1処理と、利用者の認知反応時間に基づいて利用者の状態を推定する第2処理とを適切に行うことができる。これにより、利用者の状態の推定を適切に行うことができる。
(実施形態1の変形例2)
次に、実施形態1の変形例2の携帯端末10について説明する。実施形態1の変形例2の携帯端末10は、推定処理部42の動作が実施形態1の携帯端末10と異なる。
実施形態1の変形例2では、推定処理部42は、利用者のメインタスクが携帯端末10の操作に該当する場合だけでなく、利用者のメインタスクが携帯端末10の操作に該当しない場合においても、第1処理を行う。なお、第1処理において利用者の状態が注意機能低下状態であると推定されるための条件は、利用者のメインタスクが携帯端末10の操作に該当しない場合のほうが、利用者のメインタスクが携帯端末10の操作に該当する場合よりも厳しくなっている。例えば、利用者のメインタスクが携帯端末10の操作に該当しない場合に行われる第1処理における第1ボトムアップ閾値BUth1は、利用者のメインタスクが携帯端末10の操作に該当する場合に行われる第1処理における第1ボトムアップ閾値BUth1よりも大きくなっている。なお、第1処理において利用者の状態が注意機能低下状態であると推定されるための条件の調節は、例えば、推定部63により行われる。
〔実施形態1の変形例2〕
以上のように、実施形態1の変形例2の携帯端末10では、第1処理において利用者の状態が注意機能低下状態であると推定されるための条件は、利用者のメインタスクが携帯端末10の操作に該当しない場合のほうが、利用者のメインタスクが携帯端末10の操作に該当する場合よりも厳しい。なお、利用者のメインタスクが携帯端末10の操作に該当しない場合、携帯端末10の表示部11に表示される画像に対する利用者の視線の動きが阻害されやすいので、第1処理における利用者の状態の推定に誤りが生じやすい。したがって、利用者のメインタスクが携帯端末10の操作に該当しない場合に行われる第1処理における条件(利用者の状態が注意機能低下状態であると推定されるための条件)を、利用者のメインタスクが携帯端末10の操作に該当する場合に行われる第1処理における条件よりも厳しくすることにより、第1処理における利用者の状態の推定誤りの発生を低減することができる。これにより、利用者の状態の推定を適切に行うことができる。
(実施形態2)
実施形態2の携帯端末10は、状態推定部40の構成が実施形態1の携帯端末10と異なる。図23は、実施形態2の状態推定部40の構成を例示する。実施形態2の推定処理部42は、ボトムアップ計測部62と、推定部63と有するが、図8に示したトップダウン計測部61を有さない。なお、実施形態2のボトムアップ計測部62の構成は、図8に示した実施形態1のボトムアップ計測部62の構成と同様である。また、実施形態2の携帯端末10のその他の構成は、実施形態1の携帯端末10の構成と同様である。
実施形態2では、推定部63は、第1処理において、ボトムアップ計測部62により得られた第1ボトムアップ指標値BU1に基づいて、利用者の状態を推定する。また、推定部63は、第4処理において、ボトムアップ計測部62により得られた第2ボトムアップ指標値BU2に基づいて、利用者の状態を推定する。なお、実施形態2の推定部63のその他の動作は、実施形態1の推定部63の動作と同様である。
〔第1処理〕
次に、図24を参照して、実施形態2における第1処理について説明する。実施形態2の第1処理による利用者の状態の推定は、実施形態1の第1処理による利用者の状態の推定よりも簡易である。
〈ステップST116〉
推定部63は、第1ボトムアップ指標値BU1が予め定められた第1ボトムアップ基準値BUR1を上回るか否かを判定する。例えば、第1ボトムアップ基準値BUR1は、利用者のメインタスクが携帯端末10の操作に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第1ボトムアップ指標値BU1が第1ボトムアップ基準値BUR1を上回る場合には、ステップST117の処理が行われ、そうでない場合には、ステップST118の処理が行われる。
〈ステップST117〉
第1ボトムアップ指標値BU1が第1ボトムアップ基準値BUR1を上回る場合、推定部63は、利用者の状態が注意機能低下状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てる。
〈ステップST118〉
一方、第1ボトムアップ指標値BU1が第1ボトムアップ基準値BUR1を上回らない場合、推定部63は、利用者が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
〔第4処理〕
次に、図25を参照して、実施形態2における第4処理について説明する。実施形態2の第4処理による利用者の状態の推定は、実施形態1の第4処理による利用者の状態の推定よりも簡易である。
〈ステップST216〉
推定部63は、第2ボトムアップ指標値BU2が予め定められた第2ボトムアップ基準値BUR2を上回るか否かを判定する。例えば、第2ボトムアップ基準値BUR2は、利用者のメインタスクが歩行に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第2ボトムアップ指標値BU2が第2ボトムアップ基準値BUR2を上回る場合には、ステップST217の処理が行われ、そうでない場合には、ステップST218の処理が行われる。
〈ステップST217〉
第2ボトムアップ指標値BU2が第2ボトムアップ基準値BUR2を上回る場合、推定部63は、利用者の状態が注意機能低下状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てる。
〈ステップST218〉
一方、第2ボトムアップ指標値BU2が第2ボトムアップ基準値BUR2を上回らない場合、推定部63は、利用者が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
〔実施形態2の効果〕
実施形態2に携帯端末10では、実施形態1の携帯端末10の効果と同様の効果を得ることができる。例えば、注意機能低下状態を含む利用者の状態を推定することができる。
また、実施形態2の携帯端末10では、第1処理において、利用者のボトムアップ注意資源量に基づいて、利用者の状態を適切に推定することができる。これにより、利用者の状態の推定を適切に行うことができる。なお、第4処理についても同様のことがいえる。
(その他の実施形態)
以上の説明では、推定処理部42において第1~第6処理が行われる場合を例に挙げたが、これに限定されない。例えば、第1~第6処理のいずれかの処理が省略されてもよいし、第1~第6処理に加えて別の処理が行われてもよい。
また、利用者のメインタスクが携帯端末10の操作に該当する場合に第1処理と第2処理と第3処理が行われる場合を例に挙げたが、これに限定されない。例えば、推定処理部42は、利用者のメインタスクが携帯端末10の操作に該当する場合だけでなく、利用者のメインタスクが携帯端末10の操作に該当しない場合においても、第1処理と第2処理と第3処理とを行うように構成されてもよい。
また、利用者のメインタスクが歩行に該当する場合に第4処理と第5処理と第6処理が行われる場合を例に挙げたが、これに限定されない。例えば、推定処理部42は、利用者のメインタスクが歩行に該当する場合だけでなく、利用者のメインタスクが歩行に該当しない場合においても、第4処理と第5処理と第6処理とを行うように構成されてもよい。
以上の説明では、携帯端末10がスマートフォンを構成する場合を例に挙げたが、これに限定されない。例えば、携帯端末10は、タブレットであってもよいし、その他の携帯式の情報端末であってもよい。
以上の説明では、推定部63が推定周期毎に利用者の状態を推定する場合を例に挙げたが、これに限定されない。例えば、推定部63は、上記のように利用者の短期的な状態を推定するように構成されてもよいし、利用者の長期的な状態を推定するように構成されてもよい。利用者の長期的な状態の例としては、症状が緩やかに進行する疾患の状態、加齢による機能低下の状態などが挙げられる。
また、以上の説明では、推定部63が機能低下状態(具体的には注意機能低下状態と運動機能低下状態と認知運動機能低下状態)と正常状態とを推定する場合を例に挙げたが、これに限定されない。例えば、推定部63は、上記の機能低下状態のような利用者のネガティブな状態を推定するように構成されてもよいし、利用者のポジティブな状態を推定するように構成されてもよい。利用者のポジティブな状態の例としては、機能低下状態から正常状態へ回復した状態、正常状態が維持されている状態などが挙げられる。
また、以上の説明では、フロントカメラ21により得られた画像データとリアカメラ22により得られた画像データとを利用する場合を例に挙げたが、これに限定されない。例えば、制御装置30は、表示機器に入力される画像データと、その表示機器に表示された画像を見る対象者(利用者となり得る対象者)を撮像するカメラにより得られた画像データとを利用するように構成されてもよい。表示機器の例としては、スマートフォン、パーソナルコンピュータ、テレビ受像機などが挙げられる。また、制御装置30は、監視カメラにより得られた画像データと、監視カメラにより撮像される環境を見る対象者を撮像するカメラにより得られた画像データとを利用するように構成されてもよい。監視カメラは、病院の待合室、警備員の監視室、店舗のレジ、建物内、街頭などに設けられる。
また、以上の説明において、トップダウン閾値やボトムアップ閾値などの判定の基準となる基準値は、利用者毎に設定されてもよい。具体的には、上記の基準値は、利用者の経験、利用者の普段の挙動などの利用者に特有の情報の学習結果に基づいて設定または調節されてもよい。利用者の経験の例としては、道路の通行頻度などが挙げられる。例えば、利用者が歩行している道路が通り慣れた道路であるのか初めて通行する道路であるのかに基づいて、上記の基準値が設定または調節されてもよい。利用者の普段の挙動の例としては、1週間や1ヶ月などの長期間における平均的な利用者の挙動、他の手法により正常状態であると推定されている期間における利用者の挙動などが挙げられる。利用者の挙動の例としては、高誘目箇所および/または注目箇所に対する利用者の視線移動の感度などが挙げられる。
また、上記の基準値は、人に関する様々なデータが記憶されたデータベースに基づいて設定されてもよい。このようなデータベースには、人の年齢、身体特徴、身体機能、性格、文化、生活スタイルなどが互いに関連付けられて記憶されている。例えば、データベースに記憶されたデータ群の中から特定の特性を有する人に関するデータ群が抽出され、その抽出されたデータ群に基づいて上記の基準値が設定されてもよい。なお、データベースに記憶されたデータ群の中から抽出されるデータ群の例としては、健常者に関連するデータ群、特定の疾患を有する人に関連するデータ群などが挙げられる。また、上記の基準値は、制御装置30とは異なる他の機器(例えば他のスマートフォン)により得られた情報に基づいて設定されてもよい。
また、以上の実施形態を適宜組み合わせて実施してもよい。以上の実施形態は、本質的に好ましい例示であって、この発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。
以上説明したように、ここに開示する技術は、利用者の状態を推定する状態推定装置として有用である。
10 携帯端末
11 表示部
12 スピーカ
13 記憶部
21 フロントカメラ
22 リアカメラ
23 操作部
24 通信部
25 マイクロフォン
26 位置センサ
27 状態センサ
28 環境センサ
30 制御装置(状態推定装置)
31 制御部
40 状態推定部
41 視線検出部
42 推定処理部
50 画像取得部
51 メインタスク検出部
52 画像種類検出部
53 時間検出部
54 誤操作検出部
55 歩調検出部
56 ふらつき検出部
61 トップダウン計測部
62 ボトムアップ計測部
63 推定部
611 注目箇所検出部
612 トップダウン指標導出部
621 サリエンシー検出部
622 ボトムアップ指標導出部

Claims (10)

  1. 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
    前記利用者の視線を検出する視線検出部と、
    前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
    前記推定処理部は、前記利用者のメインタスクが前記携帯端末の操作に該当する場合に前記第1推定処理を行い、前記利用者のメインタスクが前記携帯端末の操作に該当しない場合に前記第1推定処理を行わない
    ことを特徴とする状態推定装置。
  2. 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
    前記利用者の視線を検出する視線検出部と、
    前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
    前記第1推定処理において前記利用者の状態が前記注意機能低下状態であると推定されるための条件は、前記利用者のメインタスクが前記携帯端末の操作に該当しない場合のほうが、前記利用者のメインタスクが前記携帯端末の操作に該当する場合よりも厳しい
    ことを特徴とする状態推定装置。
  3. 請求項1または2において、
    前記推定処理部は、
    前記第1推定処理において、前記表示部に表示される画像と前記視線検出部により検出される前記利用者の視線とに基づいて、前記画像に対する前記利用者のボトムアップ注意に割り当てられる注意資源の量と相関のあるボトムアップ指標値を計測するボトムアップ計測部と、
    前記第1推定処理において、前記ボトムアップ計測部により計測されたボトムアップ指標値に基づいて、前記利用者の状態を推定する推定部とを有する
    ことを特徴とする状態推定装置。
  4. 請求項において、
    前記ボトムアップ計測部は、
    前記第1推定処理において、前記表示部に表示される画像におけるサリエンシーの分布を検出するサリエンシー検出部と、
    前記第1推定処理において、前記画像におけるサリエンシーの分布に対する前記利用者の視線の動きに基づいて前記ボトムアップ指標値を導出するボトムアップ指標導出部とを有する
    ことを特徴とする状態推定装置。
  5. 請求項またはにおいて、
    前記推定処理部は、前記第1推定処理において、前記表示部に表示される画像と前記視線検出部により検出される前記利用者の視線とに基づいて、前記画像に対する前記利用者のトップダウン注意に割り当てられる注意資源の量と相関のあるトップダウン指標値を計測するトップダウン計測部を有し、
    前記推定部は、前記第1推定処理において、前記トップダウン計測部により計測されたトップダウン指標値と前記ボトムアップ計測部により計測されたボトムアップ指標値とに基づいて、前記利用者の状態を推定する
    ことを特徴とする状態推定装置。
  6. 請求項において、
    前記トップダウン計測部は、
    前記第1推定処理において、前記表示部に表示される画像における注目箇所を検出する注目箇所検出部と、
    前記第1推定処理において、前記画像における注目箇所に対する前記利用者の視線の動きに基づいて前記トップダウン指標値を導出するトップダウン指標導出部とを有する
    ことを特徴とする状態推定装置。
  7. 請求項1~のいずれか1つにおいて、
    前記推定処理部は、前記利用者のメインタスクが歩行に該当する場合に、前記利用者の周囲環境に対する前記利用者の視線の動きに基づいて前記利用者の状態を推定する第2推定処理を行う
    ことを特徴とする状態推定装置。
  8. 請求項1~のいずれか1つにおいて、
    前記推定処理部は、前記表示部に表示される画像に対する前記利用者のボトムアップ注意の生じやすさに応じて、前記第1推定処理と、前記利用者の認知反応時間に基づいて前記利用者の状態を推定する処理とを選択的に行う
    ことを特徴とする状態推定装置。
  9. 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
    前記利用者の視線を検出する視線検出部と、
    前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
    前記推定処理部は、前記利用者のメインタスクが歩行に該当する場合に、前記利用者の周囲環境に対する前記利用者の視線の動きに基づいて前記利用者の状態を推定する第2推定処理を行う
    ことを特徴とする状態推定装置。
  10. 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
    前記利用者の視線を検出する視線検出部と、
    前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
    前記推定処理部は、前記表示部に表示される画像に対する前記利用者のボトムアップ注意の生じやすさに応じて、前記第1推定処理と、前記利用者の認知反応時間に基づいて前記利用者の状態を推定する処理とを選択的に行う
    ことを特徴とする状態推定装置。
JP2020049973A 2020-03-19 2020-03-19 状態推定装置 Active JP7409184B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020049973A JP7409184B2 (ja) 2020-03-19 2020-03-19 状態推定装置
EP21157824.0A EP3882744A1 (en) 2020-03-19 2021-02-18 State estimation device
CN202110188140.6A CN113495623A (zh) 2020-03-19 2021-02-18 状态推断装置
US17/178,277 US20210290129A1 (en) 2020-03-19 2021-02-18 State estimation device, method and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049973A JP7409184B2 (ja) 2020-03-19 2020-03-19 状態推定装置

Publications (2)

Publication Number Publication Date
JP2021145974A JP2021145974A (ja) 2021-09-27
JP7409184B2 true JP7409184B2 (ja) 2024-01-09

Family

ID=74668672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049973A Active JP7409184B2 (ja) 2020-03-19 2020-03-19 状態推定装置

Country Status (4)

Country Link
US (1) US20210290129A1 (ja)
EP (1) EP3882744A1 (ja)
JP (1) JP7409184B2 (ja)
CN (1) CN113495623A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7380365B2 (ja) 2020-03-19 2023-11-15 マツダ株式会社 状態推定装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150323986A1 (en) 2012-10-14 2015-11-12 Ari M. Frank Reducing power consumption of a wearable device utilizing eye tracking
JP2017183787A (ja) 2016-03-28 2017-10-05 インターマン株式会社 危険回避支援プログラム
WO2017195405A1 (ja) 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
JP2018063489A (ja) 2016-10-11 2018-04-19 国立大学法人金沢大学 操縦者状態推定装置
JP2019530928A (ja) 2016-09-22 2019-10-24 アップル インコーポレイテッドApple Inc. グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5160293B2 (ja) * 2008-04-23 2013-03-13 ソニーモバイルコミュニケーションズ, エービー 携帯端末、その表示制御方法および表示制御プログラム
KR101726849B1 (ko) * 2010-08-06 2017-04-13 삼성전자주식회사 휴대 단말, 휴대 단말을 이용한 위험 감지 장치 및 방법
EP2831699A1 (en) * 2012-03-30 2015-02-04 Sony Mobile Communications AB Optimizing selection of a media object type in which to present content to a user of a device
IN2014DN08724A (ja) * 2012-04-24 2015-05-22 Univ Barcelona
KR102281253B1 (ko) * 2012-10-12 2021-07-23 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 생리학적 신호를 검출하기 위한 전두부 전극 센서의 배열 및 공간적 배치
JP2015012496A (ja) * 2013-06-28 2015-01-19 Kddi株式会社 携帯端末、携帯端末制御方法およびコンピュータプログラム
JP6416598B2 (ja) 2014-11-27 2018-10-31 京セラ株式会社 携帯端末及び制御方法
JP6176229B2 (ja) * 2014-12-15 2017-08-09 コニカミノルタ株式会社 携帯端末およびプログラム
EP4242817A3 (en) * 2017-06-29 2023-10-25 Maxell, Ltd. Portable terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150323986A1 (en) 2012-10-14 2015-11-12 Ari M. Frank Reducing power consumption of a wearable device utilizing eye tracking
JP2017183787A (ja) 2016-03-28 2017-10-05 インターマン株式会社 危険回避支援プログラム
WO2017195405A1 (ja) 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
JP2019530928A (ja) 2016-09-22 2019-10-24 アップル インコーポレイテッドApple Inc. グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期
JP2018063489A (ja) 2016-10-11 2018-04-19 国立大学法人金沢大学 操縦者状態推定装置

Also Published As

Publication number Publication date
US20210290129A1 (en) 2021-09-23
EP3882744A1 (en) 2021-09-22
CN113495623A (zh) 2021-10-12
JP2021145974A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
US20220095975A1 (en) Detection of cognitive state of a driver
JP5841538B2 (ja) 関心度推定装置および関心度推定方法
US9932000B2 (en) Information notification apparatus and information notification method
CN109074748A (zh) 图像处理设备、图像处理方法和可移动体
US20200265649A1 (en) Apparatus and method for displaying contents on an augmented reality device
JP2005315802A (ja) ユーザ支援装置
CN112181152A (zh) 基于mr眼镜的广告推送管理方法、设备及应用
WO2007074842A1 (ja) 画像処理装置
JP6185968B2 (ja) 情報処理システム、携帯端末、サーバ装置、情報処理方法及びプログラム
Hessels et al. Task-related gaze control in human crowd navigation
JP2012085746A (ja) 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置
JP7409184B2 (ja) 状態推定装置
CN112954486B (zh) 基于视线注意力的车载视频留痕处理方法
JP6320942B2 (ja) 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法
JP7331728B2 (ja) 運転者状態推定装置
JP7331729B2 (ja) 運転者状態推定装置
JP7380365B2 (ja) 状態推定装置
WO2019221070A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2020024117A (ja) 情報管理サーバ、情報管理方法、プログラム、情報提示端末及び情報通信システム
KR102443195B1 (ko) 시선 추적 기반 간성 뇌증 진단 방법 및 장치
JP7244011B2 (ja) 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム
KR102327578B1 (ko) 웨어러블 디바이스를 이용한 객체 및 상황 정보 제공장치 및 방법
JP2023034534A (ja) 情報収集システム、情報収集方法、および、情報収集プログラム
JP2022079950A (ja) 運転データ記録装置、運転支援システム、運転データ記録方法、およびプログラム
CN117530201A (zh) 可穿戴式头部眼动追踪设备、方法、处理设备及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7409184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150