JP7409184B2 - 状態推定装置 - Google Patents
状態推定装置 Download PDFInfo
- Publication number
- JP7409184B2 JP7409184B2 JP2020049973A JP2020049973A JP7409184B2 JP 7409184 B2 JP7409184 B2 JP 7409184B2 JP 2020049973 A JP2020049973 A JP 2020049973A JP 2020049973 A JP2020049973 A JP 2020049973A JP 7409184 B2 JP7409184 B2 JP 7409184B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- state
- attention
- estimation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 287
- 230000008569 process Effects 0.000 claims description 278
- 238000001514 detection method Methods 0.000 claims description 156
- 238000012545 processing Methods 0.000 claims description 89
- 230000003247 decreasing effect Effects 0.000 claims description 74
- 238000005259 measurement Methods 0.000 claims description 54
- 230000001149 cognitive effect Effects 0.000 claims description 45
- 238000009795 derivation Methods 0.000 claims description 42
- 230000035484 reaction time Effects 0.000 claims description 30
- 230000002596 correlated effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 88
- 210000001508 eye Anatomy 0.000 description 36
- 230000008717 functional decline Effects 0.000 description 29
- 230000007423 decrease Effects 0.000 description 26
- 230000007659 motor function Effects 0.000 description 26
- 230000002159 abnormal effect Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000005021 gait Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- AMRPAMSVFKIGHT-UHFFFAOYSA-N 1-phenyl-4-piperidin-1-ylpyrazolo[3,4-d]pyrimidine Chemical compound C1CCCCN1C1=NC=NC2=C1C=NN2C1=CC=CC=C1 AMRPAMSVFKIGHT-UHFFFAOYSA-N 0.000 description 5
- 101150093769 BUR1 gene Proteins 0.000 description 5
- 101150033317 BUR2 gene Proteins 0.000 description 5
- 101100208381 Caenorhabditis elegans tth-1 gene Proteins 0.000 description 5
- 101100165723 Candida albicans (strain SC5314 / ATCC MYA-2876) CRK1 gene Proteins 0.000 description 5
- 101100165726 Emericella nidulans (strain FGSC A4 / ATCC 38163 / CBS 112.46 / NRRL 194 / M139) ptkA gene Proteins 0.000 description 5
- 101100165729 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) stk-1 gene Proteins 0.000 description 5
- 101100165731 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SGV1 gene Proteins 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 4
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000001771 impaired effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 208000002173 dizziness Diseases 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000012447 hatching Effects 0.000 description 3
- 208000013433 lightheadedness Diseases 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 208000014644 Brain disease Diseases 0.000 description 1
- 206010013496 Disturbance in attention Diseases 0.000 description 1
- 101000585359 Homo sapiens Suppressor of tumorigenicity 20 protein Proteins 0.000 description 1
- 208000013016 Hypoglycemia Diseases 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 206010015037 epilepsy Diseases 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 230000002218 hypoglycaemic effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 208000010125 myocardial infarction Diseases 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003863 physical function Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/162—Testing reaction times
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7435—Displaying user selection data, e.g. icons in a graphical user interface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/02—Recognising information on displays, dials, clocks
Description
図1および図2は、実施形態1の携帯端末10の外観および構成を例示する。携帯端末10は、利用者の手に持たれて操作される。この例では、携帯端末10は、スマートフォンを構成する。具体的には、携帯端末10は、筐体10aと、表示部11と、スピーカ12と、記憶部13と、情報取得部20と、制御装置30とを備える。以下では、携帯端末10の利用者を単に「利用者」と記載する。
筐体10aは、扁平な直方体型の箱状に形成される。筐体10aには、携帯端末10の構成部品が収納される。
表示部11は、画像を表示する。表示部11は、矩形の板状に形成され、筐体10aの前面に設けられる。スピーカ12は、音声を再生する。記憶部13は、各種の情報およびデータを記憶する。この例では、記憶部13は、携帯端末10において実行可能な各種のアプリケーションのプログラムを記憶する。以下では、アプリケーションを「アプリ」と記載する。このようなアプリの例としては、ニュースアプリ、テレビアプリ、SNS(Social Networking Service)アプリなどが挙げられる。
情報取得部20は、携帯端末10において用いられる各種の情報を取得する。この例では、情報取得部20は、フロントカメラ21と、リアカメラ22と、操作部23と、通信部24と、マイクロフォン25と、位置センサ26と、状態センサ27と、環境センサ28とを含む。
フロントカメラ21は、筐体10aの前面に設けられ、フロントカメラ21は、携帯端末10の前方に広がる前方領域を撮像することで、携帯端末10の前方領域を示す画像を取得する。このような構成により、フロントカメラ21は、利用者の顔(特に眼球)を含む画像を取得することが可能である。例えば、フロントカメラ21と利用者の顔とが向かい合うように携帯端末10が利用者の手に持たれた状態で、フロントカメラ21が撮像動作を行うことにより、利用者の顔を含む画像が取得される。フロントカメラ21により得られた画像(画像データ)は、制御装置30に送信される。例えば、フロントカメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。
リアカメラ22は、筐体10aの後面に設けられる。リアカメラ22は、携帯端末10の後方に広がる後方領域を撮像することで、携帯端末10の後方領域を示す画像を取得する。このような構成により、リアカメラ22は、利用者の周囲に広がる周囲環境(この例では利用者の前方に広がる前方環境)を含む画像を取得することが可能である。例えば、リアカメラ22が前方環境を向くように携帯端末10が利用者の手に持たれた状態で、リアカメラ22が撮像動作を行うことにより、利用者の前方環境を含む画像が取得される。リアカメラ22により得られた画像(画像データ)は、制御装置30に送信される。例えば、リアカメラ22は、CCDやCMOSなどの固体撮像素子を用いて構成される。
操作部23は、利用者により操作され、利用者により与えられた操作に応じた信号を出力する。このような構成により、利用者は、操作部23を操作して情報を入力することができる。操作部23の出力は、制御装置30に送信される。この例では、操作部23は、表示部11とともにタッチパネルを構成するタッチ操作部を含む。なお、操作部23は、タッチ操作部の他に、操作ダイヤル、操作ボタンなどを含んでもよい。
通信部24は、携帯端末10の外部に設けられた通信ネットワーク(例えばインターネットや携帯電話回線など)を通じて各種の情報およびデータを受信する。例えば、通信部24は、他の情報端末(図示省略)からの音声データ、画像データ、地図情報などを受信する。通信部24により得られた情報およびデータは、制御装置30に送信される。
マイクロフォン25は、音声を電気信号に変換する。マイクロフォン25により得られた電気信号(音声データ)は、制御装置30に送信される。
位置センサ26は、携帯端末10の位置(例えば緯度と経度)を検出する。例えば、位置センサ26は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて携帯端末10の位置を検出する。位置センサ26により得られた情報(携帯端末10の位置)は、制御装置30に送信される。
状態センサ27は、携帯端末10の状態(例えば加速度や角速度や姿勢など)を検出する。例えば、状態センサ27は、加速度センサ、ジャイロセンサなどを含む。状態センサ27により得られた情報(携帯端末10の状態)は、制御装置30に送信される。
環境センサ28は、携帯端末10の周囲に広がる環境に関する情報(例えば光や磁気など)を検出する。例えば、環境センサ28は、光センサ、磁気センサ、近接センサなどを含む。環境センサ28により得られた情報(携帯端末10の周囲環境に関する情報)は、制御装置30に送信される。
制御装置30は、携帯端末10の各部(この例では表示部11とスピーカ12と記憶部13と情報取得部20)と信号伝送可能に接続される。そして、制御装置30は、携帯端末10の各部により得られた情報に基づいて携帯端末10の各部を制御する。なお、制御装置30は、状態推定装置の一例である。
制御部31は、携帯端末10の各部により得られた各種の情報およびデータに基づいて携帯端末10の各部を制御する。また、制御部31は、記憶部13に記憶されたアプリのプログラムを実行することで、そのアプリに応じた動作を行う。
状態推定部40は、利用者の状態を推定する。なお、状態推定部40については、後で詳しく説明する。
次に、以下の説明において用いられる用語について説明する。以下の説明では、注意資源、トップダウン注意、トップダウン注意資源量、トップダウン注意ディマンド量、ボトムアップ注意、ボトムアップ注意資源量、ボトムアップ注意ディマンド量、タスクディマンド、注目箇所、サリエンシー、認知反応時間、注意機能低下状態、運動機能低下状態、認知運動機能低下状態、正常状態という用語が用いられる。
注意資源は、人の注意力を定量的に示す概念である。人の注意力は、有限の資源であると考えることができる。ある対象に対する注意に割り当てられる注意資源の量が不足している場合、その対象に対して人の注意力を十分に発揮することができず、その対象に対する人の注意が不十分となる。
トップダウン注意は、人が意図する箇所に視線を能動的に移動させる注意メカニズムのことである。例えば、選ぶべき刺激について事前知識をもっている場合、人は、能動的にバイアスをかけることによって目的とする刺激を選択することができる。
トップダウン注意資源量は、トップダウン注意に割り当てられる注意資源の量のことである。また、トップダウン注意ディマンド量は、トップダウン注意に対して要求される注意資源の量のことである。トップダウン注意資源量がトップダウン注意ディマンド量を下回ると、トップダウン注意が不十分となる。
ボトムアップ注意は、目立つ箇所に人の視線が受動的に惹きつけられる注意メカニズムのことである。例えば、複数の視覚刺激のうち1つの刺激が周囲の刺激と顕著に異なる場合、視覚刺激が突然出現した場合など、その刺激に対して人の視線が受動的に惹きつけられる。
ボトムアップ注意資源量は、ボトムアップ注意に割り当てられる注意資源の量のことである。また、ボトムアップ注意ディマンド量は、ボトムアップ注意に対して要求される注意資源の量のことである。ボトムアップ注意資源量がボトムアップ注意ディマンド量を下回ると、ボトムアップ注意が不十分となる。
タスクディマンドは、人に課せられるタスクの難易度のことである。タスクの難易度が高くなるに連れて、タスクディマンドが大きくなる。タスクの例としては、携帯端末10の表示を確認しながら携帯端末10を操作するという操作タスク、携帯端末10の表示を確認しながら歩行するという歩行タスクなどが挙げられる。操作タスクにおいて行われる動作の例としては、ニュース記事の閲覧、テレビ映像の閲覧、メッセージの閲覧、アイコンの視認、アイコンの選択などが挙げられる。歩行タスクにおいて行われる動作の例としては、状況監視、危険回避、交通ルール遵守、目的地探索などが挙げられる。
注目箇所は、タスクを達成するために人が注目すべき箇所のことであり、トップダウン注意において人が意図的に視線を向けるべき箇所である。注目箇所の例としては、表示部11に表示される画像における注目箇所、利用者の周囲環境における注目箇所などが挙げられる。
サリエンシーは、ボトムアップ注意を誘引する視覚刺激の度合いを示す値であり、色、輝度、方向、動きなどの特徴により変化する値である。例えば、画像に含まれる任意の領域とその領域の周囲の領域との間において色、輝度、方向、動きなどの特徴の違いが顕著になるに連れて、ボトムアップ注意を誘引する視覚刺激が強くなり、その任意の領域におけるサリエンシーが高くなる。画像に含まれる任意の箇所におけるサリエンシーが高くなるほど、その任意の箇所に人の視線が惹きつけられやすくなる。
認知反応時間は、人が認知してから行動を起こすまでに要する時間のことである。認知反応時間の例としては、人が表示部11に表示された画像に含まれる特定箇所を視認してから人が特定箇所を選択する操作(例えばタッチ操作)を操作部23に与えるまでに要する時間が挙げられる。特定箇所の例としては、アイコン、文字盤に含まれる文字などが挙げられる。
注意機能低下状態は、人の注意機能が低下している状態のことである。注意機能低下状態では、利用者による携帯端末10の操作に支障がある。注意機能低下状態には、軽度の注意機能低下状態である第1注意機能低下状態と、重度の注意機能低下状態である第2注意機能低下状態とがある。
運動機能低下状態は、人の運動機能が低下している状態のことである。運動機能低下状態では、人の歩調および姿勢の振れに異常が生じやすい。認知運動機能低下状態は、人が認知して行動するという認知運動機能が低下している状態のことである。認知運動機能低下状態では、誤操作が生じやすい。
正常状態は、上記のような異常が人に生じていない状態であり、人が行うべき操作を正常に行うことが可能な状態のことである。正常状態では、利用者による携帯端末10の操作が正常に行われる。
次に、図3~図6を参照して、携帯端末10の表示部11に表示される画像について説明する。例えば、制御装置30は、図3に示すアプリ選択画像D10を表示部11に表示させる。アプリ選択画像D10には、ニュースアプリアイコン81と、テレビアプリアイコン82と、SNSアプリアイコン83とが含まれる。
アプリ選択画像D10に含まれるニュースアプリアイコン81を選択する操作が操作部23に与えられると、ニュースアプリが起動する。そして、図4に示すように、記事閲覧画像D11が表示部11に表示される。図4に示した記事閲覧画像D11には、テキスト領域RTと、ピクチャ領域RPとが含まれる。テキスト領域RTには、記事などの意味性の高い情報が表示される。ピクチャ領域RPには、広告などの意味性の低い情報が表示される。図4に示した記事閲覧画像D11では、注目箇所と高誘目箇所とが混在する。図4の例では、テキスト領域RTが注目箇所に該当し、ピクチャ領域RPが高誘目箇所に該当する。図4に示した記事閲覧画像D11は、高誘目画像(高誘目箇所の占める割合が比較的に高い画像)に該当する。
アプリ選択画像D10に含まれるテレビアプリアイコン82を選択する操作が操作部23に与えられると、テレビアプリが起動する。そして、図5に示すように、視聴画像D12が表示部11に表示される。図5に示した視聴画像D12には、テキスト領域RTと、ピクチャ領域RPとが含まれる。ピクチャ領域PRには、テレビ番組の映像などの意味性の高い情報が表示される。テキスト領域RTには、テレビ番組に関する説明などの意味性の高い情報が表示される。なお、視聴画像D12には、広告などの意味性の低い情報が表示されるサブピクチャ領域(図示省略)が含まれてもよい。図5に示した視聴画像D12では、注目箇所と高誘目箇所とが混在する。図5の例では、テキスト領域RTが注目箇所に該当し、ピクチャ領域RPが注目箇所と高誘目箇所の両方に該当し、サブピクチャ領域が高誘目箇所に該当する。図5に示した視聴画像D12は、高誘目画像(高誘目箇所の占める割合が比較的に高い画像)に該当する。
アプリ選択画像D10に含まれるSNSアプリアイコン83を選択する操作が操作部23に与えられると、SNSアプリが起動する。そして、図6に示すように、メッセージ閲覧画像D13が表示部11に表示される。図6に示したメッセージ閲覧画像D13には、テキスト領域RTが含まれる。テキスト領域RTには、メッセージ本文などの意味性の高い情報が表示される。なお、図6に示したメッセージ閲覧画像D13では、注目箇所と高誘目箇所とが混在しておらず、注目箇所が支配的である。図6の例では、テキスト領域RTが注目領域に該当する。図6に示したメッセージ閲覧画像D13は、低誘目画像(高誘目箇所の占める割合が比較的に低い画像)に該当する。
本願発明者は、鋭意研究の結果、表示部11に表示される画像(または利用者の周囲環境)に対する利用者の視線の動きと、利用者の状態(特に注意機能に関する状態)との間に相関があることを見出した。具体的には、本願発明者は、図7に示すように、利用者などの人の注意機能の低下に応じてトップダウン注意資源量およびボトムアップ注意資源量が変化することを見出した。図7の例において、右上がりの斜線のハッチングが付された上向きの三角形の高さは、トップダウン注意資源量を示す。破線の上向きの三角形の高さは、トップダウン注意ディマンド量を示す。左上がりの斜線のハッチングが付された下向きの三角形の高さは、ボトムアップ注意資源量を示す。また、本願発明者は、図7に示すように、人の注意機能の変化に応じて人の認知反応時間が変化することを見出した。
図8は、状態推定部40の構成を例示する。状態推定部40は、視線検出部41と推定処理部42と、画像取得部50と、メインタスク検出部51と、画像種類検出部52と、時間検出部53と、誤操作検出部54と、歩調検出部55と、ふらつき検出部56とを有する。
視線検出部41は、利用者の視線を検出する。この例では、視線検出部41は、フロントカメラ21により得られた画像(利用者の顔を含む画像)に対して視線検出処理を行うことにより、利用者の視線を検出する。なお、この視線検出処理は、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の視線検出技術を用いて行われる処理であってもよい。例えば、視線検出部41は、フロントカメラ21により得られた画像の中から利用者の瞳孔を検出し、その検出された瞳孔に基づいて利用者の視線を検出する。なお、利用者の視線は、利用者の右眼の視線であってもよいし、利用者の左眼の視線であってもよいし、利用者の右眼の視線および左眼の視線に基づいて導出される視線であってもよい。
画像取得部50は、利用者の周囲環境を示す画像(画像データ)を取得する。画像取得部50により得られた画像は、推定処理部42に送られる。例えば、画像取得部50は、以下の手順により、利用者の周囲環境を示す画像を取得する。
メインタスク検出部51は、情報取得部20により取得された情報に基づいて、利用者のメインタスクを検出する。メインタスク検出部51による検出結果は、推定処理部42に送られる。利用者のメインタスクの例としては、操作タスクに該当する携帯端末10の操作、歩行タスクに該当する歩行などが挙げられる。
画像種類検出部52は、情報取得部20により取得された情報に基づいて、表示部11に表示される画像の種類を検出する。画像種類検出部52による検出結果は、推定処理部42に送られる。画像の種類の例としては、画像に関連するアプリの種類、画像に対する利用者のボトムアップ注意の生じやすさに関連する分類などが挙げられる。画像に対する利用者のボトムアップ注意の生じやすさは、画像における高誘目割合(画像において高誘目箇所が占める割合)に依存する。
時間検出部53は、情報取得部20により取得された情報に基づいて、利用者の認知反応時間を検出する。時間検出部53による検出結果は、推定処理部42に送られる。例えば、時間検出部53は、視線検出部41により検出された視線と、表示部11に表示される画像とに基づいて、表示部11に表示された画像に含まれる特定箇所(例えばアイコンや文字盤の文字など)を利用者が視認したことを検出する。また、時間検出部53は、利用者に視認された箇所を選択する操作(具体的にはタッチ)を利用者が操作部23に与えたことを検出する。そして、時間検出部53は、表示部11に表示された画像に含まれる特定箇所を利用者が視認してからその特定箇所を選択する操作を利用者が操作部23に与えるまでに要する時間を「認知反応時間」として検出する。
誤操作検出部54は、情報取得部20により取得された情報に基づいて、利用者の誤操作の頻度を検出する。誤操作検出部54による検出結果は、推定処理部42に送られる。誤操作の例としては、文字の入力ミス、アイコンの選択ミスなどが挙げられる。例えば、誤操作検出部54は、利用者により入力された文字の正誤を判定し、その判定結果に基づいて文字の入力ミスの頻度を検出し、文字の入力ミスの頻度を「利用者の誤操作の頻度」として出力する。なお、誤操作の検出は、深層学習により生成された学習モデル(誤操作を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の正誤判定技術を用いて行われる処理であってもよい。
歩調検出部55は、情報取得部20により取得された情報に基づいて、利用者の歩調を検出する。歩調検出部55による検出結果は、推定処理部42に送られる。例えば、歩調検出部55は、位置センサ26の出力に基づいて携帯端末10の位置を検出し、その携帯端末10の位置の時間的変化に基づいて利用者の移動速度の単位時間当たりの変化量を推定し、利用者の移動速度の単位時間当たりの変化量を「利用者の歩調」として出力する。
ふらつき検出部56は、情報取得部20により取得された情報に基づいて、利用者のふらつき(姿勢の振れ)を検出する。ふらつき検出部56による検出結果は、推定処理部42に送られる。例えば、ふらつき検出部56は、状態センサ27の出力に基づいて携帯端末10の姿勢の振れ幅を検出し、その携帯端末10の姿勢の振れ幅に基づいて利用者の姿勢の振れ幅を推定し、利用者の姿勢の振れ幅を「利用者のふらつき」として出力する。
推定処理部42は、利用者の状態を推定する推定処理を行う。この例では、推定処理部42は、視線検出部41と画像取得部50とメインタスク検出部51と画像種類検出部52と時間検出部53と誤操作検出部54と歩調検出部55とふらつき検出部56の各々の出力に基づいて、第1処理と第2処理と第3処理と第4処理と第5処理と第6処理とを行う。なお、第1処理は、第1推定処理の一例であり、第4処理は、第2推定処理の一例である。
トップダウン計測部61は、第1処理において、表示部11に表示される画像と視線検出部41により検出される利用者の視線とに基づいて、表示部11に表示される画像に対する利用者のトップダウン注意資源量と相間のある第1トップダウン指標値TD1を計測する。また、トップダウン計測部61は、第4処理において、利用者の周囲環境と視線検出部41により検出される利用者の視線とに基づいて、利用者の周囲環境に対する利用者のトップダウン注意資源量と相間のある第2トップダウン指標値TD2を計測する。利用者のトップダウン注意資源量が多くなるに連れて、第1トップダウン指標値TD1および第2トップダウン指標値TD2が大きくなる。この例では、トップダウン計測部61は、注目箇所検出部611と、トップダウン指標導出部612とを有する。
注目箇所検出部611は、第1処理において、表示部11に表示される画像における注目箇所を検出する。この例では、注目箇所検出部611は、表示部11に表示される画像(画像データ)に基づいて、表示部11に表示される画像における注目箇所を示す注目箇所マップD30(注目箇所マップデータ)を生成する。具体的には、注目箇所検出部611は、メインタスク検出部51により検出された利用者のメインタスクが携帯端末10の操作(操作タスク)に該当する場合に、表示部11に表示される画像(画像データ)を入力する。そして、注目箇所検出部611は、以下のように、注目箇所マップD30を生成する。
トップダウン指標導出部612は、第1処理において、表示部11に表示される画像における注目箇所に対する利用者の視線の動きに基づいて、第1トップダウン指標値TD1を導出する。具体的には、トップダウン指標導出部612は、第1処理において、表示部11に表示される画像における注目箇所と利用者の視線との合致度(合致頻度)に基づいて、第1トップダウン指標値TD1を導出する。利用者のトップダウン注意資源量が増加すると、表示部11に表示される画像における注目箇所と利用者の視線との合致度が増加し、第1トップダウン指標値TD1が増加する。
ボトムアップ計測部62は、第1処理において、表示部11に表示される画像と視線検出部41により検出される利用者の視線とに基づいて、表示部11に表示される画像に対する利用者のボトムアップ注意資源量と相間のある第1ボトムアップ指標値BU1を計測する。また、ボトムアップ計測部62は、第4処理において、利用者の周囲環境と視線検出部41により検出される利用者の視線とに基づいて、利用者の周囲環境に対する利用者のボトムアップ注意資源量と相間のある第2ボトムアップ指標値BU2を計測する。利用者のボトムアップ注意資源量が多くなるに連れて、第1ボトムアップ指標値BU1および第2ボトムアップ指標値BU2が大きくなる。この例では、ボトムアップ計測部62は、サリエンシー検出部621と、ボトムアップ指標導出部622とを有する。
サリエンシー検出部621は、第1処理において、表示部11に表示される画像におけるサリエンシーの分布を検出する。この例では、サリエンシー検出部621は、表示部11に表示される画像(画像データ)に基づいて、表示部11に表示される画像におけるサリエンシーの分布を示すサリエンシーマップD40(サリエンシーマップデータ)を生成する。具体的には、サリエンシー検出部621は、メインタスク検出部51により検出された利用者のメインタスクが携帯端末10の操作(操作タスク)に該当する場合に、表示部11に表示される画像(画像データ)を入力する。そして、サリエンシー検出部621は、以下の手順により、サリエンシーマップD40を生成する。
ボトムアップ指標導出部622は、第1処理において、表示部11に表示される画像におけるサリエンシーの分布に対する利用者の視線の動きに基づいて、第1ボトムアップ指標値BU1を導出する。具体的には、ボトムアップ指標導出部622は、第1処理において、表示部11に表示される画像における高誘目箇所と利用者の視線との合致度(合致頻度)に基づいて、第1ボトムアップ指標値BU1を導出する。利用者のボトムアップ注意資源量が増加すると、表示部11に表示される画像における高誘目箇所と利用者の視線との合致度が増加し、第1ボトムアップ指標値BU1が増加する。
推定部63は、第1処理において、第1トップダウン指標値TD1と第1ボトムアップ指標値BU1とに基づいて、利用者の状態を推定する。具体的には、推定部63は、第1処理において、第1トップダウン指標値TD1の変化と第1ボトムアップ指標値BU1の変化とに基づいて、利用者の状態を推定する。また、推定部63は、第4処理において、第2トップダウン指標値TD2と第2ボトムアップ指標値BU2とに基づいて、利用者の状態を推定する。具体的には、推定部63は、第4処理において、第2トップダウン指標値TD2の変化と第2ボトムアップ指標値BU2の変化とに基づいて、利用者の状態を推定する。なお、利用者の状態の推定については、後で詳しく説明する。
次に、図16を参照して、推定処理部42の動作について説明する。この例では、推定処理部42は、利用者のメインタスクに応じて、第1処理と第2処理と第3処理の群と、第4処理と第5処理と第6処理の群とを選択的に行う。具体的には、推定処理部42は、利用者のメインタスクが携帯端末10の操作に該当する場合に、第1処理と第2処理と第3処理とを行う。また、推定処理部42は、利用者のメインタスクが歩行に該当する場合に、第4処理と第5処理と第6処理とを行う。例えば、推定処理部42は、予め定められた推定周期毎(例えば10分毎)に、以下の処理を行う。
推定部63は、メインタスク検出部51による検出結果に基づいて、利用者のメインタスクが携帯端末10の操作(操作タスク)に該当するか否かを判定する。利用者のメインタスクが携帯端末10の操作に該当する場合には、ステップST11~ST13の処理が行われ、そうでない場合には、ステップST20の処理が行われる。
利用者のメインタスクが携帯端末10の操作に該当する場合、推定部63は、第1処理(ステップST11)と、第2処理(ステップST12)と、第3処理(ステップST13)とを行う。これらの処理が完了すると、ステップST30の処理が行われる。
利用者のメインタスクが携帯端末10の操作に該当しない場合、推定部63は、メインタスク検出部51による検出結果に基づいて、利用者のメインタスクが歩行(歩行タスク)に該当するか否かを判定する。利用者のメインタスクが歩行に該当する場合には、ステップST21~ST23の処理が行われ、そうでない場合には、ステップST10の処理が行われる。
利用者のメインタスクが歩行に該当する場合、推定部63は、第4処理(ステップST21)と、第5処理(ステップST22)と、第6処理(ステップST23)とを行う。これらの処理が完了すると、ステップST30の処理が行われる。
ステップST11~ST13の処理(またはステップST21~ST23の処理)が完了すると、推定部63は、ステップST11~ST13の処理(またはステップST21~ST23の処理)により得られた利用者の状態に関する推定結果に基づいて、利用者の状態を総合的に推定する。ステップST30の処理(総合的推定)については、後で詳しく説明する。
次に、図17を参照して、ステップS11の処理である第1処理について説明する。上述のとおり、第1処理は、表示部11に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する処理である。以下の第1処理では、第1注意機能低下状態と第2注意機能低下状態とを区別して推定することができる。
推定部63は、第1トップダウン指標値TD1が予め定められた第1トップダウン閾値TDth1を下回るか否かを判定する。例えば、第1トップダウン閾値TDth1は、利用者のメインタスクが携帯端末10の操作に該当する場合の利用者のトップダウン注意ディマンド量に応じた値に設定される。第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回る場合には、ステップST112の処理が行われ、そうでない場合には、ステップST115の処理が行われる。
推定部63は、第1ボトムアップ指標値BU1が予め定められた第1ボトムアップ閾値BUth1を下回るか否かを判定する。例えば、第1ボトムアップ閾値BUth1は、利用者のメインタスクが携帯端末10の操作に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第1ボトムアップ指標値BU1が第1ボトムアップ閾値BUth1を下回る場合には、ステップST113の処理が行われ、そうでない場合には、ステップST114の処理が行われる。
第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回り、且つ、第1ボトムアップ指標値BU1が第1ボトムアップ閾値BUth1を下回る場合、推定部63は、利用者の状態が第2注意機能低下状態(重度の注意機能低下)であると推定する。この例では、推定部63は、第2注意機能低下状態であることを示すフラグを立てる。
第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回り、且つ、第1ボトムアップ指標値BU1が第1ボトムアップ閾値BUth1を下回らない場合、推定部63は、利用者の状態が第2注意機能低下状態であると推定せずに、利用者の状態が第1注意機能低下状態(軽度の注意機能低下)であると推定する。この例では、推定部63は、第1注意機能低下状態であることを示すフラグを立てる。
また、第1トップダウン指標値TD1が第1トップダウン閾値TDth1を下回らない場合、推定部63は、利用者の状態が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
次に、図18を参照して、ステップS12の処理である第2処理について説明する。上述のとおり、第2処理は、利用者の認知反応時間に基づいて利用者の状態を推定する処理である。以下の第2処理では、第1注意機能低下状態と第2注意機能低下状態とを区別して推定することができる。
推定部63は、認知反応時間Tが予め定められた第1時間閾値Tth1を上回るか否かを判定する。認知反応時間Tが第1時間閾値Tth1を上回る場合には、ステップST122の処理が行われ、そうでない場合には、ステップST125の処理が行われる。
推定部63は、認知反応時間Tが予め定められた第2時間閾値Tth2を上回るか否かを判定する。第2時間閾値Tth2は、第1時間閾値Tth1よりも長い。認知反応時間Tが第2時間閾値Tth2を下回る場合には、ステップST123の処理が行われ、そうでない場合には、ステップST124の処理が行われる。
認知反応時間Tが第2時間閾値Tth2を上回る場合、推定部63は、利用者の状態が第2注意機能低下状態(重度の注意機能低下)であると推定する。この例では、推定部63は、第2注意機能低下状態であることを示すフラグを立てる。
認知反応時間Tが第1時間閾値Tth1を上回るが第2時間閾値Tth2を上回らない場合、推定部63は、利用者の状態が第2注意機能低下状態であると推定せずに、利用者の状態が第1注意機能低下状態(軽度の注意機能低下)であると推定する。この例では、推定部63は、第1注意機能低下状態であることを示すフラグを立てる。
認知反応時間Tが第1時間閾値Tth1を上回らない場合、推定部63は、利用者の状態が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
次に、図19を参照して、ステップS13の処理である第3処理について説明する。上述のとおり、第3処理は、利用者の誤操作の頻度に基づいて利用者の状態を推定する処理である。
推定部63は、所定時間内における利用者の誤操作の頻度が異常であるか否かを判定する。例えば、推定部63は、所定時間内における利用者の誤操作の頻度が予め定められた許容頻度を上回る場合に、所定時間内における利用者の誤操作の頻度が異常であると判定する。所定時間内における利用者の誤操作の頻度が異常である場合には、ステップS132へ進み、そうでない場合には、ステップS133へ進む。
所定時間内における利用者の誤操作の頻度が異常である場合、推定部63は、利用者の状態が認知運動機能低下状態であると推定する。この例では、推定部63は、認知運動機能低下状態であることを示すフラグを立てる。
所定時間内における利用者の誤操作の頻度が異常ではない場合、推定部63は、利用者の状態が認知運動機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、認知運動機能低下状態であることを示すフラグを立てない。
次に、図20を参照して、ステップS21の処理である第4処理について説明する。上述のとおり、第4処理は、利用者の周囲環境に対する利用者の視線の動きに基づいて利用者の状態を推定する処理である。以下の第4処理では、第1注意機能低下状態と第2注意機能低下状態とを区別して推定することができる。
推定部63は、第2トップダウン指標値TD2が予め定められた第2トップダウン閾値TDth2を下回るか否かを判定する。例えば、第2トップダウン閾値TDth2は、利用者のメインタスクが歩行に該当する場合の利用者のトップダウン注意ディマンド量に応じた値に設定される。第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回る場合には、ステップST212の処理が行われ、そうでない場合には、ステップST215の処理が行われる。
推定部63は、第2ボトムアップ指標値BU2が予め定められた第2ボトムアップ閾値BUth2を下回るか否かを判定する。例えば、第2ボトムアップ閾値BUth2は、利用者のメインタスクが歩行に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第2ボトムアップ指標値BU2が第2ボトムアップ閾値BUth2を下回る場合には、ステップST213の処理が行われ、そうでない場合には、ステップST214の処理が行われる。
第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回り、且つ、第2ボトムアップ指標値BU2が第2ボトムアップ閾値BUth2を下回る場合、推定部63は、利用者の状態が第2注意機能低下状態(重度の注意機能低下)であると推定する。この例では、推定部63は、第2注意機能低下状態であることを示すフラグを立てる。
第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回り、且つ、第2ボトムアップ指標値BU2が第2ボトムアップ閾値BUth2を下回らない場合、推定部63は、利用者の状態が第2注意機能低下状態であると推定せずに、利用者の状態が第1注意機能低下状態(軽度の注意機能低下)であると推定する。この例では、推定部63は、第1注意機能低下状態であることを示すフラグを立てる。
第2トップダウン指標値TD2が第2トップダウン閾値TDth2を下回らない場合、推定部63は、利用者の状態が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
次に、図21を参照して、ステップS22の処理である第5処理について説明する。上述のとおり、第5処理は、利用者の歩調に基づいて利用者の状態を推定する処理である。
推定部63は、所定時間内における利用者の歩調が異常であるか否かを判定する。例えば、推定部63は、利用者の移動速度の単位時間当たりの変化量が予め定められた許容量を上回る状態の継続時間を計測し、その継続時間が予め定められた許容時間を上回る場合に、所定時間内における利用者の歩調が異常であると判定する。所定時間内における利用者の歩調が異常である場合には、ステップS222へ進み、そうでない場合には、ステップS223へ進む。
所定時間内における利用者の歩調が異常である場合、推定部63は、利用者の状態が運動機能低下状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てる。
所定時間内における利用者の歩調が異常ではない場合、推定部63は、利用者の状態が運動機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てない。
次に、図22を参照して、ステップS23の処理である第6処理について説明する。上述のとおり、第6処理は、利用者のふらつきに基づいて利用者の状態を推定する処理である。
推定部63は、所定時間内における利用者のふらつきが異常であるか否かを判定する。例えば、推定部63は、利用者の姿勢の振れ幅が予め定められた許容幅を上回る状態の継続時間を計測し、その継続時間が予め定められた許容時間を上回る場合に、所定時間内における利用者のふらつきが異常であると判定する。所定時間内における利用者のふらつきが異常である場合には、ステップS232へ進み、そうでない場合には、ステップS233へ進む。
所定時間内における利用者のふらつきが異常である場合、推定部63は、利用者の状態が運動機能低下状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てる。
所定時間内における利用者のふらつきが異常ではない場合、推定部63は、利用者の状態が運動機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、運動機能低下状態であることを示すフラグを立てない。
次に、ステップS30の処理である総合的推定について説明する。推定部63は、第1~第6処理の結果に基づいて利用者の状態を総合的に推定する。例えば、推定部63は、次のような動作を行うように構成されてもよい。
以上のように、実施形態1の携帯端末10では、推定処理部42は、表示部11に表示される画像に対する利用者の視線の動きに基づいて利用者の状態を推定する第1処理を行う。なお、表示部11に表示される画像に対する利用者の視線の動きと、利用者の状態(特に注意機能に関する状態)との間に相関がある。したがって、第1処理を行うことにより、表示部11に表示される画像に対する利用者の視線の動きに基づいて、注意機能低下状態を含む利用者の状態を推定することができる。
実施形態1の携帯端末10では、制御部31は、状態推定部40により推定された利用者の状態に応じた動作を行う。例えば、制御部31は、状態推定部40により利用者の状態が第1注意機能低下状態であると推定されると、第1注意機能低下状態に応じた第1動作を行う。また、制御部31は、状態推定部40により利用者の状態が第2注意機能低下状態であると推定されると、第2注意機能低下状態に応じた第2動作を行う。また、制御部31は、状態推定部40による推定結果を示す情報を、通信部24を経由して外部に送信してもよい。
第1動作の例としては、利用者の注意機能低下を解消するための動作、利用者の状態が第1注意機能低下状態であることを示す第1通知情報を出力する動作などが挙げられる。利用者の注意機能低下を解消するための動作の例としては、利用者に休憩をとることを促すための警報情報を出力する動作、携帯端末10の操作に集中することを利用者に促すための注意喚起情報を出力する動作などが挙げられる。警報情報を出力する動作の例としては、警報情報を表示部11に出力することで警報情報が表示部11から画像で出力される動作、警報情報をスピーカ12に出力することで警報情報がスピーカ12から音声で出力される動作などが挙げられる。注意喚起情報および第1通知情報についても同様である。また、第1通知情報を出力する動作の他の例としては、第1通知情報を通信部24に出力することで第1通知情報が他の情報端末(図示省略)に送信される動作が挙げられる。
第2動作の例としては、利用者の状態が第2注意機能低下状態であることを示す第2通知情報を出力する動作、利用者の状態が第2注意機能低下状態であることを携帯端末10の周囲に通知するための動作などが挙げられる。第2通知情報を出力する動作の例としては、第2通知情報を表示部11に出力することで第2通知情報が表示部11から画像で出力される動作、第2通知情報をスピーカ12に出力することで第2通知情報がスピーカ12から音声で出力される動作、第2通知情報を通信部24に出力することで第2通知情報が他の情報端末(図示省略)に送信される動作などが挙げられる。利用者の状態が第2注意機能低下状態であることを携帯端末10の周囲に通知するための動作の例としては、携帯端末10のライト(図示省略)を点滅させる動作が挙げられる。
なお、ボトムアップ指標導出部622は、第1処理において、次のようにして、予め定められた計測期間毎に第1ボトムアップ指標値BU1を導出してもよい。
次に、実施形態1の変形例1の携帯端末10について説明する。実施形態1の変形例1の携帯端末10は、推定処理部42の動作が実施形態1の携帯端末10と異なる。
以上のように、実施形態1の変形例1の携帯端末10では、推定処理部42は、表示部11に表示される画像に対する利用者のボトムアップ注意の生じやすさに応じて、第1処理と第2処理とを選択的に行う。具体的には、推定処理部42は、表示部11に表示される画像に対する利用者のボトムアップ注意が生じやすい場合(この例では高誘目画像に該当する場合)に、第1処理を行う。また、推定処理部42は、表示部11に表示される画像に対する利用者のボトムアップ注意が生じにくい場合(この例では低誘目画像に該当する場合)に、第2処理を行う。
次に、実施形態1の変形例2の携帯端末10について説明する。実施形態1の変形例2の携帯端末10は、推定処理部42の動作が実施形態1の携帯端末10と異なる。
以上のように、実施形態1の変形例2の携帯端末10では、第1処理において利用者の状態が注意機能低下状態であると推定されるための条件は、利用者のメインタスクが携帯端末10の操作に該当しない場合のほうが、利用者のメインタスクが携帯端末10の操作に該当する場合よりも厳しい。なお、利用者のメインタスクが携帯端末10の操作に該当しない場合、携帯端末10の表示部11に表示される画像に対する利用者の視線の動きが阻害されやすいので、第1処理における利用者の状態の推定に誤りが生じやすい。したがって、利用者のメインタスクが携帯端末10の操作に該当しない場合に行われる第1処理における条件(利用者の状態が注意機能低下状態であると推定されるための条件)を、利用者のメインタスクが携帯端末10の操作に該当する場合に行われる第1処理における条件よりも厳しくすることにより、第1処理における利用者の状態の推定誤りの発生を低減することができる。これにより、利用者の状態の推定を適切に行うことができる。
実施形態2の携帯端末10は、状態推定部40の構成が実施形態1の携帯端末10と異なる。図23は、実施形態2の状態推定部40の構成を例示する。実施形態2の推定処理部42は、ボトムアップ計測部62と、推定部63と有するが、図8に示したトップダウン計測部61を有さない。なお、実施形態2のボトムアップ計測部62の構成は、図8に示した実施形態1のボトムアップ計測部62の構成と同様である。また、実施形態2の携帯端末10のその他の構成は、実施形態1の携帯端末10の構成と同様である。
次に、図24を参照して、実施形態2における第1処理について説明する。実施形態2の第1処理による利用者の状態の推定は、実施形態1の第1処理による利用者の状態の推定よりも簡易である。
推定部63は、第1ボトムアップ指標値BU1が予め定められた第1ボトムアップ基準値BUR1を上回るか否かを判定する。例えば、第1ボトムアップ基準値BUR1は、利用者のメインタスクが携帯端末10の操作に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第1ボトムアップ指標値BU1が第1ボトムアップ基準値BUR1を上回る場合には、ステップST117の処理が行われ、そうでない場合には、ステップST118の処理が行われる。
第1ボトムアップ指標値BU1が第1ボトムアップ基準値BUR1を上回る場合、推定部63は、利用者の状態が注意機能低下状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てる。
一方、第1ボトムアップ指標値BU1が第1ボトムアップ基準値BUR1を上回らない場合、推定部63は、利用者が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
次に、図25を参照して、実施形態2における第4処理について説明する。実施形態2の第4処理による利用者の状態の推定は、実施形態1の第4処理による利用者の状態の推定よりも簡易である。
推定部63は、第2ボトムアップ指標値BU2が予め定められた第2ボトムアップ基準値BUR2を上回るか否かを判定する。例えば、第2ボトムアップ基準値BUR2は、利用者のメインタスクが歩行に該当する場合の利用者のボトムアップ注意ディマンド量に応じた値に設定される。第2ボトムアップ指標値BU2が第2ボトムアップ基準値BUR2を上回る場合には、ステップST217の処理が行われ、そうでない場合には、ステップST218の処理が行われる。
第2ボトムアップ指標値BU2が第2ボトムアップ基準値BUR2を上回る場合、推定部63は、利用者の状態が注意機能低下状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てる。
一方、第2ボトムアップ指標値BU2が第2ボトムアップ基準値BUR2を上回らない場合、推定部63は、利用者が注意機能低下状態であると推定せずに、利用者の状態が正常状態であると推定する。この例では、推定部63は、注意機能低下状態であることを示すフラグを立てない。
実施形態2に携帯端末10では、実施形態1の携帯端末10の効果と同様の効果を得ることができる。例えば、注意機能低下状態を含む利用者の状態を推定することができる。
以上の説明では、推定処理部42において第1~第6処理が行われる場合を例に挙げたが、これに限定されない。例えば、第1~第6処理のいずれかの処理が省略されてもよいし、第1~第6処理に加えて別の処理が行われてもよい。
11 表示部
12 スピーカ
13 記憶部
21 フロントカメラ
22 リアカメラ
23 操作部
24 通信部
25 マイクロフォン
26 位置センサ
27 状態センサ
28 環境センサ
30 制御装置(状態推定装置)
31 制御部
40 状態推定部
41 視線検出部
42 推定処理部
50 画像取得部
51 メインタスク検出部
52 画像種類検出部
53 時間検出部
54 誤操作検出部
55 歩調検出部
56 ふらつき検出部
61 トップダウン計測部
62 ボトムアップ計測部
63 推定部
611 注目箇所検出部
612 トップダウン指標導出部
621 サリエンシー検出部
622 ボトムアップ指標導出部
Claims (10)
- 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
前記利用者の視線を検出する視線検出部と、
前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
前記推定処理部は、前記利用者のメインタスクが前記携帯端末の操作に該当する場合に前記第1推定処理を行い、前記利用者のメインタスクが前記携帯端末の操作に該当しない場合に前記第1推定処理を行わない
ことを特徴とする状態推定装置。 - 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
前記利用者の視線を検出する視線検出部と、
前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
前記第1推定処理において前記利用者の状態が前記注意機能低下状態であると推定されるための条件は、前記利用者のメインタスクが前記携帯端末の操作に該当しない場合のほうが、前記利用者のメインタスクが前記携帯端末の操作に該当する場合よりも厳しい
ことを特徴とする状態推定装置。 - 請求項1または2において、
前記推定処理部は、
前記第1推定処理において、前記表示部に表示される画像と前記視線検出部により検出される前記利用者の視線とに基づいて、前記画像に対する前記利用者のボトムアップ注意に割り当てられる注意資源の量と相関のあるボトムアップ指標値を計測するボトムアップ計測部と、
前記第1推定処理において、前記ボトムアップ計測部により計測されたボトムアップ指標値に基づいて、前記利用者の状態を推定する推定部とを有する
ことを特徴とする状態推定装置。 - 請求項3において、
前記ボトムアップ計測部は、
前記第1推定処理において、前記表示部に表示される画像におけるサリエンシーの分布を検出するサリエンシー検出部と、
前記第1推定処理において、前記画像におけるサリエンシーの分布に対する前記利用者の視線の動きに基づいて前記ボトムアップ指標値を導出するボトムアップ指標導出部とを有する
ことを特徴とする状態推定装置。 - 請求項3または4において、
前記推定処理部は、前記第1推定処理において、前記表示部に表示される画像と前記視線検出部により検出される前記利用者の視線とに基づいて、前記画像に対する前記利用者のトップダウン注意に割り当てられる注意資源の量と相関のあるトップダウン指標値を計測するトップダウン計測部を有し、
前記推定部は、前記第1推定処理において、前記トップダウン計測部により計測されたトップダウン指標値と前記ボトムアップ計測部により計測されたボトムアップ指標値とに基づいて、前記利用者の状態を推定する
ことを特徴とする状態推定装置。 - 請求項5において、
前記トップダウン計測部は、
前記第1推定処理において、前記表示部に表示される画像における注目箇所を検出する注目箇所検出部と、
前記第1推定処理において、前記画像における注目箇所に対する前記利用者の視線の動きに基づいて前記トップダウン指標値を導出するトップダウン指標導出部とを有する
ことを特徴とする状態推定装置。 - 請求項1~6のいずれか1つにおいて、
前記推定処理部は、前記利用者のメインタスクが歩行に該当する場合に、前記利用者の周囲環境に対する前記利用者の視線の動きに基づいて前記利用者の状態を推定する第2推定処理を行う
ことを特徴とする状態推定装置。 - 請求項1~7のいずれか1つにおいて、
前記推定処理部は、前記表示部に表示される画像に対する前記利用者のボトムアップ注意の生じやすさに応じて、前記第1推定処理と、前記利用者の認知反応時間に基づいて前記利用者の状態を推定する処理とを選択的に行う
ことを特徴とする状態推定装置。 - 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
前記利用者の視線を検出する視線検出部と、
前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
前記推定処理部は、前記利用者のメインタスクが歩行に該当する場合に、前記利用者の周囲環境に対する前記利用者の視線の動きに基づいて前記利用者の状態を推定する第2推定処理を行う
ことを特徴とする状態推定装置。 - 画像を表示する表示部を有する携帯端末の利用者の状態を推定する装置であって、
前記利用者の視線を検出する視線検出部と、
前記表示部に表示される画像に対する前記利用者の視線の動きに基づいて、注意機能低下状態を含む前記利用者の状態を推定する第1推定処理を行う推定処理部とを備え、
前記推定処理部は、前記表示部に表示される画像に対する前記利用者のボトムアップ注意の生じやすさに応じて、前記第1推定処理と、前記利用者の認知反応時間に基づいて前記利用者の状態を推定する処理とを選択的に行う
ことを特徴とする状態推定装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020049973A JP7409184B2 (ja) | 2020-03-19 | 2020-03-19 | 状態推定装置 |
EP21157824.0A EP3882744A1 (en) | 2020-03-19 | 2021-02-18 | State estimation device |
CN202110188140.6A CN113495623A (zh) | 2020-03-19 | 2021-02-18 | 状态推断装置 |
US17/178,277 US20210290129A1 (en) | 2020-03-19 | 2021-02-18 | State estimation device, method and computer program therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020049973A JP7409184B2 (ja) | 2020-03-19 | 2020-03-19 | 状態推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021145974A JP2021145974A (ja) | 2021-09-27 |
JP7409184B2 true JP7409184B2 (ja) | 2024-01-09 |
Family
ID=74668672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020049973A Active JP7409184B2 (ja) | 2020-03-19 | 2020-03-19 | 状態推定装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210290129A1 (ja) |
EP (1) | EP3882744A1 (ja) |
JP (1) | JP7409184B2 (ja) |
CN (1) | CN113495623A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7380365B2 (ja) | 2020-03-19 | 2023-11-15 | マツダ株式会社 | 状態推定装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150323986A1 (en) | 2012-10-14 | 2015-11-12 | Ari M. Frank | Reducing power consumption of a wearable device utilizing eye tracking |
JP2017183787A (ja) | 2016-03-28 | 2017-10-05 | インターマン株式会社 | 危険回避支援プログラム |
WO2017195405A1 (ja) | 2016-05-11 | 2017-11-16 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びに移動体 |
JP2018063489A (ja) | 2016-10-11 | 2018-04-19 | 国立大学法人金沢大学 | 操縦者状態推定装置 |
JP2019530928A (ja) | 2016-09-22 | 2019-10-24 | アップル インコーポレイテッドApple Inc. | グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5160293B2 (ja) * | 2008-04-23 | 2013-03-13 | ソニーモバイルコミュニケーションズ, エービー | 携帯端末、その表示制御方法および表示制御プログラム |
KR101726849B1 (ko) * | 2010-08-06 | 2017-04-13 | 삼성전자주식회사 | 휴대 단말, 휴대 단말을 이용한 위험 감지 장치 및 방법 |
EP2831699A1 (en) * | 2012-03-30 | 2015-02-04 | Sony Mobile Communications AB | Optimizing selection of a media object type in which to present content to a user of a device |
IN2014DN08724A (ja) * | 2012-04-24 | 2015-05-22 | Univ Barcelona | |
KR102281253B1 (ko) * | 2012-10-12 | 2021-07-23 | 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 | 생리학적 신호를 검출하기 위한 전두부 전극 센서의 배열 및 공간적 배치 |
JP2015012496A (ja) * | 2013-06-28 | 2015-01-19 | Kddi株式会社 | 携帯端末、携帯端末制御方法およびコンピュータプログラム |
JP6416598B2 (ja) | 2014-11-27 | 2018-10-31 | 京セラ株式会社 | 携帯端末及び制御方法 |
JP6176229B2 (ja) * | 2014-12-15 | 2017-08-09 | コニカミノルタ株式会社 | 携帯端末およびプログラム |
EP4242817A3 (en) * | 2017-06-29 | 2023-10-25 | Maxell, Ltd. | Portable terminal |
-
2020
- 2020-03-19 JP JP2020049973A patent/JP7409184B2/ja active Active
-
2021
- 2021-02-18 US US17/178,277 patent/US20210290129A1/en active Pending
- 2021-02-18 CN CN202110188140.6A patent/CN113495623A/zh active Pending
- 2021-02-18 EP EP21157824.0A patent/EP3882744A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150323986A1 (en) | 2012-10-14 | 2015-11-12 | Ari M. Frank | Reducing power consumption of a wearable device utilizing eye tracking |
JP2017183787A (ja) | 2016-03-28 | 2017-10-05 | インターマン株式会社 | 危険回避支援プログラム |
WO2017195405A1 (ja) | 2016-05-11 | 2017-11-16 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びに移動体 |
JP2019530928A (ja) | 2016-09-22 | 2019-10-24 | アップル インコーポレイテッドApple Inc. | グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期 |
JP2018063489A (ja) | 2016-10-11 | 2018-04-19 | 国立大学法人金沢大学 | 操縦者状態推定装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210290129A1 (en) | 2021-09-23 |
EP3882744A1 (en) | 2021-09-22 |
CN113495623A (zh) | 2021-10-12 |
JP2021145974A (ja) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220095975A1 (en) | Detection of cognitive state of a driver | |
JP5841538B2 (ja) | 関心度推定装置および関心度推定方法 | |
US9932000B2 (en) | Information notification apparatus and information notification method | |
CN109074748A (zh) | 图像处理设备、图像处理方法和可移动体 | |
US20200265649A1 (en) | Apparatus and method for displaying contents on an augmented reality device | |
JP2005315802A (ja) | ユーザ支援装置 | |
CN112181152A (zh) | 基于mr眼镜的广告推送管理方法、设备及应用 | |
WO2007074842A1 (ja) | 画像処理装置 | |
JP6185968B2 (ja) | 情報処理システム、携帯端末、サーバ装置、情報処理方法及びプログラム | |
Hessels et al. | Task-related gaze control in human crowd navigation | |
JP2012085746A (ja) | 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置 | |
JP7409184B2 (ja) | 状態推定装置 | |
CN112954486B (zh) | 基于视线注意力的车载视频留痕处理方法 | |
JP6320942B2 (ja) | 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法 | |
JP7331728B2 (ja) | 運転者状態推定装置 | |
JP7331729B2 (ja) | 運転者状態推定装置 | |
JP7380365B2 (ja) | 状態推定装置 | |
WO2019221070A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2020024117A (ja) | 情報管理サーバ、情報管理方法、プログラム、情報提示端末及び情報通信システム | |
KR102443195B1 (ko) | 시선 추적 기반 간성 뇌증 진단 방법 및 장치 | |
JP7244011B2 (ja) | 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム | |
KR102327578B1 (ko) | 웨어러블 디바이스를 이용한 객체 및 상황 정보 제공장치 및 방법 | |
JP2023034534A (ja) | 情報収集システム、情報収集方法、および、情報収集プログラム | |
JP2022079950A (ja) | 運転データ記録装置、運転支援システム、運転データ記録方法、およびプログラム | |
CN117530201A (zh) | 可穿戴式头部眼动追踪设备、方法、处理设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7409184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |