JP2024073551A - モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム - Google Patents

モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム Download PDF

Info

Publication number
JP2024073551A
JP2024073551A JP2024039301A JP2024039301A JP2024073551A JP 2024073551 A JP2024073551 A JP 2024073551A JP 2024039301 A JP2024039301 A JP 2024039301A JP 2024039301 A JP2024039301 A JP 2024039301A JP 2024073551 A JP2024073551 A JP 2024073551A
Authority
JP
Japan
Prior art keywords
user
mobile device
task
camera
cognitive state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024039301A
Other languages
English (en)
Inventor
タルナナス、イオアニス
ビューグラー、マクシミリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Altoida,Inc.
Original Assignee
Altoida,Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Altoida,Inc. filed Critical Altoida,Inc.
Publication of JP2024073551A publication Critical patent/JP2024073551A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】認知状態を検出するためのモバイル装置をさらに改善する。
【解決手段】ユーザに情報を与えるためのモバイルデバイス内の出力手段と、ユーザに情報を視覚的に与えるための視覚出力手段と、第1の視野方向に画像を記録するためのカメラとを備えた出力手段と、モバイル装置の位置経路を決定する経路手段と、第2の視野方向の画像を記録するためのカメラと音声信号を記録するためのマイクロフォンと、出力手段を介してユーザと対話して、カメラによって取得された環境が視覚出力手段を介して表示される拡張現実環境を用いて、ユーザにタスクを解決させるタスク手段と、ユーザがタスクを解決する間に、カメラによって記録された画像とマイクロフォンによって記録された音声信号に基づいて、ユーザの特徴を検出するユーザ特徴手段と、決定されたモバイル装置の位置経路とユーザの特徴とに基づいてユーザの認知状態を判定するための認知状態手段と備える。
【選択図】図2

Description

本発明は、モバイル装置のユーザの認知状態を判定するための装置、方法、及びコンピュータプログラムに関する。
認知状態、特に脳疾患又は脳損傷に関する健康状態の検出は、検出するのが困難である。それぞれの脳の病気や脳の損傷の症状を知っている専門の医師が必要である。その場合でも、人間の医師によるそのような健康状態の検出は、あまり客観的ではなく、しばしば誤りが起こりやすい。
近年、位置センサを備えたモバイル装置で、ユーザが保持しているモバイル装置の経路に基づいて健康状態を検出できることが示めされた。これは、驚くほど良好に機能し、ユーザの認知状態を客観的に検出することができた。
本発明の目的は、認知状態を検出するためのモバイル装置をさらに改善することである。
この目的は、独立請求項による装置、方法、及びコンピュータプログラムによって解決される。
モバイル装置の経路と組み合わせて、モバイル装置の第2のカメラで記録されたユーザ特徴を用いることで、認知状態の検出の質を大幅に改善する。
本発明の課題は、さらに、ユーザの認知状態を判定するための機械学習データを決定するための装置によって解決される。本装置は、ユーザに情報を与えるための出力手段をモバイル装置に設け、出力手段は、ユーザに情報を視覚的に与えるための視覚出力手段を備える。装置は、モバイル装置の周囲の第1視点方向の画像を記録するために、モバイル装置内にカメラを備える。装置は、周囲におけるモバイル装置の位置経路を決定するように構成された経路手段を備える。装置は、出力手段を介してユーザと対話して、カメラによって取得されたモバイル装置の環境に基づいて、視覚出力手段を介して表示される拡張現実環境を用いて、ユーザにタスクを解決させるタスク手段を備える。装置は、第2の視野方向に画像を記録するために、モバイル装置内に、更なるカメラ、及び/又は、音声信号を記録するためのマイクロフォンを備える。ユーザがタスクを解決する間に更なるカメラによって記録された画像において、及び/又は、ユーザがタスクを解決する間にマイクロフォンによって記録された音声信号において、ユーザの少なくとも1つの特徴を検出及び/又は追跡するためのユーザ特徴手段を備える。ユーザがタスクを解決する間に決定されたモバイル装置の位置経路とユーザの少なくとも1つの特徴とに基づいて、入力を準備するための入力準備手段を備える。装置は、多数の(好ましくは異なる)ユーザの各々に対してユーザ・データ・セットを受信するように構成された機械学習データ手段をさらに備える。ユーザのユーザ・データ・セットは、ユーザの認知状態と、入力準備手段で作成された入力とを備える。機械学習データ手段は、さらに、多数のユーザのためのユーザ・データ・セットに基づいて、ユーザの入力における認知状態を判定するための機械学習データを決定するように構成される。
本発明の課題は、ユーザの認知状態を判定するための機械学習データを決定する方法によってさらに解決される。本方法は、以下のステップ、複数のユーザについてユーザ・データ・セットを決定するステップと、ユーザのユーザ・データ・セットに基づいて機械学習データを決定するステップとを含む。各ユーザのユーザ・データ・セットは、ユーザの認知状態と入力データから構成される。入力データは、以下のステップによって決定される。モバイル装置がモバイル装置の出力手段を介してユーザと対話して、拡張現実環境を用いてタスクをユーザに解決させ、ここで、拡張現実環境は出力手段の視覚出力手段を介して表示され、モバイル装置のカメラによって取得されたモバイル装置の周囲(環境)に基づくものであり、カメラはモバイル装置の周囲の第1の視野方向の画像を記録するようにモバイル装置内に配置され、ユーザがモバイル装置でタスクを解決している間に、モバイル装置によって実行される位置経路を決定し、ユーザがモバイル装置でタスクを解決している間に、モバイル装置の更なるカメラで画像を記録し、ここで、ユーザがモバイル装置でタスクを解決している間に、第2の視野方向の画像を記録するためにモバイル装置内に更なるカメラが配置され、及び/又はモバイル装置のマイクロフォンで音声信号を記録し、ユーザがモバイル装置でタスクを解決している間に、記録された画像及び/又は音声信号に基づいて、少なくとも1つのユーザ特徴を時間の経過にそって決定し、モバイル装置の決定された位置経路と、時間の経過にそって決定された少なくとも1つのユーザ特徴とに基づいて、ユーザの入力データを決定する。
一実施形態では、本発明の課題は、装置/システムのモバイル装置のユーザの認知状態を判定するための装置/システムによって解決される。この装置/システムは、モバイル装置内にあるユーザに情報を提供するための出力手段であって、ユーザに情報を視覚的に与えるための出力手段である視覚出力手段と、モバイル装置内にあるモバイル装置の周囲の第1の視野方向の画像を記録するためのカメラと、周囲のモバイル装置の位置経路を決定するように構成された経路手段と、出力手段を介してユーザと対話して、カメラによって取得されたモバイル装置の周囲に基づいて、視覚出力手段を介して表示された拡張現実環境を用いて、ユーザにタスクを解決させるタスク手段と、ユーザがタスクを解決する間に決定されたモバイル装置の位置経路に基づいてユーザの認知状態を判定するための認知状態手段と、を備える。
従属請求項は、本発明の更なる有利な実施形態を示す。
一実施形態では、少なくとも1つのユーザ特徴が少なくとも1つのユーザの顔特徴を含む。ユーザの顔の特徴は、第2のカメラによって取得された画像において検出されたユーザの特徴の中からが特に有効である。
一実施形態では更なるカメラが、ユーザがタスクを解決する間に連続した画像を撮るように構成され、ユーザ特徴手段は、連続した画像内のユーザの少なくとも1つの特徴を検出し、連続した画像内で検出された少なくとも1つの特徴の時系列を決定するように構成され、認知状態手段は、さらにユーザの少なくとも1つの特徴の時系列に基づいて、ユーザの認知状態を判定するように構成される。
一実施形態では、サンプリング・ウィンドウが時間の経過にそった複数のサンプリングステップを含み、経路手段はモバイル装置の各サンプリングステップにおける少なくとも1つの位置を記録するように構成され、更なるカメラは各サンプリングステップにおいて少なくとも1つの画像を記録するように構成され、ユーザ特徴手段は、各サンプリングステップごとに、サンプリングステップにおいて更なるカメラによって記録された少なくとも1つの画像におけるユーザの少なくとも1つの特徴を検出するように構成され、認知状態手段は、サンプリングステップ毎に、このサンプリングステップにおいて検出されたユーザの少なくとも1つの特徴に基づいて、各サンプリングステップごとにサンプリングポイントを含むサンプリング・ウィンドウ内の時系列と、このサンプリングステップにおいて決定されたモバイル装置の少なくとも1つの位置とに基づいて、ユーザの認知状態を判定するように構成される。
一実施形態では、サンプリング・ウィンドウが、モバイル装置が閾値よりも少なくとも1つの目標位置の近くにある時間ウィンドウに対応し、及び/又は少なくとも1つの目標位置が発見されたと見做される前のある期間又は経路長に対応する。好ましくは、サンプリング・ウィンドウが複数のサブウィンドウを含み、各サブウィンドウは(ただ1つの)定義された目標位置に対応し、各サブウィンドウは、モバイル装置が閾値よりも各サブウィンドウに対応する目標位置の近くに位置する時間ウィンドウに対応し、及び/又は、各サブウィンドウに対応する目標位置が発見されたと見做される前のある期間又は経路長に対応する。目標位置からの閾値距離は、好ましくは5メートル(m)未満、好ましくは4m未満、好ましくは3m未満である。目標位置からの距離の閾値は、好ましくは0.5メートル(m)より大きく、好ましくは1mより大きい。
一実施形態では、視覚出力手段は、モバイル装置の第1の側に配置されたディスプレイを備え、更なるカメラは、モバイル装置の第1の側に配置され、及び/又は、第2の視野方向がディスプレイの面の法線ベクトルと同じ方向に向いて配置される。
一実施形態では、カメラは、第1の側面に対向するモバイル装置の第2の側面上に配置され、及び/又は、第1の視野方向がディスプレイの面の法線ベクトルに対して反対の方向に向けて配置される。
一実施形態では、モバイル装置は、ポータブルハンドヘルド装置である。
一実施形態では、タスク手段が、拡張現実環境内の少なくとも1つの目標位置を定義し、少なくとも1つの目標位置の各々に対して以下のステップを実行するように構成される。拡張現実環境内の各目標位置を探すようにユーザを招待し、ユーザが、カメラによって取得された少なくとも1つの目標位置が所定の条件で視覚出力手段に表示された拡張現実環境内の位置にモバイル装置を移動させたときに、各目標位置が拡張現実環境で発見されたと見做される。
一実施形態では、タスク手段が、モバイル装置のユーザ入力に基づいて、拡張現実環境における少なくとも1つの目標位置を定義するように構成される。
一実施形態では、少なくとも1つの目標位置が少なくとも2つの目標位置を含み、タスク手段は、それぞれの目標位置が拡張現実環境において定義され及び/又は表示されるときに、出力手段によって少なくとも2つの目標位置の各々をユーザに出力される異なる特徴に関連付けるように構成され、出力手段で1つの目標位置に関連付けられた特徴を出力することによって、ユーザは拡張現実環境における少なくとも2つの目標位置のうちの1つを探すように招待されて、及び/又は、少なくとも2つの目標位置のうちの1つが発見されたと見做された後に、ユーザが少なくとも2つの目標位置のうちの次の1つを探すように続いて招待される。
一実施形態では、タスク手段は、タスクを解決している間、及び/又は少なくとも1つの目標位置のそれぞれを探している間に、ユーザの注意をそらすための複数の刺激を出力手段を介して与えるように構成される。
一実施形態では、タスク手段は、タスクを解決する前であって、及び/又は、探すために招待された各目標位置の探索を続行する前に、各刺激の後にサブタスクを解決するようにユーザに要求するように構成される。
一実施形態では、ユーザ入力手段を備え、タスク手段はユーザ入力手段を介して特定のユーザ入力を受け付けると、サブタスクが解決されたと見做されるように構成される。
一実施形態では、認知状態が少なくとも1つの脳疾患又は脳損傷に関する健康状態である。
本発明は、例示であって、図面によって示される実施形態の説明を用いることで、より良く理解されるであろう。
ユーザの認知状態を判定するための装置の一実施形態の概略図を示す。 ユーザの認知状態を判定するための方法の実施形態の概略図を示す 機械学習データを決定する装置の一実施形態の概略図を示す。
図1は、ユーザの認知状態を判定するための装置1の実施形態を示す。装置1は、モバイル装置2と、モバイル装置2内の第1のカメラ3と、モバイル装置2内の第2のカメラ4と、モバイル装置2内の出力手段5と、経路手段6と、タスク手段7と、ユーザ特徴手段8と、認知状態手段9とを備え、好ましくはユーザ入力手段10と、マイクロフォン13とを設ける。
モバイル装置2は、好ましくはスマートフォンのようなハンドヘルドポータブル装置である。しかしながら、モバイル装置2は、ユーザが携帯可能な他の任意の装置であってもよい。例えば、装置は着用可能な装置、例えば、スマートウォッチのような(スマート)ブレスレット、グーグルメガネ(登録商標)のような(スマート)メガネ、又はユーザによって着用可能な他の任意の装置であってもよい。モバイル装置2は、1つの単一の装置で実現されてもよく、又は少なくとも2つの別個の装置で実現されてもよい。少なくとも2つの個々の装置は、例えば、ポータブルハンドヘルド装置(例えば、スマートフォン)、ブレスレット(例えば、スマートウォッチのようなスマートブレスレット)、眼鏡(例えば、拡張現実(AR)眼鏡)、又はユーザによって装着可能な他の任意の装置のうちの少なくとも2つにしてもよい。モバイル装置2、特にハンドヘルドポータブル装置は、第1の側面と、第1の側面とは反対側の第2の側面とを備える。モバイル装置2が少なくとも2つの別個の装置を備える場合、同じ別個の装置上の第1の側面とその反対側の第2の側面とに配置される。しかしながら、第1の側面が第1の別個の装置上にあり、第2の側面が第2の別個の装置上にあるようにしてもよい。
装置1は、モバイル装置2から離れたところで計算処理を実現するために、別の装置11を設けることができる。別の装置11はデータ及び/又は結果をやりとりするために、モバイル装置2に接続するようにしてもよい。モバイル装置2と別の装置11との間の接続はインターネットを介することが好ましいが、無線LAN、携帯電話ネットワーク、他の無線通信プロトコル及び/又は他の通信技術を介してもよい。別の装置11は、例えば、サーバであり、インターネット接続サーバが好ましく、及び/又はモバイル装置2からリモート接続が好ましい。しかしながら、別の装置11は、モバイル装置2の環境に配置され、及び/又は、例えば、無線LAN及び/又はLAN及び/又は他の無線通信プロトコルを介して接続されることも可能である。しかしながら、全ての計算処理がモバイル装置2において行われる場合は、別の装置11はオプションであって必ずしも必要ではない。この場合、装置1が、モバイル装置2に対応する。
出力手段5は、モバイル装置2のユーザに対して出力するように構成されている。
出力手段5は、好ましくはモバイル装置2のユーザに視覚情報を示すための視覚出力手段5を備える。視覚出力手段5は、ディスプレイが好ましい。視覚出力手段5.1、特にディスプレイは、好ましくはモバイル装置2、特にモバイル装置の第2の側面に配置される。しかしながら、プロジェクタ(例えば、眼鏡のアイプロジェクタ)のような他の視覚出力手段5.1も可能である。視覚出力手段5.1は、ユーザが視覚出力手段5.1からの情報を出力視野方向から見ることができるようにモバイル装置2内に配置され、すなわち、ユーザが視覚出力手段5.1の方向に向くと、ユーザは、視覚出力手段5.1からの情報を見ることができる。
一実施形態では、出力手段5が、ユーザに知らせるためのラウドスピーカのような音声出力手段5.2をさらに備える。
入力手段10は、ユーザ指示をモバイル装置2に入力するように構成されている。入力手段10は、好ましくはモバイル装置2内に配置される。好ましくは、入力手段10が視覚出力手段5.1上の位置を選択するための指示手段を含む。指示手段は、好ましくはモバイル装置2のディスプレイ上に配置されるタッチセンサである。つまり、ディスプレイとタッチセンサが、タッチスクリーンを構成する。しかしながら、指示手段は、マウス、トラックボール、ノブ、又は他の指示装置であってもよい。指示手段は、また、AR内の位置を示す手又は目の向き認識するものであってもよい。しかしながら、入力手段10はマイクロフォン(例えば、ボイスコマンド用)又は他の任意の入力装置を含むこともできる。なお、入力手段10のマイクロフォンは、後述するマイクロフォン13に相当する。入力手段10を設けることが好ましいが、必ずしも必要ではない。
第1のカメラ3及び/又は第2のカメラ4は、周囲、好ましくはユーザが目で視認できる周囲にある特徴がある画像を記録するために、任意の適切なセンサであってもよい。好ましくは、第1のカメラ3及び/又は第2のカメラ4がユーザから見える環境を写した画像を記録するための光学カメラである。しかしながら、第1のカメラ3及び/又は第2のカメラ4は、他の任意のカメラ、例えば、3Dカメラ、time-of-flight(ToF)カメラ、又は可視スペクトル以外の波長をカバーする光学カメラ(例えば、赤外線カメラ又は紫外線カメラ)などであってもよい。好ましくは、第1のカメラ3及び/又は第2のカメラ4は、デジタル画像センサ及び/又は(光学)レンズ(画像をデジタル画像センサ上に焦点を合わせるため)を備えたものである。
第1のカメラ3は、モバイル装置2内に配置され、モバイル装置2の環境(周囲)の第1の視野方向3.1の画像が記録されるように配置され、及び/又は、第1のカメラ3の画像をARの目的のために視覚出力手段5.1上に表示することができるように配置され、及び/又は、ユーザが視覚出力手段5.1の視覚情報を確認するために視覚出力手段5.1を見たときに、第1のカメラ3が現在記録している画像が視覚出力手段5.1上に表示されると、ユーザが視覚出力手段5.1の背後の環境の画像が視覚出力手段5.1上で見えるように配置される。このモバイル装置2の環境が第1のカメラ3によって取得され、視覚出力手段5.1によって(リアルタイムで)再生されると、これがAR環境として定義される。このAR環境は、他の情報によって拡張されてもよいが、拡張されなくてもよい。したがって、拡張された情報でデジタル化された環境に限定されるものではない。
タスク手段7は、モバイル装置2のユーザと対話して(モバイル装置2を介して)、ユーザはモバイル装置2の周囲でモバイル装置2を移動させるように構成される。好ましくは、タスク手段7はモバイル装置2のユーザと対話して(モバイル装置2を介して)、ユーザにモバイル装置2を持ってモバイル装置2の周囲を歩かせるように構成される。タスク手段7は、ユーザに、モバイル装置2を持ってモバイル装置2の周囲を移動させる(特に、歩行する)タスクを与えることによって、モバイル装置2のユーザと対話(モバイル装置2を介して)するように構成される。一実施形態では、タスク手段7がユーザにタスクを解決させるために、及び/又はユーザにモバイル装置2をその環境内で移動させる(特に一緒に歩行する)ために、モバイル装置2のAR環境を用いるように構成される。
一実施形態では、このタスクは、(AR)環境内の少なくとも1つの定義された目標位置を探索又は発見することである。好ましくは、タスクは、ユーザがAR環境において少なくとも1つの定義された目標位置を探すために、モバイル装置2を移動させる(特に、モバイル装置2と一緒に歩行する)必要がある。言い換えれば、ユーザは環境内のモバイル装置2を環境内の少なくとも1つの定義された目標位置に移動させ(特に、一緒に歩行する)、第1のカメラ3を少なくとも1つの定義された目標位置の方に向ける(その結果、定義された目標位置が視覚出力手段5.1上に現れる)必要がある。少なくとも1つの定義された目標位置のうちの1つが視覚出力手段5.1上に(おそらく少なくとも1つの条件で)現れ、及び/又はAR環境上に(おそらく少なくとも1つの条件で)現れると、1つの定義された目標位置が発見されたと見做される。少なくとも1つの条件は、例えば、モバイル装置2及び/又は第1のカメラ3が閾値よりも定義された目標位置に近いこと、及び/又は、定義された目標位置が第1のカメラ3の所定の角度の視野範囲において記録されること、及び/又は、定義された目標位置の現在記録されている画像が目標位置を定義したときに記録された画像に対応することである。定義された目標位置が発見されたかどうかをチェックするために、多くの他の条件を設定することが可能である。少なくとも1つの定義された目標位置が、第1の定義された目標位置と第2の定義された目標位置を含む場合には、タスク手段7は、ユーザに第1の定義された目標位置を探させるために、モバイル装置2のユーザと対話するように構成される。ユーザが第1の定義された目標位置を発見すると、タスク手段7は、ユーザに第2の定義された目標位置を探させるようにモバイル装置2のユーザと対話するように構成される。したがって、タスク手段7は、ユーザが続いて少なくとも2つの定義された目標位置の各々を探させるように、モバイル装置2のユーザと対話するように構成される。少なくとも1つ以上定義された目標位置のうちの全てが発見されると、タスクは解決されたと見做される。
好ましくは、ユーザが少なくとも1つの目標位置を記憶できるように、少なくとも1つの定義された目標位置の各々は、AR環境内でユーザに表示され、及び/又は、AR環境内でユーザよって定義される。ユーザが少なくとも1つの目標位置(の全て)を記憶した後、ユーザは少なくとも1つの定義された目標位置(の全て)を、次々と探すように招待されるのが好ましい。したがって、第1のフェーズでは、少なくとも1つの定義された目標位置(の全て)がユーザに表示されるか、又はユーザによって定義され、第2のフェーズでは第1のフェーズの後に、少なくとも1つの定義された目標位置の全てが上述のように発見される。
好ましくは、少なくとも1つの定義された目標位置の各々は、ユーザが少なくとも1つの目標位置を記憶することができるように、AR環境においてユーザに表示される。これは、同時に行っても、続いて行ってもよい。ユーザが、少なくとも1つの定義された目標位置の全てを見て、及び/又はそれらを記憶した後、ユーザは、少なくとも1つの定義された目標位置の全てを、好ましくは次々と探すように招待される。したがって、第1のフェーズでは少なくとも1つの定義された目標位置(の全て)がユーザに表示され、第1のフェーズの後に続く第2のフェーズでは、少なくとも1つの定義された目標位置の全てが上述のように発見される。好ましくは、ユーザが対応する定義された目標位置と視覚化オブジェクトとが関連付けることができるように、少なくとも1つの定義された目標位置の各々が、(第1のフェーズにおいて)AR環境で定義された目標位置とユーザに表示された視覚化オブジェクトとが対応付けられる。好ましくは、第2のフェーズにおいて、少なくとも1つの定義された目標位置のうちのこの1つに対応付けられた視覚化オブジェクトを、視覚出力手段5.1上に表示するか、あるいは、出力手段5を介して指示することによって、ユーザは少なくとも1つの定義された目標位置のうちの1つを探すように招待される。好ましくは、第2のフェーズでは、ユーザは対応する定義された目標位置を記憶し、ユーザのモバイル装置2でそれを捜す必要があるように、指示がなくとも、視覚化オブジェクトに対応する定義された目標位置が表示される。好ましくは、タスク手段7は、環境に依存しないように構成され、すなわち、ユーザは現在いる任意の環境においてタスクを実行することができる。タスクを実行するために特別な環境は必要ではない。
少なくとも1つの目標位置が、好ましくは第1フェーズにおいて、入力手段10を介してユーザによって定義されるのが好ましい。少なくとも1つの目標位置が、ユーザからの指示手段を介して、AR環境における目標位置の指示を受信することによって、ユーザによって定義されるのが好ましい。しかしながら、モバイル装置2は、少なくとも1つの目標位置を定義する他の任意の入力を、入力手段10を介して受信するようにしてもよい。例えば、目標位置は、入力手段10を介してユーザの入力を受信すると、視覚出力手段5.1に現在表示されているAR環境内に、タスク手段7によって(例えば、ランダムに)定義することができる。少なくとも1つの目標位置の各々がユーザによって定義されたときは、例えば、AR環境内の関連する視覚化装置に表示されることで、ユーザに示されるのが好ましい。
タスク手段7は、ユーザがタスクを解決している間に、特に、ユーザが少なくとも1つの定義された目標位置の各々を探している間に、ユーザにサブタスクを解決させるために、携帯電話2を介してユーザと対話するように構成するのが好ましい。タスク手段7は、ユーザがタスクを解決している間、特に、ユーザが少なくとも1つの定義された目標位置の各々を探している間に、平均で、少なくとも10秒、好ましくは少なくとも8秒毎、好ましくは少なくとも5秒毎、好ましくは少なくとも3秒毎、好ましくは少なくとも2秒毎にサブタスクを解決するように、ユーザを招待するように構成されることが好ましい。サブタスクへの招待は、定期的に又はランダムに行うことができる。サブタスクは、ユーザがタスクを解決することから注意をそらす必要がある。好ましくは、サブタスクは、モバイル装置2のタッチスクリーンを触りながら対話を行う。サブタスクの一例として、タスク手段7がサブタスクを解決するようにユーザを招待したときに、モバイル装置2のボタンをアクティブにすることであってもよい。好ましくは、ボタンは、視覚出力手段5.1に表示されるソフトボタンである。好ましくは、ユーザが入力手段10の指示手段で、視覚出力手段5.2上に表示されるソフトボタンを指すと、サブタスクが解決される。これは、ユーザが(AR)環境からボタンに焦点を移して、指示手段によってボタンをアクティブにしなければならないので、タスクからユーザの注意をそらすことになる。ボタンをアクティブにするサブタスクは、単なる一例である。また、ユーザは、入力手段10のマイクロフォンによって録音されたボイスコマンドを言うようにしてもよい。サブタスクを解決するための招待は例えば、音声出力手段5.2を介して出力される音声信号によるものであってもよい。しかしながら、(例えば、モバイル装置2の振動による)触覚信号のような他の招待も可能である。タスクがユーザを環境内でモバイル装置2を移動(特に一緒に歩行する)させ、一方、サブタスクが、ユーザをタスクから、つまりユーザが行っている移動から注意をそらすので、タスクとサブタスクとの組み合わせは特に有効である。この動きと注意をそらすようにすることとの組み合わせは、ユーザの認知状態を分析するために後で分析される。
タスク手段7は、好ましくはモバイル装置2内に配置される。しかしながら、タスク手段7’を完全に又は部分的にモバイル装置2の外に、例えば別の装置11に配置することもできる。
経路手段6は、タスクの少なくとも一部が解決される間に、モバイル装置2の経路、特にモバイル装置2がたどる経路を決定するように構成される。経路は、(位置サンプリング・ウィンドウ内の)連続した位置ポイントである。位置ポイントは、モバイル装置2の1次元、2次元、又は好ましくは3次元の位置、及び/又は1次元、2次元、又は好ましくは3次元の向きを含む。したがって、位置ポイントは、1次元から6次元の間の次元とすることができる。好ましくは、位置ポイントは少なくとも3次元の位置を含む。位置、すなわち、位置及び/又は向きは、絶対値、つまり予め決まった位置から測定することも、又は、相対値、つまり決まっていない位置(例えば、各時点でそれぞれ測定された最初の位置ポイント又は1つ前の位置ポイント)から測定することも可能である。相対位置は、また、加速度計又はジャイロスコープにおいて通常行われるように、最後に測定されたサンプリング/位置又は慣性の加速ポイント(並進又は回転に関する)に対する位置の偏向から得る。
経路手段6は、位置センサ6.1を備えることが好ましい。位置センサ6.1は、モバイル装置2の位置ポイントを測定するように構成される。位置センサ6.1は、好ましくは位置サンプリング・ウィンドウ内の連続した位置ポイントを測定するように構成される。位置サンプリング・ウィンドウは、タスクの少なくとも一部を解決するときの時間ウィンドウに対応する。位置サンプリング・ウィンドウ内で位置ポイントが記録された時点を、位置サンプリングポイントと呼ぶ。位置サンプリングポイントは、位置サンプリング周期を用いて測定する、及び/又は一定の位置サンプリングステップを用いて周期的に測定することができる。したがって、位置ポイントは、位置サンプリングポイントにおけるモバイル装置2の位置を与える。好ましくは、位置センサ6.1は、モバイル装置2の位置の変化を検出するための慣性測定ユニット(IMU)である。位置センサ6.1及び/又はIMUは、好ましくは加速度計(モバイル装置2の位置変化を測定するため)及び/又はジャイロスコープ(モバイル装置2の方向変化を測定するため)を含む。IMU測定値は、位置サンプルポイントに変換することも、又はIMUによって測定された増分加速ポイントとして直接用いることができる。好ましくは、位置センサ6.1及び/又はIMUが(地球の磁場に基づいて)モバイル装置2のアブソリュート・オリエンテーションを検出するための磁力計を備える。しかしながら、位置センサ6.1は、位置を検出するために他の手段を追加しても、又は他の手段を代わりに用いることもできる。例えば、三角測量センサなどである。三角測量センサは、衛星(例えば、GPS)又は携帯電話基地局から送られてくる様々な信号に基づいて、位置を測定することができる。さらに、第1のカメラ3によって、位置センサ6.1を実現することも可能である。好ましくは、位置ポイントを、IMUと第1のカメラ3との組み合わせによって決定する。位置センサ6.1は、モバイル装置2内に配置されるのが好ましい。しかし、位置センサ6.1′の全て又は一部を、モバイル装置2の外部に配置することも可能であり、例えば、モバイル装置2から送信される信号に基づいて位置を検出するセンサであってもよい。
経路手段6は、好ましくは経路装置を含む。経路手段6.2は、位置センサ6.1の測定値に基づいて経路を決定するように構成される。好ましくは、経路手段6.2がモバイル装置2内に配置される。経路手段6.2は、専用チップ(例えば、位置センサ6.1)及び/又は中央処理装置(CPU)及び/又はモバイル装置2内の他の任意の処理ユニットで実現することができる。しかしながら、経路手段6.2を全て又は一部がモバイル装置2の外部に、例えばサーバ11又は位置センサ6.1’と同じ装置に配置することもできる。
モバイル装置2は、第2のカメラ4及び/又はマイクロフォン13を備える。
第2のカメラ4は、第2視野方向4.1の画像が記録されるように第2視野方向4.1に向いている。第2の視野方向4.1及び/又は第2のカメラ4の向きは、第2の視野方向4.1又は第1の視野方向3.1の反対(好ましくは、平行)の方向であり、及び/又は、視覚出力手段の出力視野方向12と同じ方向になるようにする、及び/又は、第2のカメラ4によって記録された画像が、ユーザが視覚出力手段5.1を覗き込むと、ユーザがいる方向、特にユーザの顔がある方向に向くようになっている。すなわち、第2のカメラ4は、ユーザを視覚出力手段5.1から出力された映像を見ている位置にいるユーザを撮影する。第2のカメラ4は、ユーザがモバイル装置2によってタスク(の少なくとも一部)を解決している間に、ユーザを画像に記録するように構成される。第2のカメラ4は、画像サンプリング・ウィンドウ内の連続した画像を測定するように構成されるのが好ましい。画像サンプリング・ウィンドウは、タスク(の少なくとも一部)が解決されるときの時間ウィンドウに対応する。画像が画像サンプリング・ウィンドウに記録された時点を、画像サンプリングポイントと呼ぶ。画像サンプリングポイントは、画像サンプリング周期で測定する、及び/又は、2つの連続した画像サンプリングポイントの間の一定の画像サンプリングステップで周期的に測定することができる。つまり、画像は、画像サンプリングポイントにおけるモバイル装置2の画像を与える。
マイクロフォン13は、モバイル装置2の環境の音声信号を記録するように構成されている。ユーザがモバイル装置2でタスク(の少なくとも一部)を解決する間に、マイクロフォン13はユーザの音声信号を記録するように構成される。マイクロフォン13は、好ましくはオーディオ・サンプリング・ウィンドウ内の連続したオーディオポイントを測定するように構成される。オーディオ・サンプリング・ウィンドウは、タスク(の少なくとも一部)が解決されるときの時間ウィンドウに対応する。オーディオ・サンプリング・ウィンドウ内でオーディオポイントが記録された時点を、オーディオ・サンプリング・ポイントと呼ぶ。オーディオ・サンプリング・ポイントは、オーディオサンプリング周期で測定する、及び/又は、2つの連続したオーディオ・サンプリング・ポイント間の一定のオーディオサンプリングステップを用いて周期的に測定することができる。つまり、オーディオポイントは、オーディオ・サンプリング・ポイントにおけるモバイル装置2の周囲の音を表す。
位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ及び/又は音声サンプリング・ウィンドウは、同一の時間ウィンドウが好ましいが、及び/又は部分的(だけ)に重なる時間ウィンドウであってもよい。しかし、あまり好ましくはない実施であるが、位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又はオーディオ・サンプリング・ウィンドウが重ならない、すなわち、異なる時間ウィンドウで測定されたものでもよい。位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又は音声サンプリング・ウィンドウは、途切れることがない時間ウィンドウに対応するのが好ましい。しかしながら、サンプリングが中断された時間ウィンドウを用いることもできる。位置サンプリング周期、画像サンプリング周期、及び/又は音声サンプリング周期は、同じであっても、異なっていてもよい。位置サンプリングポイント、画像サンプリングポイント、及び/又は音声サンプリングポイントは、同時であってもよいし、異なる時点であってもよい。位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又はオーディオ・サンプリング・ウィンドウは、定義された閾値よりも、ユーザ/モバイル装置2が少なくとも1つの定義された目標位置に近い時間ウィンドウに対応するか、及び/又は、ユーザが少なくとも1つの目標位置の各々を発見する前の所定の期間又は経路長に対応する時間ウィンドウに、対応することが好ましい。タスクが、複数の定義された目標位置を含む場合は、位置サンプリング・ウィンドウ、画像サンプリング・ウィンドウ、及び/又はオーディオ・サンプリング・ウィンドウは、定義された目標位置のうちの1つにそれぞれ対応する連続するサブ時間ウィンドウに対応するのが好ましく、すなわち、各サブ時間ウィンドウは、定義された閾値よりも、ユーザ/モバイル装置2がこのサブ時間ウィンドウに対応する定義された目標位置に近い時間ウィンドウに対応するか、及び/又はユーザがサブ時間ウィンドウに対応する目標位置を発見する前のある期間又は経路長に対応する時間ウィンドウに対応する。
ユーザ特徴手段8は、ユーザがタスクを解決する間に、マイクロフォン13によって録音された音声信号、及び/又は、ユーザがタスクを解決する間に、更なるカメラ4によって記録された画像に基づいて、少なくとも1つのユーザ特徴を決定するように構成される。
更なるカメラ4によって記録された画像に基づいて決定された少なくとも1つのユーザ特徴は、少なくとも1つのユーザの顔特徴であることが好ましい。したがって、ユーザ特徴手段8は、ユーザがタスクを解決する間に、記録された画像の少なくともいくつかの各々からユーザの顔を検出し、画像から検出された顔から少なくとも1つの顔特徴を検出するように構成される。顔の特徴の例として、瞳孔拡張、口形、目が開いている状態、眉の状態、視野方向などとすることができる。なお、記録された画像から他のユーザ特徴を検出することも可能である。第2のカメラ4によって記録された画像に基づいて決定された少なくとも1つのユーザ特徴は、ユーザの少なくとも1つの視認可能な特徴の動き、好ましくはユーザの少なくとも1つの顔特徴の動きであることが好ましい。したがって、ユーザ特徴手段8は、ユーザがタスクを解決する間に、記録された画像の少なくともいくつかについて、各々から身体、特にユーザの顔を検出し、検出された画像の顔から少なくとも1つの身体又は顔の特徴の動きを検出するように構成される。より好ましい実施形態では、瞳孔拡張が、第2のカメラ4によって記録された画像から抽出されたユーザ特徴として用いられる。タスクを解くときのユーザの瞳孔の大きさは、ユーザがタスクを解決するときに第2のカメラ4で撮影された画像から抽出される(ユーザがタスクを解決するときに、サンプルウィンドウの間に瞳孔の大きさが時系列で得られることになる)。瞳孔サイズは、片眼の瞳孔サイズ(1次元)、両眼の瞳孔サイズ(2次元)、両眼の瞳孔サイズの組み合わせ(1次元)、又は、ユーザの片眼又は両眼の瞳孔サイズから導出される他の計測値で構成することができる。瞳孔サイズは、ユーザの瞳孔サイズを基準として正規化することができる。瞳孔サイズの基準値は、例えば、ユーザの瞳孔サイズの平均、例えば、タスクがユーザに対して認知要求をしていない期間の瞳孔サイズの平均とすることができる。正規化された瞳孔サイズ及び/又は正規化された瞳孔サイズの変化が、例えば、瞳孔拡張のユーザ特徴として用いられ得る。
マイクロフォンによって記録された音声信号に基づいて決定される少なくとも1つのユーザ特徴は、好ましくはユーザの口又は鼻で生成される音である。これは、例えば、ユーザの会話(発話)から抽出された特徴であってもよい。例えば、タスクがユーザに話をさせることがある。他の例では、例えば、息であってもよい。しかしながら、記録された音声信号から他のユーザ特徴を検出することも可能である。より好ましい実施形態では、発話の規則性をユーザ特徴として用いる。発話の規則性は、以下の発話パラメータの1つ又は組み合わせを評価することによって評価することができる。発話パラメータは、発話の音の振幅又はパワー(特定の周期、又は、全ての周期について)、発話の速度、単語間の休止、イントネーションなどである。次に、発話パラメータを正規化して、ユーザの基準発話パラメータとする。基準発話パラメータは、例えば、タスクがユーザに対して認知を要求していない期間の平均発話パラメータなどを、ユーザの平均発話パラメータとすることができる。正規化された発話パラメータの1つ又は組み合わせ、又は正規化された発話パラメータの変動/変動の1つ又は組み合わせを、ユーザ特徴として用いることができる。
少なくとも1つのユーザ特徴は、画像又はマイクロフォンに基づいて、又はその両方に基づいて決定することができる。より好ましい実施形態では、少なくとも1つのユーザ特徴が、両方か、画像に基づいた少なく一つのユーザ特徴を少なくとも含んで決定される。より好ましい実施形態では、ユーザの特徴が、ユーザがタスクを解決している間に撮影された第2のカメラ4の画像から抽出された瞳孔拡張と、ユーザがタスクを解決している間にマイクロフォン5によって記録された音声信号から抽出された発話の規則性との組み合わせである。この組み合わされたユーザ特徴は、例えば、瞳孔拡張に関連する1次元以上と、発話の規則性に関連する1次元以上とを含む2次元以上の複数次元ベクトルとすることができる。
一実施形態では、ユーザ特徴手段8は、ユーザがタスクを解決する間に、モバイル装置2の位置経路に基づいて、さらに少なくとも1つのユーザ特徴を決定するように構成される。好ましくは、少なくとも1つのユーザ特徴には、少なくとも1つの第1のユーザ特徴と少なくとも1つの第2のユーザ特徴が含まれる。少なくとも1つの第1のユーザ特徴は、ユーザがタスクを解決している間に更なるカメラ4によって記録された画像に基づくか、及び/又は、ユーザがタスクを解決している間にマイクロフォン13によって記録された音声信号に基づいている。少なくとも1つの第2のユーザ特徴は、ユーザがタスクを解決する間のモバイル装置2の位置経路、及び/又はユーザがタスクを解決する間のマイクロフォン13によって記録された音声信号に基づいている。しかしながら、位置経路によるユーザ特徴と、画像及び音声信号の少なくとも一方とで決まるユーザ特徴の組み合わせを決定することも可能である。モバイル装置2の位置経路に基づく少なくとも1つの(第2の)ユーザ特徴は、モバイル装置の位置の瞬間的な変動であってもよい。これは、例えば、この変動の周期であっても、他の任意の尺度であってもよい。
好ましくは、ユーザ特徴手段8は、ユーザ特徴サンプリング・ウィンドウ内に連続したユーザ特徴ポイントを決定するように構成される。連続したユーザ特徴ポイントは、画像サンプリング・ウィンドウの画像ポイント及び/又はオーディオ・サンプリング・ウィンドウのオーディオポイントによって決められる。連続したユーザ特徴ポイントは、さらに位置サンプリング・ウィンドウの位置ポイントによって決めることができる。ユーザ特徴サンプリング・ウィンドウは、ユーザが上述のタスクを(少なくとも部分的に)解決する間の時間ウィンドウである。好ましくは、ユーザ特徴サンプリング・ウィンドウが、位置サンプリング・ウィンドウと、画像サンプリング・ウィンドウ及び音声サンプリング・ウィンドウの少なくとも一方とが、重なる時間ウィンドウに対応する。ユーザ特徴ポイントが関連付けられているタイムポイントを、ユーザ特徴サンプリングポイントと呼ぶ。
ユーザ特徴手段8は、好ましくはモバイル装置2内に配置される。しかしながら、ユーザ特徴手段8’を、全て又は部分的にモバイル装置2の外部、例えば別の装置11に配置することも可能である。
モバイル装置2の移動だけでなく、タスクを解決する間のユーザの身体の他の特徴も、ユーザの認知状態を検出するのに有効であり役立つことが分かった。
認知状態手段9は、ユーザがタスクを解決する間に決定されたモバイル装置2の位置経路と、ユーザがタスクを解決する間に決定された少なくとも1つのユーザ特性とに基づいて、ユーザの認知状態を判定するように構成される。認知状態手段9は、好ましくは、位置サンプリング・ウィンドウ内のモバイル装置2の位置経路(又は連続した位置ポイント)と、ユーザ特徴サンプリング・ウィンドウのユーザ連続した特徴ポイントとに基づいて、ユーザの認知状態を判定するように構成される。認知状態手段9は、好ましくは、測定サンプリング・ウィンドウ中の測定ポイントに基づいて、ユーザの認知状態を判定するように構成される。測定サンプリング・ウィンドウの測定ポイントは、測定/位置サンプリング・ウィンドウの間の位置経路と、測定/オーディオ/イメージ・サンプリング・ウィンドウの間に記録される画像及び/又は音声信号とによって決まる。測定サンプリング・ウィンドウの測定ポイントは、測定/位置サンプリング・ウィンドウの間の位置経路と、測定/ユーザ特徴サンプリング・ウィンドウの間に決定されたユーザ特徴とによって決まる。測定サンプリング・ウィンドウは、ユーザが上述のタスクを(少なくとも部分的に)解決する時間ウィンドウである。測定ポイントが関連付けられている時点を、測定サンプリングポイントと呼ぶ。測定サンプリングポイントは、測定サンプリング周期、及び/又は、2つの連続した測定サンプリングポイントの間に測定サンプリングステップを有している。ユーザ特徴ウィンドウのユーザ特徴ポイントが、位置サンプリング・ウィンドウの位置ポイントによって既に決まっている場合には、測定サンプリング・ウィンドウの測定ポイント及び/又は認知状態は、ユーザ特徴サンプリング・ウィンドウのユーザ特徴ポイントのみに基づいて決めることも可能である。したがって、認知状態手段9は、ユーザの認知状態を判定する入力を受け付ける。
認知状態手段9の入力は、
-ユーザがタスクを解決する間に決定されたモバイル装置2の位置経路と、ユーザがタスクを解決する間に決定された少なくとも1つのユーザ特徴
-位置サンプリング・ウィンドウ内のモバイル装置2の位置経路(又は、連続した位置ポイント)、及び/又はユーザ特徴サンプリング・ウィンドウの連続したユーザ特徴ポイント
-測定サンプリング・ウィンドウ内の測定ポイント
のいずれか1つ以上である。認知状態手段9は、入力データから1つ以上の特徴を抽出することができる。例えば、歩行速度、特に歩幅時間の変動は、ユーザ特徴と組み合わせて、認知状態を検出するモバイル装置2の位置経路から抽出することができる。歩行速度、又は歩行周期とも呼ばれるが、モバイル装置2の垂直方向の低周波の移動から抽出することができる。位置経路及び/又は位置経路データから直接抽出されたこれらの歩行速度及び/又は他の特徴は、tve状態を検出するために用いることができる。しかしながら、歩行速度は、よく知られているように特に有効である。もちろん、経路手段6における歩行速度を位置路情報として直接検出し、認知状態手段9が直接歩行速度に基づいて認知状態を検出することも可能である。さらに、ユーザ特徴手段8において歩行速度を検出することも可能である。
決定された認知状態の結果は、好ましくは多数の別個の認知状態のうちの1つである。別個の認知状態が1つの認知特徴を指し、好ましくは別個の認知状態が、認知特徴の値又は強度に対応する。認知特徴又は認知状態が、好ましくはユーザの脳の健康状態に対応する。ユーザの脳の健康状態は、好ましくは1つの脳疾患又は1つの脳損傷を指す。このような脳疾患又は脳損傷の例として、アルツハイマー病及び/又は前臨床期アルツハイマー病理学的変化、前頭側頭型認知症、外傷性脳損傷、例えば脳震盪、パーキンソン病、手術後認知障害、後皮質萎縮、運動障害、神経変性障害、認知障害、うつ病がある。次いで、認知状態手段9は、少なくとも2つの別個の認知状態のうちの1つを出力するように構成される。少なくとも2つの別個の認知状態には、認知特徴が満たされていることを示す第1の別個の認知状態と、認知特徴が満たされていないことを示す第2の別個の認知状態とが含まれる。認知状態が健康状態である場合、第1の別個の認知状態(第1の別個の健康状態)は、ユーザが脳疾患又は脳損傷を有することを示し、第2の別個の認知状態(第2の別個の健康状態)は、ユーザが脳疾患又は脳損傷に関して健康であることを示す。ユーザが認知状態を満たすか及び/又は脳疾患もしくは脳損傷である一定のリスクを有していることを示す、少なくとも3分の1の別個の認知/健康状態が存在する可能性がある。
認知状態は、好ましくは機械学習データにさらに基づいて決定される。機械学習データは、対応する第1の別個の認知状態に対して第1の条件セットが含まれる。認知状態手段9は、認知状態手段9の入力が第1の条件セットを満たすかどうかをチェックするように構成されるのが好ましい。この場合には、認知状態手段9は、ユーザが、第1の別個の認知状態の認知特徴を持っていると結論付ける。3つ以上の別個の認知状態がある場合、第3の別個の認知状態又は他の別個の認知状態であることを決定するために、他の条件セットをチェックするようにしてもよい。そうでない場合は、ユーザは第2の認知状態である。機械学習データは、複数のユーザのユーザ・データ・セットに基づく機械学習によって取得される。各ユーザのユーザ・データ・セットは、認知状態又は健康状態が分かっているユーザの状態とタスクを解決する間に認知状態手段9のために準備された入力とに対応する。好ましくは、機械学習データが決定木を含む。認知状態手段9は、決定木を通過するときにノード毎に決定木の次のどのノードに行くかを、ユーザ入力のデータに基づいて決定するように構成されている。ユーザのデータは、少なくともモバイル装置2の位置経路と、ユーザ特徴とを含む。ユーザのデータは、年齢、性別などのユーザデータをさらに含むようにしてもよい。決定木の条件、すなわち条件セットは、学習データに基づいて機械学習フェーズで学習される。一実施形態では、少なくとも1つのノードで、位置経路に基づいて少なくとも1つの特徴をチェックする。1つのノードは、例えば、(1つ以上のサブ期間中の)歩行速度の変化が(基準サブ期間中の)基準歩行速度の閾値を超えているかどうかをチェックするようにしてもよい。別のノードでは、サブ期間毎に同じ機能をチェックしてもよい。サブ期間は、ユーザがタスクを解決するときのサブ期間が好ましく、特に、ユーザの注意がタスクによってより多く要求されるサブ期間である。これらのサブ期間は、ユーザが探さなければならないオブジェクトに近づくときが好ましい。基準期間は、例えば、ユーザがタスクを解決している期間のサブ期間であり、特に、前述のサブ期間よりもタスクによって注意が必要になることが少ない期間である。別のノードは、位置経路の別の特徴、又は、歩行速度の平均、歩行速度の分散などの歩行速度の別の特徴をチェックするようにしてもよい。一実施形態では、少なくとも1つのノードが、ユーザ特徴に基づいて、好ましくは瞳孔拡張及び/又は発話の規則性に基づいて、少なくとも1つの特徴をチェックする。例えば、1つのノードは、ユーザ特徴(1つ以上のサブ期間)が基準ユーザ特徴(基準サブ期間)の閾値を超えるかをチェックするようにしてもよい。別のノードは、別のサブ期間で同じ機能をチェックしてもよい。別のノードは、ユーザ特徴の別の特徴の平均、別の特徴の分散などの、別の特徴をチェックしてもよい。
好ましくは、ユーザの認知状態は、装置1から与えられる。好ましくは、ユーザの認知状態は、モバイル装置2の出力手段5を介して与えられる。
認知状態手段9は、認知状態手段9の入力を受信するためにモバイル装置2と通信する別の装置11に配置されるのが好ましい。最終的に、認知状態手段9は、決定されたユーザの認知状態をモバイル装置2に送信して、決定された認知状態を配信する。しかしながら、認知状態手段9’は、全て又は一部をモバイル装置2内に配置するようにしてもよい。
タスク手段7によって提供されたタスクは、ユーザが注意を払うことが必要とされる。ユーザが注意を払っている間、すなわち、タスクを解決している間における、ユーザの動き、特に、経路手段6を用いて記録された歩行と、さらに、カメラ4、マイクロフォン5、及び/又はユーザ特徴手段8を用いて記録されたユーザ特徴は、ユーザの多くの様々な認知状態に対して信頼できるシンプルな指標となることが分かった。この経路手段6によって記録されたユーザの動きについては、既に分かっていたことである。しかしながら、ユーザ特徴手段8を用いて決定されたユーザ特徴も考慮することによって、結果が著しく改善された。
図2は、ユーザの認知状態を判定するための実施形態を示す。
ステップS1において、モバイル装置2は、タスクを解決させるためにユーザを招待する。この招待は、モバイル装置2によって開始されてもよい。これは、例えば、あるタスクを解決するためにモバイル装置の視覚出力装置5.1に表示されるメッセージによって実現することができる。あるいは、招待は、ユーザが、例えば、モバイル装置のアプリケーションを開くことによって、又はタスクを解決することを選択することによって開始され得る。上述の好ましいタスクでは、ユーザによって、少なくとも1つ(好ましくは少なくとも2つ)の定義された目標位置がモバイル装置2のAR環境内に定義され、及び/又は、ユーザに対して、(少なくとも1つの対応する視覚化オブジェクトを介して)モバイル装置2のAR環境内で表示される。次に、ユーザは少なくとも1つの定義された目標位置を(例えば、探すために定義された目標位置に対応する視覚化オブジェクトを表示することによって)探索/発見するために招待される。
ステップS2において、モバイル装置2の経路が記録され、タスク(の少なくとも一部)が解決される。
ステップS3において、タスク(の少なくとも一部)が解決される間に、第2のカメラ4の画像及び/又はマイクロフォン4の音声信号が記録される。ユーザの少なくとも1つのユーザ特徴が、タスク(の少なくとも一部)が解決される間に記録された画像及び/又は音声信号に基づいて決定される。
ステップS1と、ステップS2の位置経路、ステップS3の画像及び/又は音声信号の記録とは、好ましくは同時に実行される(すなわち、ステップS2及びS3の少なくとも測定は、ステップS1と少なくとも一部は時間的に重なる)。
ステップS4において、ステップS2で決定されたモバイル装置2の位置経路と、ステップS3で決定された少なくとも1つのユーザ特徴とに基づいた入力に基づいて、ユーザの認知状態が決定される。
図3は、ユーザの認知状態を判定するための機械学習データを決定するための装置100を示す。装置100は、装置1の認知状態手段9に対して、上記で定義された入力を決定するための少なくとも1つの装置101を備える。したがって、装置101は、モバイル装置200と、モバイル装置2内の第1のカメラ3として機能するモバイル装置200内の第1のカメラと、モバイル装置2内の第2のカメラ4及び/又はマイクロフォン13として機能するモバイル装置200内の第2のカメラ及び/又はマイクロフォン13と、モバイル装置2内の出力手段5として機能するモバイル装置200内の出力手段5と、経路手段6として機能する経路手段6と、図1のタスク手段7として機能するタスク手段7と、図1のユーザ特徴手段8として機能するユーザ特徴手段8とを備え、好ましくは図1のユーザ入力手段10として機能するユーザ入力手段10を備え、認知状態手段9の代わりに入力準備手段19又は19’とを備える。入力準備手段は、装置1の認知状態手段9に入力される入力を準備するように構成される。入力は、ユーザがタスクを解決する間に特定されたモバイル装置の位置経路と、ユーザがタスクを解決する間に特定された少なくとも1つのユーザ特徴に基づいている。
装置101は、好ましい2つの構成を持つ図1の装置1に対応する。図1に記載された、ユーザの認知状態を判定するための第1の構成。前の段落で説明したように、ユーザの入力を決定するための第2の構成。
装置100は、多数の(好ましくは異なる)ユーザの各々に対してユーザ・データ・セットを受信するように構成された機械学習データ手段109をさらに備える。ユーザのユーザ・データ・セットは、ユーザの認知状態と、ユーザがタスクを解決している間に少なくとも1つの装置101のうちの1つで生成された入力とを含む。機械学習データ手段109は、さらに、多数のユーザのためのユーザ・データ・セットに基づいて、各ユーザの入力に対する認知状態を判定するための機械学習データを決定するように構成される。一実施形態では、機械学習データ手段109が、全てのユーザについてユーザ・データ・セットを受信し、機械学習データを(1回だけ)決定する。一実施形態では、機械学習データ手段109が、1人又は他の所定の人数のユーザのユーザ・データ・セットを受信するたびに、機械学習データをアップデートするように構成される。この実施形態では、機械学習データが再帰的に決定される。好ましくは、機械学習データ手段109は、ユーザ・データ・セットに基づいて決定木の決定パラメータを決定するように構成される。機械学習データ手段109がブーストに基づいて機械学習データを決定するように構成されることが好ましい。
機械学習データ手段109は、好ましくは別の装置11に配置される。しかしながら、機械学習データ手段109は、(一部又は全てが)モバイル装置200又は別の装置内にあってもよい。

Claims (1)

  1. 装置(1)のモバイル装置(2)のユーザの認知状態を判定するための装置であって、
    前記装置(1)は、
    前記モバイル装置(2)と、
    前記ユーザに情報を与えるための前記モバイル装置(2)内の出力手段(5)であって、前記ユーザに情報を視覚的に与えるための視覚出力手段(5.1)を有する出力手段(5)と、
    前記モバイル装置(2)の環境の第1の視野方向(3.1)の画像を記録するための前記モバイル装置(2)内のカメラ(3)と、
    前記環境内の前記モバイル装置(2)の位置経路を決定するように構成された経路手段(6)と、
    前記視覚出力手段(5.1)を介して前記ユーザに表示される前記カメラ(3)によって取得された前記モバイル装置(2)の前記環境に基づいた拡張現実環境を用いて、前記ユーザにタスクを解決させるために、前記出力手段(5)を介して前記ユーザと対話するタスク手段(7、7’)と、
    前記ユーザが前記タスクを解決する間に決定された前記モバイル装置(2)の前記位置経路に基づいて、前記ユーザの前記認知状態を判定するための認知状態手段(9、9’)と、
    を備え、
    第2の視野方向(4.1)の画像を記録する前記モバイル装置(2)の更なるカメラ(4.1)及び/又は音声信号を記録するためのマイクロフォン(13)と、
    前記ユーザが前記タスクを解決する間に前記更なるカメラ(4)によって記録された前記画像、及び/又は、前記ユーザが前記タスクを解決する間に前記マイクロフォン(13)において記録された前記音声信号における、前記ユーザの少なくとも1つの特徴を検出及び/又は追跡するユーザ特徴手段(8、8’)とを有することを特徴とし、
    前記認知状態手段(9、9’)は、前記ユーザの前記少なくとも1つの特徴にさらに基づいて、前記ユーザの前記認知状態を判定するように構成される装置。
JP2024039301A 2018-09-05 2024-03-13 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム Pending JP2024073551A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18192686.6 2018-09-05
EP19174607.2 2019-05-15

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021537524A Division JP2022500801A (ja) 2018-09-05 2019-09-04 モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2024073551A true JP2024073551A (ja) 2024-05-29

Family

ID=

Similar Documents

Publication Publication Date Title
US20210092081A1 (en) Directional augmented reality system
US20210196174A1 (en) Apparatus, method and program for determining a cognitive state of a user of a mobile device
JP6664512B2 (ja) アイブレインインターフェースシステムのキャリブレーション方法、及びシステム内のスレーブデバイス、ホストデバイス
US9495008B2 (en) Detecting a primary user of a device
US9720510B2 (en) User-directed personal information assistant
JP2010061265A (ja) 人物検索登録システム
US10867527B2 (en) Process and wearable device equipped with stereoscopic vision for helping the user
KR20160007341A (ko) 글라스형 웨어러블 디바이스의 버스도착 알림방법 및 이를 이용한 글라스형 웨어러블 디바이스용 프로그램
WO2020050186A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US20200143774A1 (en) Information processing device, information processing method, and computer program
EP3340240B1 (en) Information processing device, information processing method, and program
KR20160024733A (ko) 글라스형 웨어러블 디바이스를 이용한 실내 전자기기 제어방법 및 제어프로그램
JP2024073551A (ja) モバイル装置のユーザの認知状態を判定するための装置、方法、及びプログラム
KR20210130041A (ko) 3차원 영상을 활용한 술기 교육 시스템 및 머신 러닝 기반의 수술 가이드 시스템
US11270451B2 (en) Motion parallax in object recognition
JP2005173419A (ja) 手話解釈装置
KR20210080140A (ko) 실내 내비게이션 방법 및 그 시스템
KR20160025203A (ko) 글라스형 웨어러블 디바이스를 이용한 당구코칭 시스템 및 방법
JP2007133531A (ja) 注目状態検出装置、及び注目状態検出方法
WO2023042343A1 (ja) 手指の動きを計測処理する計測処理端末、方法およびコンピュータプログラム
WO2023244267A1 (en) Systems and methods for human gait analysis, real-time feedback and rehabilitation using an extended-reality device
JP2024505038A (ja) 個人の認知状態に関する情報を提供するための装置、方法、およびコンピュータプログラム
KR20210050248A (ko) 호흡 패턴을 이용한 경도인지 장애 진단 및 훈련 시스템
WO2019043475A2 (en) DEVICES AND METHODS FOR USE IN THE DIAGNOSIS OF MEDICAL DISEASE
KR20160016196A (ko) 글라스형 웨어러블 디바이스를 이용한 광고 효과 측정 방법 및 시스템