JP4838499B2 - ユーザ支援装置 - Google Patents
ユーザ支援装置Info
- Publication number
- JP4838499B2 JP4838499B2 JP2004151734A JP2004151734A JP4838499B2 JP 4838499 B2 JP4838499 B2 JP 4838499B2 JP 2004151734 A JP2004151734 A JP 2004151734A JP 2004151734 A JP2004151734 A JP 2004151734A JP 4838499 B2 JP4838499 B2 JP 4838499B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- activity
- information
- module
- sensor group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012559 user support system Methods 0.000 title claims description 77
- 230000000694 effects Effects 0.000 claims description 315
- 238000011156 evaluation Methods 0.000 claims description 91
- 238000001514 detection method Methods 0.000 claims description 43
- 230000007613 environmental effect Effects 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 26
- 230000004044 response Effects 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000001364 causal effect Effects 0.000 claims description 4
- 239000003795 chemical substances by application Substances 0.000 description 45
- 230000006870 function Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 238000012795 verification Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 235000021438 curry Nutrition 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000037007 arousal Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 208000010412 Glaucoma Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000010391 action planning Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000005586 smoking cessation Effects 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
ユーザの欲求を入力できるセンサ群、及び、ユーザの活動状態あるいはユーザがその時点で存在している位置における環境の状況を検知するセンサ群と、
上記ユーザに対して、上記ユーザの欲求を入力できるセンサ群から入力して予め定義された欲求内容、または、上記ユーザの活動状態あるいはユーザがその時点で存在している位置における環境の状況を検知するセンサ群から入力された情報に基づいて判断された欲求内容を実現するためにユーザが次に行うべき行動の指示あるいは行う行動内容を決定するための基礎となる付帯情報を呈示するユーザ情報呈示装置と、
上記欲求内容と上記センサ群で検知したユーザの活動状態あるいは環境状況に基づいて、上記ユーザ情報呈示装置において呈示する情報を生成することで、上記ユーザが次に行うべき行動を指示するかあるいは次に行う行動を決定するための基礎となる付帯情報を呈示することによってユーザの活動を支援するユーザ活動支援エージェントと、
を具備し、
上記ユーザ活動支援エージェントは、
上記センサ群で検知したユーザの欲求内容がユーザ所望の目標であるかを確認するためにユーザに上記ユーザ情報呈示装置を介して呈示し、それに対するユーザの反応を上記センサ群によって得られる出力情報に基づいて評価する目標検出評価モジュールと、
上記目標検出評価モジュールがユーザ所望の目標であると評価した目標に対し、前記センサ群から得られるユーザの活動状態あるいはユーザがその時点で存在している位置における環境の状況に基づいて上記目標に到達するまでのフローを形成する複数のステップとして定義したユーザの活動群によって実現できるように計画し、その活動群を示唆する情報を上記ユーザ情報呈示装置を介してユーザに呈示して、それに対するユーザの反応を、上記センサ群により計測されるユーザの活動状態あるいは環境状況からその達成度についてモニタリングあるいは評価を行いこのモニタリング結果あるいは評価結果をユーザに呈示する活動計画評価モジュールと、
を有しており、
さらに、上記活動計画評価モジュールは、
上記目標検出モジュールによって検出された目標を達成するためのユーザの活動を計画する活動計画モジュールと、
上記活動計画モジュールによって計画された活動計画に従って、その活動を示唆する情報を、上記ユーザ情報呈示装置に呈示させる活動計画情報呈示モジュールと、
上記活動計画情報呈示モジュールの情報によって引き起こされたユーザの反応を活動状態あるいは環境状況からモニタリングし、評価するユーザ反応評価モジュールと、
上記活動計画モジュールが計画する活動と、上記ユーザ反応評価モジュールが評価したユーザの反応と、上記センサ群から得られる利用可能なセンサ信号群とを用いて、ユーザの活動に関する活動履歴をTPOとの組として蓄積し、蓄積される複数の活動履歴同士間の関連性をグラフ化し、その活動同士の因果関係あるいは共起関係を導き出すことによって、あるTPOにおける活動を取り得る傾向が得られることによりユーザの嗜好をモデル化するユーザ活動解析記録モジュールと、
を有すると共に、上記ユーザ反応評価モジュールの評価を上記活動計画モジュールにフィードバックするものであり、
上記ユーザ活動解析記録モジュールがモデル化したユーザの嗜好を利用して、上記活動計画モジュールがユーザの活動を計画する、
ことを特徴とする。
本発明の第1実施形態に係るユーザ支援装置は、図1に示すように、ユーザの活動状態あるいは環境の状況を検知するセンサ群10と、上記ユーザに情報を呈示するユーザ情報呈示装置20と、上記センサ群10で検知したユーザの活動状態あるいは環境状況に基づいて、上記ユーザ情報呈示装置20において呈示する情報を生成することで、上記ユーザの活動を支援するユーザ活動支援エージェント30とから構成される。
・現在のマンションの4階からエレベータホールへ徒歩で移動する
・エレベータホールでエレベータ下行きのボタンを押す
・エレベータが来るのを待つ
・エレベータに乗り、エレベータ内の1階ボタンを押す
・エレベータで4階から1階へ移動する
・エレベータを下りる
・エレベータ付近から直結する道路L1を探す
・道路L1をまっすぐ東に100m移動する(ユーザ徒歩で約160歩)
・交差点C1で右折する
・道路L2をまっすぐ北に300m移動する(ユーザ徒歩で約500歩)
・左手のコーヒーショップBを探がす
・コーヒーショップBに入る
といったような行動群からなる行動計画をスケジュールとして計画する。
上記第1実施形態では、主にユーザに装着されたセンサ群10からの情報を利用して、そのセンサ信号に基づき、ユーザの状態あるいは環境の状況を観察したり、ユーザの活動支援を行うエージェントについて説明した。しかしながら、センサ群10のすべてのセンサが必ずしもユーザに装着されている必要はなく、環境にあらかじめ固定的に装着されているセンサからの信号を利用して、ユーザの状態あるいは環境の状況をモニタすることが可能となる。
図14は、本発明の第3実施形態に係るユーザ活動支援装置の構成を示す図である。本実施形態に係るユーザ活動支援装置においては、上記活動計画評価モジュール32内に、ユーザ活動解析モジュール324を配置する。このユーザ活動解析モジュール324は、上記活動計画モジュール321で計画された活動と、その活動に対するユーザの反応の評価結果と、その際のセンサの出力(例えばTPO)とに鑑みて、ユーザの活動に対する履歴(活動履歴)を記録すると共に、その活動履歴から得られるユーザの持つ嗜好(即ち、どのようなTPOで、どのような活動と、それに対する反応を起こし易いか、というユーザの活動傾向)を記録するものである。なお、特に図示はしないが、このユーザ活動解析モジュール324は、活動履歴記録サブモジュールと嗜好解析記録サブモジュールとから構成される。こうしてユーザの嗜好が解析でき、さらに記録されると、ユーザが過去に行った経験や活動履歴に基づいて、よりユーザの視点に立ったサービスや活動支援を提供することができる。即ち、これまでどのような活動の際にどのようなユーザの反応があったかを、活動とユーザ反応とTPOとを組にして『活動履歴』として活動履歴記録サブモジュールに格納する。
目標検出モジュール311がユーザの欲求として、食事がしたいことを検出する。
1)同様の時刻で同様のユーザ状態のときに、どのような食事をしたかの活動履歴群、及び、
2)ここ数日間に取った活動履歴の中の食事の種類に関する活動履歴群
を検索し、それら1)と2)の活動履歴に関する因果関係あるいは共起関係に関する情報を嗜好解析記録サブモジュールから検索することにより、ユーザの嗜好を含めた活動計画(ユーザ嗜好に合致したレストランのカテゴリである日本食レストラン、イタリアンレストラン、アメリカンレストラン、中華レストランなど)を立てることになる。さらに、現在のユーザのTPOに合わせて、具体的なレストラン候補を、外部センサから通信(無線通信やインターネット通信)により問い合わせるわけである。こうして、ユーザの嗜好に合い、且つユーザの現在地の近くにあるレストラン候補に優先順位をつけてリストアップするわけである。また、これらの問い合わせの結果得られたレストラン候補の中から、店の雰囲気あるいは食事のメニューなどをさらに勘案することで、よりユーザの嗜好に合致したレストランの絞り込みを行うこともできる。また際、そのレストランの空席情報なども呈示することもできる。
これまでの説明でもわかるように、ユーザ支援装置は、ユーザ固有の情報やユーザ固有の活動履歴やユーザ固有の嗜好に関する情報を記録することで、ユーザの活動支援を行う装置である。従って、こうしたユーザ固有の情報、例えばユーザのID番号、ユーザ名、ユーザ住所、ユーザ電話番号、あるいは前の例で説明したユーザ活動履歴、ユーザ嗜好情報などを、ユーザ支援装置から取り外し可能なメモリや記憶装置に格納するようにする。こうすることで、ユーザ固有の情報、ユーザ固有の活動履歴あるいはユーザ固有の嗜好に関する情報は、取り外し可能な記憶装置に格納することができるので、複数のユーザがユーザ支援装置を利用する際には、この取り外し可能な記憶装置を取り替えるだけで、利用可能になる。ユーザ支援装置のハードウェアの共有化が容易になると共に、装置のバージョンアップも容易になる。
ユーザが一般の情報収集(例えばトリビア情報)を目標とするときは、目標検出評価モジュール31が、ユーザのそうした目標を検出した後、外部環境に装着されたセンサ群10あるいは地域ローカルにあるサーバ群と通信することにより、ユーザが興味ありそうな情報を入手することができる。
ユーザの欲求が思い出記録を付加した場合には、ユーザ活動解析モジュール324内の嗜好解析記録サブモジュールの判断に基づいて、例えばカメラモジュールが撮影する画像の中から、ユーザにとってその日のイベント記録となる画像や映像あるいは音声などを、活動履歴記録サブモジュールに格納する。この際、先の例にあるように、ユーザの内省情報を検出するセンサ群10を利用して、活動記録のインデクシング(ラベル付け)を行うことも可能である。例えば、ユーザに装着されたバイタルサインセンサとして心拍センサや発汗センサを利用することにより、ある映像に関連するユーザの興奮度あるいは興味度を計測すると共に、それらの情報により、画像や映像の一部をそのときのイベントとして記録するわけである。また、そうして記録される画像や映像を解析することにより、画像内から検知される対象物(例えば、人物,建物,サインの文字や色合い)の特性情報を、キーワードとして付与することも可能である。こうして付与されたキーワードも画像や映像などと共に記録することにより、活動履歴記録サブモジュール内に記録することも可能となる。また、こうして記録された画像や映像などは、ユーザの指示により、キーワードなどにより検索することも可能となるわけである。
本第4実施形態においては、ユーザ反応評価モジュール323は、活動計画モジュール321で計画された各活動をモニタリングするのに必要なセンサ出力を選択し、そのセンサ出力で検証できる小活動(あるいは行動あるいは小目標)を規定し、その小活動の実行を検証することを特徴とする。
本第5実施形態は、複数の目標が同時あるいは非同期に定義される場合である。この場合には、目標に対する進捗度がユーザ反応評価モジュール323で同期あるいは非同期にモニタリング(評価)される。
次に、上記第1乃至第5実施形態に係わるユーザ情報呈示装置20における具体的な情報の呈示例を、本発明の第6実施形態として説明する。
前記の具体的実施形態から、以下のような構成の発明を抽出することができる。
上記ユーザに情報を提示するユーザ情報呈示装置と、
上記センサ群で検知したユーザの活動状態あるは環境状況に基づいて、上記ユーザ情報提示装置において呈示する情報を生成することで、上記ユーザの活動を支援するユーザ活動支援エージェントと、
を具備し、
上記ユーザ活動支援エージェントは、
上記センサ群で検知したユーザの活動状態あるいは環境状況に基づいて、上記ユーザの要求あるいは欲求あるいは指示を目標の形で検出すると共に、それがユーザ所望の目標であるかをユーザに上記ユーザ情報呈示装置を介して呈示し、それに対するユーザの反応を評価する目標検出評価モジュールと、
上記目標検出評価モジュールが検出した目標をユーザの活動群によって実現できるように計画し、その活動群を示唆する情報を上記ユーザ情報呈示装置を介してユーザに呈示して、それに対するユーザの反応を、上記センサ群により計測されるユーザの活動状態あるいは環境状況からモニタリングあるいは評価する活動計画評価モジュールと、
から構成されることを特徴とするユーザ支援装置。
この(1)に記載のユーザ支援装置に関する実施形態は、第1乃至第6実施形態が対応する。
この(1)に記載のユーザ支援装置によれば、ユーザの状態あるいはユーザを取り巻く環境の状況をセンサ群を用いてユーザの状態をより正確に細かく判断することで、ユーザの欲求やユーザの欲求の時間変化にも対応しながら、ユーザの活動支援を行うことができる。
上記センサ群で検知したユーザの活動状態あるいは環境状況に基づいて、上記ユーザの要求あるいは欲求あるいは指示を目標の形で検出する目標検出モジュールと、
上記目標検出モジュールによって検出された目標を上記ユーザ情報呈示装置に呈示させる目標呈示モジュールと、
上記目標呈示モジュールの情報によって目標の検出達成度を評価する第1のユーザ反応評価モジュールと、
から構成され、上記第1のユーザ反応評価モジュールの評価結果を上記目標検出モジュールにフィードバックすることを特徴とする(1)に記載のユーザ支援装置。
この(2)に記載のユーザ支援装置に関する実施形態は、第1実施形態が対応する。
この(2)に記載のユーザ支援装置によれば、目標の妥当性を評価し、その評価結果に応じて目標を再設定できる。
上記目標検出モジュールによって検出された目標を達成するためのユーザの活動を計画する活動計画モジュールと、
上記活動計画モジュールで計画された活動計画に従って、その活動を示唆する情報を、上記ユーザ情報呈示装置に呈示させる活動計画情報呈示モジュールと、
上記活動計画情報呈示モジュールの情報によって引き起こされたユーザの反応を活動状態あるいは環境状況からモニタリングし、評価する第2のユーザ反応評価モジュールと、
から構成され、上記第2のユーザ反応評価モジュールの評価を上記活動計画モジュールにフィードバックすることを特徴とする(2)に記載のユーザ支援装置。
この(3)に記載のユーザ支援装置に関する実施形態は、第1実施形態が対応する。
この(3)に記載のユーザ支援装置によれば、目標から生成された活動支援計画の妥当性を評価し、その評価結果に応じて活動支援計画を再生成できる。
該ユーザ目標解析記録モジュールが解析したユーザの目標履歴あるいは嗜好情報を利用して、上記目標検出モジュールがユーザの目標の検出を行うことを特徴とする(2)に記載のユーザ支援装置。
この(4)に記載のユーザ支援装置に関する実施形態は、第3実施形態が対応する。
この(4)に記載のユーザ支援装置によれば、ユーザに関する嗜好解析に基づき、より個人に関連した目標を検出することができる。
該ユーザ活動解析記録モジュールが解析したユーザの活動履歴あるいは嗜好情報を利用して、上記活動計画モジュールがユーザの活動計画を行うことを特徴とする(3)に記載のユーザ支援装置。
この(5)に記載のユーザ支援装置に関する実施形態は、第3実施形態が対応する。
この(5)に記載のユーザ支援装置によれば、ユーザに関する嗜好解析に基づき、より個人に関連した活動計画を行うことができる。
この(6)に記載のユーザ支援装置に関する実施形態は、第2実施形態が対応する。
この(6)に記載のユーザ支援装置によれば、情報開示に対してセキュリティを制御することができる。
この(7)に記載のユーザ支援装置に関する実施形態は、第5実施形態が対応する。
この(7)に記載のユーザ支援装置によれば、単一の目標だけでなく複数の目標に対する情報呈示や活動計画を行うことにより、よりユーザの適合にあった活動支援を行うことができ、また複数の目標に対するプロセスを同時に満たすことも可能となる。
上記複数の処理の優先度を制御する制御手段を更に具備することを特徴とする(7)に記載のユーザ支援装置。
この(8)に記載のユーザ支援装置に関する実施形態は、第5実施形態が対応する。
この(8)に記載のユーザ支援装置によれば、単一の目標だけでなく複数の目標に対する情報呈示や活動計画を行うことにより、よりユーザの適合にあった活動支援を行うことができ、また複数の目標に対するプロセス間の優先度を付与することにより、重要な目標達成を優先させることもできる。
上記目標検出評価モジュールあるいは活動計画評価モジュールは、上記センサ群がユーザの観察視点に対応したユーザあるいはユーザの周囲の環境をセンシングした情報を用いることを特徴とする(1)乃至(8)の何れかに記載のユーザ支援装置。
この(9)に記載のユーザ支援装置に関する実施形態は、第1実施形態が対応する。
この(9)に記載のユーザ支援装置によれば、ユーザの観察視点に対応したユーザの状態あるいはユーザの周囲の状況を観察することができるので、ユーザの関心やユーザと環境に対する状況を、より正確に観察することができる。
上記目標検出評価モジュールあるいは活動計画評価モジュールは、上記センサ群が少なくともユーザの前方及びユーザ頭部の一部を観察することによりユーザの状態をセンシングした情報を用いることを特徴とする(1)乃至(8)の何れかに記載のユーザ支援装置。
この(10)に記載のユーザ支援装置に関する実施形態は、第1実施形態が対応する。
この(10)に記載のユーザ支援装置によれば、ユーザの周囲の環境、ユーザの頭部の位置姿勢あるいは表情などを同時に観察することができるので、より正確なユーザの観察が可能となる。
この(11)に記載のユーザ支援装置に関する実施形態は、第3実施形態が対応する。
この(11)に記載のユーザ支援装置によれば、ユーザが感じていることを正確に取得でき、ユーザの体験をセンシングすることができる。
この(12)に記載のユーザ支援装置に関する実施形態は、第1実施形態が対応する。
この(12)に記載のユーザ支援装置によれば、ユーザの運動を正確に捕捉することが可能となり、より正確な行動記録,行動予測等が可能となる。
この(13)に記載のユーザ支援装置に関する実施形態は、第1実施形態が対応する。
この(13)に記載のユーザ支援装置によれば、ユーザが視野に捉えらていない、ユーザ自身の顔の一部、ユーザの腕や手指、ユーザの下方環境を撮影し、その映像を解析することにより、ユーザの顔の向き、ユーザの顔の表情の一部(撮影されている場合)、ユーザの手指及び腕によるジェスチャ、ユーザの歩行環境、ユーザの前方の障害物などの認識を行うことができる。
この(14)に記載のユーザ支援装置に関する実施形態は、第2実施形態が対応する。
この(14)に記載のユーザ支援装置によれば、現在の環境情報を広範囲に観察し得る環境埋め込み型センサにより、環境に関するより客観的で(更新された)正確な情報を入手することができる。
この(15)に記載のユーザ支援装置に関する実施形態は、第4実施形態が対応する。
この(15)に記載のユーザ支援装置によれば、センサ群の内、必要なセンサのみを選択できる。
ユーザ固有の情報、ユーザ固有の活動履歴あるいはユーザ固有の嗜好に関する情報は、該取り外し可能な記憶装置に格納することを特徴とする(1)に記載のユーザ支援装置。
この(16)に記載のユーザ支援装置に関する実施形態は、第3実施形態が対応する。
この(15)に記載のユーザ支援装置によれば、ユーザ固有の情報、ユーザ固有の活動履歴あるいはユーザ固有の嗜好に関する情報は、取り外し可能な記憶装置に格納することができるので、複数のユーザがユーザ支援装置を利用する際には、この取り外し可能な記憶装置を取り替えるだけで、利用可能になる。ユーザ支援装置のハードウェアの共有化が容易になると共に、装置のバージョンアップも容易になる。
この(17)に記載のユーザ支援装置に関する実施形態は、第3実施形態が対応する。
この(17)に記載のユーザ支援装置によれば、ユーザ支援装置は固有のユーザに関連する情報、活動履歴、あるいは嗜好情報を含む場合があるので、このような個人照合を利用することにより、ユーザ情報のセキュリティを守ることが可能となり、かつ他人への情報の漏洩を防ぐことが可能となる。
この(18)に記載のユーザ支援装置に関する実施形態は、第3実施形態が対応する。
この(18)に記載のユーザ支援装置によれば、個人認証のためだけのセンサを付加する必要がなくなり、センサ群の有効利用や部品数の減少を実現することができる。
Claims (1)
- ユーザの欲求を入力できるセンサ群、及び、ユーザの活動状態あるいはユーザがその時点で存在している位置における環境の状況を検知するセンサ群と、
上記ユーザに対して、上記ユーザの欲求を入力できるセンサ群から入力して予め定義された欲求内容、または、上記ユーザの活動状態あるいはユーザがその時点で存在している位置における環境の状況を検知するセンサ群から入力された情報に基づいて判断された欲求内容を実現するためにユーザが次に行うべき行動の指示あるいは行う行動内容を決定するための基礎となる付帯情報を呈示するユーザ情報呈示装置と、
上記欲求内容と上記センサ群で検知したユーザの活動状態あるいは環境状況に基づいて、上記ユーザ情報呈示装置において呈示する情報を生成することで、上記ユーザが次に行うべき行動を指示するかあるいは次に行う行動を決定するための基礎となる付帯情報を呈示することによってユーザの活動を支援するユーザ活動支援エージェントと、
を具備し、
上記ユーザ活動支援エージェントは、
上記センサ群で検知したユーザの欲求内容がユーザ所望の目標であるかを確認するためにユーザに上記ユーザ情報呈示装置を介して呈示し、それに対するユーザの反応を上記センサ群によって得られる出力情報に基づいて評価する目標検出評価モジュールと、
上記目標検出評価モジュールがユーザ所望の目標であると評価した目標に対し、前記センサ群から得られるユーザの活動状態あるいはユーザがその時点で存在している位置における環境の状況に基づいて上記目標に到達するまでのフローを形成する複数のステップとして定義したユーザの活動群によって実現できるように計画し、その活動群を示唆する情報を上記ユーザ情報呈示装置を介してユーザに呈示して、それに対するユーザの反応を、上記センサ群により計測されるユーザの活動状態あるいは環境状況からその達成度についてモニタリングあるいは評価を行いこのモニタリング結果あるいは評価結果をユーザに呈示する活動計画評価モジュールと、
を有しており、
さらに、上記活動計画評価モジュールは、
上記目標検出モジュールによって検出された目標を達成するためのユーザの活動を計画する活動計画モジュールと、
上記活動計画モジュールによって計画された活動計画に従って、その活動を示唆する情報を、上記ユーザ情報呈示装置に呈示させる活動計画情報呈示モジュールと、
上記活動計画情報呈示モジュールの情報によって引き起こされたユーザの反応を活動状態あるいは環境状況からモニタリングし、評価するユーザ反応評価モジュールと、
上記活動計画モジュールが計画する活動と、上記ユーザ反応評価モジュールが評価したユーザの反応と、上記センサ群から得られる利用可能なセンサ信号群とを用いて、ユーザの活動に関する活動履歴をTPOとの組として蓄積し、蓄積される複数の活動履歴同士間の関連性をグラフ化し、その活動同士の因果関係あるいは共起関係を導き出すことによって、あるTPOにおける活動を取り得る傾向が得られることによりユーザの嗜好をモデル化するユーザ活動解析記録モジュールと、
を有すると共に、上記ユーザ反応評価モジュールの評価を上記活動計画モジュールにフィードバックするものであり、
上記ユーザ活動解析記録モジュールがモデル化したユーザの嗜好を利用して、上記活動計画モジュールがユーザの活動を計画する、
ことを特徴とするユーザ支援装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004151734A JP4838499B2 (ja) | 2004-05-21 | 2004-05-21 | ユーザ支援装置 |
US11/134,763 US7584158B2 (en) | 2004-05-21 | 2005-05-19 | User support apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004151734A JP4838499B2 (ja) | 2004-05-21 | 2004-05-21 | ユーザ支援装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009167966A Division JP2009238251A (ja) | 2009-07-16 | 2009-07-16 | ユーザ支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005332309A JP2005332309A (ja) | 2005-12-02 |
JP4838499B2 true JP4838499B2 (ja) | 2011-12-14 |
Family
ID=35374710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004151734A Expired - Fee Related JP4838499B2 (ja) | 2004-05-21 | 2004-05-21 | ユーザ支援装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7584158B2 (ja) |
JP (1) | JP4838499B2 (ja) |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NZ529890A (en) * | 2003-12-02 | 2004-02-27 | Michael Andrew Buck | Mobile geographical information display system |
US8696662B2 (en) | 2005-05-12 | 2014-04-15 | Aesculap Ag | Electrocautery method and apparatus |
US20080082363A1 (en) * | 2005-10-07 | 2008-04-03 | Nader Habashi | On-line healthcare consultation services system and method of using same |
JP2008009501A (ja) * | 2006-06-27 | 2008-01-17 | Olympus Corp | 課金方法 |
JP4747232B2 (ja) * | 2006-09-06 | 2011-08-17 | 独立行政法人産業技術総合研究所 | 小型携帯端末 |
JP5023663B2 (ja) * | 2006-11-07 | 2012-09-12 | ソニー株式会社 | 撮像装置、撮像方法 |
JP2008310680A (ja) * | 2007-06-15 | 2008-12-25 | Olympus Corp | 制御システム、プログラム及び情報記憶媒体 |
JP5265141B2 (ja) * | 2007-06-15 | 2013-08-14 | オリンパス株式会社 | 携帯型電子機器、プログラム及び情報記憶媒体 |
JP4506795B2 (ja) * | 2007-08-06 | 2010-07-21 | ソニー株式会社 | 生体運動情報表示処理装置、生体運動情報処理システム |
US20100011020A1 (en) * | 2008-07-11 | 2010-01-14 | Motorola, Inc. | Recommender system |
JP5308747B2 (ja) * | 2008-09-03 | 2013-10-09 | オリンパス株式会社 | 情報提示システム、プログラム及び情報記憶媒体 |
US8421782B2 (en) | 2008-12-16 | 2013-04-16 | Panasonic Corporation | Information displaying apparatus and information displaying method |
US8539359B2 (en) | 2009-02-11 | 2013-09-17 | Jeffrey A. Rapaport | Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic |
US20120293506A1 (en) * | 2009-11-10 | 2012-11-22 | Selex Sistemi Integrati S.P.A. | Avatar-Based Virtual Collaborative Assistance |
US8522308B2 (en) * | 2010-02-11 | 2013-08-27 | Verizon Patent And Licensing Inc. | Systems and methods for providing a spatial-input-based multi-user shared display experience |
US8827992B2 (en) | 2010-03-26 | 2014-09-09 | Aesculap Ag | Impedance mediated control of power delivery for electrosurgery |
US8419727B2 (en) | 2010-03-26 | 2013-04-16 | Aesculap Ag | Impedance mediated power delivery for electrosurgery |
US8593402B2 (en) | 2010-04-30 | 2013-11-26 | Verizon Patent And Licensing Inc. | Spatial-input-based cursor projection systems and methods |
US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
US20120042263A1 (en) | 2010-08-10 | 2012-02-16 | Seymour Rapaport | Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources |
US9167289B2 (en) | 2010-09-02 | 2015-10-20 | Verizon Patent And Licensing Inc. | Perspective display systems and methods |
US8957856B2 (en) | 2010-10-21 | 2015-02-17 | Verizon Patent And Licensing Inc. | Systems, methods, and apparatuses for spatial input associated with a display |
CN103221971A (zh) * | 2010-11-22 | 2013-07-24 | 张万翼 | 社交网络服务提供系统及方法 |
KR101764213B1 (ko) | 2010-11-22 | 2017-08-02 | 장만익 | 소셜 네트워크 서비스 제공 시스템 및 방법 |
KR101764217B1 (ko) | 2010-12-28 | 2017-08-14 | 장만익 | 소셜 네트워크 서비스 제공 시스템 및 방법 |
US8634852B2 (en) * | 2011-01-04 | 2014-01-21 | Qualcomm Incorporated | Camera enabled headset for navigation |
JP5772051B2 (ja) * | 2011-02-22 | 2015-09-02 | 富士通株式会社 | 情報処理装置、指導案評価プログラム及び指導案評価方法 |
US8676937B2 (en) | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US20130018659A1 (en) | 2011-07-12 | 2013-01-17 | Google Inc. | Systems and Methods for Speech Command Processing |
US10088924B1 (en) | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
US8891868B1 (en) * | 2011-08-04 | 2014-11-18 | Amazon Technologies, Inc. | Recognizing gestures captured by video |
US8959082B2 (en) | 2011-10-31 | 2015-02-17 | Elwha Llc | Context-sensitive query enrichment |
US20130110804A1 (en) * | 2011-10-31 | 2013-05-02 | Elwha LLC, a limited liability company of the State of Delaware | Context-sensitive query enrichment |
US8941561B1 (en) | 2012-01-06 | 2015-01-27 | Google Inc. | Image capture |
US9223415B1 (en) | 2012-01-17 | 2015-12-29 | Amazon Technologies, Inc. | Managing resource usage for task performance |
JP6040715B2 (ja) * | 2012-11-06 | 2016-12-07 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
JP2014134922A (ja) | 2013-01-09 | 2014-07-24 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US9092954B2 (en) * | 2013-03-15 | 2015-07-28 | Immersion Corporation | Wearable haptic device |
US9760696B2 (en) * | 2013-09-27 | 2017-09-12 | Excalibur Ip, Llc | Secure physical authentication input with personal display or sound device |
US20150162000A1 (en) * | 2013-12-10 | 2015-06-11 | Harman International Industries, Incorporated | Context aware, proactive digital assistant |
CN105874408B (zh) * | 2014-01-03 | 2020-01-07 | 哈曼国际工业有限公司 | 用手势交互的可穿戴式空间音频系统 |
US10024679B2 (en) | 2014-01-14 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US10360907B2 (en) | 2014-01-14 | 2019-07-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9578307B2 (en) * | 2014-01-14 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9915545B2 (en) * | 2014-01-14 | 2018-03-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US10248856B2 (en) | 2014-01-14 | 2019-04-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
JP5921047B2 (ja) * | 2014-06-23 | 2016-05-24 | レノボ・イノベーションズ・リミテッド(香港) | ユーザーインターフェース装置 |
US10024678B2 (en) | 2014-09-17 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable clip for providing social and environmental awareness |
US9922236B2 (en) | 2014-09-17 | 2018-03-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable eyeglasses for providing social and environmental awareness |
KR20160066605A (ko) * | 2014-12-02 | 2016-06-13 | 삼성디스플레이 주식회사 | 착용형 디스플레이 장치 |
US9904450B2 (en) * | 2014-12-19 | 2018-02-27 | At&T Intellectual Property I, L.P. | System and method for creating and sharing plans through multimodal dialog |
US10490102B2 (en) | 2015-02-10 | 2019-11-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for braille assistance |
US9972216B2 (en) | 2015-03-20 | 2018-05-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for storing and playback of information for blind users |
US10024680B2 (en) | 2016-03-11 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Step based guidance system |
US9958275B2 (en) | 2016-05-31 | 2018-05-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for wearable smart device communications |
US10561519B2 (en) | 2016-07-20 | 2020-02-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable computing device having a curved back to reduce pressure on vertebrae |
US10291949B2 (en) * | 2016-10-26 | 2019-05-14 | Orcam Technologies Ltd. | Wearable device and methods for identifying a verbal contract |
US10432851B2 (en) | 2016-10-28 | 2019-10-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable computing device for detecting photography |
USD827143S1 (en) | 2016-11-07 | 2018-08-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Blind aid device |
US10012505B2 (en) | 2016-11-11 | 2018-07-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable system for providing walking directions |
US10521669B2 (en) | 2016-11-14 | 2019-12-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing guidance or feedback to a user |
CN106531073B (zh) * | 2017-01-03 | 2018-11-20 | 京东方科技集团股份有限公司 | 显示屏的处理电路、显示方法及显示器件 |
JP7018003B2 (ja) * | 2018-09-26 | 2022-02-09 | 株式会社日立製作所 | 研究開発支援システム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6057764A (en) * | 1998-08-20 | 2000-05-02 | Williams; Melvin P. | Dynamically bypassed alarm system |
JP2000325389A (ja) | 1999-05-24 | 2000-11-28 | Matsushita Electric Ind Co Ltd | 視覚補助装置 |
JP4193300B2 (ja) | 1999-08-17 | 2008-12-10 | 株式会社エクォス・リサーチ | エージェント装置 |
JP3846844B2 (ja) | 2000-03-14 | 2006-11-15 | 株式会社東芝 | 身体装着型生活支援装置 |
EP1195231A4 (en) * | 2000-03-31 | 2006-01-25 | Sony Corp | ROBOTIC DEVICE, ROBOTIC DEVICE ACTION CONTROL METHOD, EXTERNAL FORCE DETECTION DEVICE, AND EXTERNAL FORCE DETECTION METHOD |
JP2001344352A (ja) | 2000-05-31 | 2001-12-14 | Toshiba Corp | 生活支援装置および生活支援方法および広告情報提供方法 |
US20040006566A1 (en) * | 2000-11-07 | 2004-01-08 | Matt Taylor | System and method for augmenting knowledge commerce |
DE10103922A1 (de) | 2001-01-30 | 2002-08-01 | Physoptics Opto Electronic Gmb | Interaktives Datensicht- und Bediensystem |
US20030172002A1 (en) * | 2001-03-15 | 2003-09-11 | Spira Mario Cosmas | Menu driven management and operation technique |
US20030043268A1 (en) * | 2001-06-26 | 2003-03-06 | Mann W. Stephen G. | EyeTap vehicle or vehicle controlled by headworn camera, or the like |
JP2003058609A (ja) | 2001-08-20 | 2003-02-28 | Pioneer Electronic Corp | 通信ナビゲーション運営システム及び方法、並びにコンピュータプログラム |
JP2003148986A (ja) | 2001-11-16 | 2003-05-21 | Alpine Electronics Inc | ドライブ情報提供装置 |
JP3726057B2 (ja) * | 2001-12-28 | 2005-12-14 | 本田技研工業株式会社 | 脚式移動ロボットおよびその床反力検出装置 |
JP2003204282A (ja) * | 2002-01-07 | 2003-07-18 | Toshiba Corp | 無線通信機能付きヘッドセット、これを用いたコミュニケーション記録システム、およびコミュニケーション制御方式を選択可能なヘッドセットシステム |
JP3821744B2 (ja) | 2002-03-29 | 2006-09-13 | 株式会社東芝 | 生活支援システム |
US7421738B2 (en) * | 2002-11-25 | 2008-09-02 | Honeywell International Inc. | Skeptical system |
US20040262410A1 (en) * | 2003-04-11 | 2004-12-30 | Hull Gerry G. | Graphical thermostat and sensor |
-
2004
- 2004-05-21 JP JP2004151734A patent/JP4838499B2/ja not_active Expired - Fee Related
-
2005
- 2005-05-19 US US11/134,763 patent/US7584158B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2005332309A (ja) | 2005-12-02 |
US20050259035A1 (en) | 2005-11-24 |
US7584158B2 (en) | 2009-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4838499B2 (ja) | ユーザ支援装置 | |
JP6930618B2 (ja) | ナビゲーションシステム、クライアント端末装置、制御方法、記憶媒体、およびプログラム | |
US20060009702A1 (en) | User support apparatus | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
US9922236B2 (en) | Wearable eyeglasses for providing social and environmental awareness | |
CN107850443A (zh) | 信息处理装置、信息处理方法以及程序 | |
CN105278670B (zh) | 眼佩戴型终端及控制眼佩戴型终端的方法 | |
US11455701B2 (en) | Presenting context-based guidance using electronic signs | |
WO2018230584A1 (ja) | 移動体及び管理システム | |
JP7030062B2 (ja) | 情報処理システム、及び情報処理装置 | |
JP2009238251A (ja) | ユーザ支援装置 | |
Aaltonen et al. | Field evaluation of a wearable multimodal soldier navigation system | |
JP2016081359A (ja) | 情報提示装置 | |
CN107533712A (zh) | 信息处理装置、信息处理方法和程序 | |
US20240047046A1 (en) | Virtual augmentation of clinical care environments | |
US20230314156A1 (en) | Information presentation method, information presentation system, and computer-readable medium | |
Kbar et al. | Utilizing sensors networks to develop a smart and context-aware solution for people with disabilities at the workplace (design and implementation) | |
JP2023118729A (ja) | 情報処理方法、情報処理プログラム、及び情報処理装置 | |
CN113758493A (zh) | 基于情感-认知负荷的导航 | |
JP2010049374A (ja) | 展示案内システム | |
Matviienko et al. | QuantiBike: quantifying perceived cyclists' safety via head movements in virtual reality and outdoors | |
JP2020154569A (ja) | 表示装置、表示制御方法、及び表示システム | |
JP6849895B2 (ja) | 位相特定装置、携帯端末、位相特定方法及びプログラム | |
JP6784429B1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JPWO2018163560A1 (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090306 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090716 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090728 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20090828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110810 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110930 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |