JP6969554B2 - 情報処理システム、記録媒体、情報処理方法、およびプログラム - Google Patents
情報処理システム、記録媒体、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6969554B2 JP6969554B2 JP2018529763A JP2018529763A JP6969554B2 JP 6969554 B2 JP6969554 B2 JP 6969554B2 JP 2018529763 A JP2018529763 A JP 2018529763A JP 2018529763 A JP2018529763 A JP 2018529763A JP 6969554 B2 JP6969554 B2 JP 6969554B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- context
- user
- determined
- transmission method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Description
・さりげない伝達方法
・第1の実施の形態 コンテキストに適したアクションの伝達
・第2の実施の形態 2つの対極となるアクションの伝達
・第3の実施の形態 ユーザの行動と逆のアクションの伝達
・第4の実施の形態 伝達するアクションの決定方法
・変形例
図1は、本技術の一実施形態に係るウェアラブルデバイスを用いた行動支援の様子を示す図である。
<1.情報処理システムの構成例>
図2は、情報処理システムの構成例を示す図である。
図3および図4は、ウェアラブルデバイス1の外観の例を示す図である。
図7は、制御サーバ2の構成例を示すブロック図である。
ここで、図2の情報処理システムの動作について説明する。図8に示すように、1つのコンテキストに対して、1つのアクションと伝達方法が対応付けて管理されているものとする。
図1を参照して説明したように、対極となる2つのアクションを伝達する場合について説明する。上述した説明と重複する説明については適宜省略する。
1つのコンテキストに対して2つのアクションが対応付けて管理されている場合において、ユーザがとろうとしているアクションと反対のアクションが伝達されるようにしてもよい。
ウェアラブルデバイス1により生成されたコンテキスト情報に基づいてアクションが決定されるものとしたが、ユーザに伝達するアクションの決定方法は他の方法であってもよい。他の方法で決定されたアクションも、上述したような各種の方法を用いてさりげなく伝達される。
<1.アクションの例>
認識可能なものとして上述したアクションは一例である。コンテキスト情報に基づいて他のアクションが認識されるようにすることも可能である。
図18は、情報処理システムとしてのウェアラブルデバイス1の構成例を示す図である。図6、図7を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
・耳掛け型
図19は、ウェアラブルデバイス1の外観を示す図である。図19において、各部を示す符号は省略している。図20乃至図23においても同様である。図19のAはウェアラブルデバイス1の正面を示し、図19のBはウェアラブルデバイス1の背面を示す。
以上においては、ユーザの行動支援を行うウェアラブルデバイスが耳掛け型のデバイスであるものとしたが、ウェアラブルデバイスの形態は任意である。
図32は、首掛け型のウェアラブルデバイスであるウェアラブルデバイス301の外観の構成例を示す図である。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
本技術は、以下のような構成をとることもできる。
(1)
デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得する取得部と、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定する制御部と
を備える情報処理システム。
(2)
前記制御部は、前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する
前記(1)に記載の情報処理システム。
(3)
1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションが登録されるデータベースを記憶する記憶部をさらに備える
前記(2)に記載の情報処理システム。
(4)
前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちのいずれかを決定し、
前記コンテキストと、前記第1のアクションと前記第2のアクションのうちのいずれかと、に適した前記伝達方法を決定し、
前記第1のアクションと前記第2のアクションのうちのいずれかを、決定した前記伝達方法で前記ユーザに伝達する
前記(3)に記載の情報処理システム。
(5)
前記データベースには、1つの前記コンテキストと対応付けて、対極の内容の前記第1のアクションと前記第2のアクションが登録され、
前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと、その対極の内容の前記第2のアクションとを決定し、
前記第1のアクションと前記第2のアクションのそれぞれの前記伝達方法を決定し、
前記第1のアクションと前記第2のアクションのそれぞれを、決定したそれぞれの前記伝達方法で前記ユーザに伝達する
前記(3)に記載の情報処理システム。
(6)
前記制御部は、
前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した後に取得された前記コンテキスト情報に基づいて、前記ユーザの行動を予測し、
前記ユーザの行動の予測結果に応じて、前記コンテキストに対応付けられた前記第1のアクションと前記第2のアクションのうちのいずれかを選択し、
前記コンテキストと選択した前記アクションに適した前記伝達方法を決定する
前記(3)に記載の情報処理システム。
(7)
前記デバイスより送信された前記コンテキスト情報を受信する通信部をさらに備え、
前記制御部は、前記通信部を制御し、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する
前記(1)乃至(6)のいずれかに記載の情報処理システム。
(8)
前記制御部は、前記ユーザ宛のメッセージの内容を解析し、その解析結果に応じて、前記ユーザの前記コンテキストを認識する
前記(1)に記載の情報処理システム。
(9)
前記伝達方法は、風を用いた方法、振動を用いた方法、音声を用いた方法、前記デバイスに設けられたロボットアームの駆動を用いた方法のうちの少なくともいずれかを用いた方法である
前記(1)乃至(8)のいずれかに記載の情報処理システム。
(10)
前記風を用いた方法は、伝達する前記アクションに応じた温度の風を送ることにより伝達する方法である
前記(9)に記載の情報処理システム。
(11)
前記振動を用いた方法は、伝達する前記アクションに応じたパターンで振動することにより伝達する方法である
前記(9)に記載の情報処理システム。
(12)
前記音声を用いた方法は、伝達する前記アクションに応じた調子の音声で伝達する方法である
前記(9)に記載の情報処理システム。
(13)
前記ロボットアームの駆動を用いた方法は、前記デバイスを装着する前記ユーザの髪を引く、または、背中を押すことにより伝達する方法である
前記(9)に記載の情報処理システム。
(14)
前記デバイスは、耳に掛けることで装着される機器であり、
前記デバイスに形成される耳掛け部の少なくとも一部は、前記ユーザの体温に応じて変形する素材により構成される
前記(1)乃至(13)のうちのいずれかに記載の情報処理システム。
(15)
前記デバイスは、前記ユーザの肩に乗せることで装着される機器であり、
前記デバイスの筐体の少なくとも一部は、可撓性を有し、変形可能な素材により構成される
前記(1)乃至(13)のうちのいずれかに記載の情報処理システム。
(16)
デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
前記コンテキストに応じたアクションを決定し、
前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定する
ステップを含む処理をコンピュータに実行させるプログラムが記録された記録媒体。
(17)
デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
前記コンテキストに応じたアクションを決定し、
前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定する
ステップを含む情報処理方法。
(18)
デバイスより送信された、前記デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を受信する通信部と、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、前記通信部を制御して、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する制御部と
を備える制御サーバと、
前記コンテキスト情報を生成し、前記制御サーバに送信する生成部と、
前記制御サーバから送信されてきた前記制御信号を受信する通信部と、
前記アクションを前記ユーザに伝える出力部と、
前記制御信号に従って前記出力部を制御し、前記アクションを前記伝達方法で前記ユーザに伝達させる制御部と
を備える前記デバイスと
からなる情報処理システム。
Claims (16)
- デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得する取得部と、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する制御部と、
1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部と
を備え、
前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
情報処理システム。 - 前記データベースには、1つの前記コンテキストと対応付けて、対極の内容の前記第1のアクションと前記第2のアクションが登録され、
前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと、その対極の内容の前記第2のアクションとを決定し、
前記第1のアクションと前記第2のアクションのそれぞれの前記第1の伝達方法と前記第2の伝達方法を決定し、
前記第1のアクションと前記第2のアクションのそれぞれを、決定したそれぞれの前記第1の伝達方法と前記第2の伝達方法で前記ユーザに伝達する
請求項1に記載の情報処理システム。 - 前記制御部は、
前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した後に取得された前記コンテキスト情報に基づいて、前記ユーザの行動を予測し、
前記ユーザの行動の予測結果に応じて、前記コンテキストに対応付けられた前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを選択し、
前記コンテキストと選択した前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定する
請求項1に記載の情報処理システム。 - 前記デバイスより送信された前記コンテキスト情報を受信する通信部をさらに備え、
前記制御部は、前記通信部を制御し、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する
請求項1乃至3のいずれかに記載の情報処理システム。 - 前記制御部は、前記ユーザ宛のメッセージの内容を解析し、その解析結果に応じて、前記ユーザの前記コンテキストを認識する
請求項1に記載の情報処理システム。 - 前記伝達方法は、風を用いた方法、振動を用いた方法、音声を用いた方法、前記デバイスに設けられたロボットアームの駆動を用いた方法のうちの少なくともいずれかを用いた方法である
請求項1乃至5のいずれかに記載の情報処理システム。 - 前記風を用いた方法は、伝達する前記アクションに応じた温度の風を送ることにより伝達する方法である
請求項6に記載の情報処理システム。 - 前記振動を用いた方法は、伝達する前記アクションに応じたパターンで振動することにより伝達する方法である
請求項6に記載の情報処理システム。 - 前記音声を用いた方法は、伝達する前記アクションに応じた調子の音声で伝達する方法である
請求項6に記載の情報処理システム。 - 前記ロボットアームの駆動を用いた方法は、前記デバイスを装着する前記ユーザの髪を引く、または、背中を押すことにより伝達する方法である
請求項6に記載の情報処理システム。 - 前記デバイスは、耳に掛けることで装着される機器であり、
前記デバイスに形成される耳掛け部の少なくとも一部は、前記ユーザの体温に応じて変形する素材により構成される
請求項1乃至10のうちのいずれかに記載の情報処理システム。 - 前記デバイスは、前記ユーザの肩に乗せることで装着される機器であり、
前記デバイスの筐体の少なくとも一部は、可撓性を有し、変形可能な素材により構成される
請求項1乃至10のうちのいずれかに記載の情報処理システム。 - デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
前記コンテキストに応じたアクションを決定し、
前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、
前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する
ステップを含み、
1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部の記憶を制御し、
前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
ステップをさらに含む処理をコンピュータに実行させるプログラムが記録された記録媒体。 - デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
前記コンテキストに応じたアクションを決定し、
前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、
前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する
ステップを含み、
1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部の記憶を制御し、
前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
ステップをさらに含む情報処理方法。 - デバイスより送信された、前記デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を受信する第1の通信部と、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、前記第1の通信部を制御して、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する第1の制御部と、1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部と
を備え、
前記第1の制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定する
制御サーバと、
前記コンテキスト情報を生成し、前記制御サーバに送信する生成部と、
前記制御サーバから送信されてきた前記制御信号を受信する第2の通信部と、
前記アクションを前記ユーザに伝える出力部と、
前記制御信号に従って前記出力部を制御し、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達させる第2の制御部と
を備える前記デバイスと
からなる情報処理システム。 - コンピュータに、
デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
前記コンテキストに応じたアクションを決定し、
前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、
前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達し、
1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶する記憶部の記憶を制御し、
前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
処理を実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016147021 | 2016-07-27 | ||
JP2016147021 | 2016-07-27 | ||
PCT/JP2017/025500 WO2018021040A1 (ja) | 2016-07-27 | 2017-07-13 | 情報処理システム、記録媒体、および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018021040A1 JPWO2018021040A1 (ja) | 2019-05-09 |
JP6969554B2 true JP6969554B2 (ja) | 2021-11-24 |
Family
ID=61015917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018529763A Active JP6969554B2 (ja) | 2016-07-27 | 2017-07-13 | 情報処理システム、記録媒体、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10796556B2 (ja) |
EP (1) | EP3493031A4 (ja) |
JP (1) | JP6969554B2 (ja) |
CN (1) | CN109478100B (ja) |
WO (1) | WO2018021040A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105814516B (zh) * | 2013-10-11 | 2019-07-30 | 交互数字专利控股公司 | 注视驱动的增强现实 |
CN109478100B (zh) * | 2016-07-27 | 2022-06-14 | 索尼公司 | 信息处理系统、记录介质以及信息处理方法 |
JPWO2020111227A1 (ja) * | 2018-11-30 | 2021-11-04 | 本田技研工業株式会社 | 電子機器 |
JP7263957B2 (ja) * | 2019-07-19 | 2023-04-25 | 株式会社Jvcケンウッド | 情報装置、自動設定方法及び自動設定プログラム |
USD954969S1 (en) * | 2019-12-13 | 2022-06-14 | Sony Group Corporation | Biological information measuring machine |
US11501255B2 (en) | 2020-05-01 | 2022-11-15 | Monday.com Ltd. | Digital processing systems and methods for virtual file-based electronic white board in collaborative work systems |
WO2022014023A1 (ja) * | 2020-07-16 | 2022-01-20 | 日本電信電話株式会社 | 機器、方法及びプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5725472A (en) | 1995-12-18 | 1998-03-10 | Weathers; Lawrence R. | Psychotherapy apparatus and method for the inputting and shaping new emotional physiological and cognitive response patterns in patients |
US6842877B2 (en) * | 1998-12-18 | 2005-01-11 | Tangis Corporation | Contextual responses based on automated learning techniques |
JP2001344352A (ja) * | 2000-05-31 | 2001-12-14 | Toshiba Corp | 生活支援装置および生活支援方法および広告情報提供方法 |
JP2009110308A (ja) * | 2007-10-30 | 2009-05-21 | Nec Corp | 緊張度解析装置、方法、プログラム及び携帯電話機 |
US9003447B2 (en) * | 2008-12-31 | 2015-04-07 | Google Technology Holdings LLC | System and method for customizing communication in a social television framework |
US9575776B2 (en) * | 2010-12-30 | 2017-02-21 | Samsung Electrônica da Amazônia Ltda. | System for organizing and guiding a user in the experience of browsing different applications based on contexts |
JP2012160173A (ja) | 2011-01-13 | 2012-08-23 | Nikon Corp | 電子機器および電子機器の制御プログラム |
US20160270717A1 (en) * | 2011-06-10 | 2016-09-22 | Aliphcom | Monitoring and feedback of physiological and physical characteristics using wearable devices |
US9024749B2 (en) * | 2011-12-20 | 2015-05-05 | Chris Ratajczyk | Tactile and visual alert device triggered by received wireless signals |
US9304621B1 (en) * | 2012-05-25 | 2016-04-05 | Amazon Technologies, Inc. | Communication via pressure input |
US20140129243A1 (en) * | 2012-11-08 | 2014-05-08 | Aliphcom | General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band |
US20140247155A1 (en) * | 2013-03-04 | 2014-09-04 | Hello Inc. | Methods using a mobile device to monitor an individual's activities, behaviors, habits or health parameters |
KR20150037251A (ko) * | 2013-09-30 | 2015-04-08 | 엘지전자 주식회사 | 착용형 컴퓨팅 디바이스 및 사용자 인터페이스 방법 |
US10102769B2 (en) | 2015-03-31 | 2018-10-16 | Koninklijke Philips N.V. | Device, system and method for providing feedback to a user relating to a behavior of the user |
US20160363957A1 (en) * | 2015-06-09 | 2016-12-15 | Christian Stroetmann | Wearable computer with electronic strap and attachment therefor |
CN109478100B (zh) * | 2016-07-27 | 2022-06-14 | 索尼公司 | 信息处理系统、记录介质以及信息处理方法 |
-
2017
- 2017-07-13 CN CN201780044743.0A patent/CN109478100B/zh active Active
- 2017-07-13 EP EP17834048.5A patent/EP3493031A4/en active Pending
- 2017-07-13 US US16/315,910 patent/US10796556B2/en active Active
- 2017-07-13 WO PCT/JP2017/025500 patent/WO2018021040A1/ja unknown
- 2017-07-13 JP JP2018529763A patent/JP6969554B2/ja active Active
-
2020
- 2020-08-25 US US17/002,029 patent/US11308787B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190228639A1 (en) | 2019-07-25 |
US10796556B2 (en) | 2020-10-06 |
EP3493031A1 (en) | 2019-06-05 |
JPWO2018021040A1 (ja) | 2019-05-09 |
CN109478100A (zh) | 2019-03-15 |
WO2018021040A1 (ja) | 2018-02-01 |
US11308787B2 (en) | 2022-04-19 |
US20200388142A1 (en) | 2020-12-10 |
EP3493031A4 (en) | 2019-08-14 |
CN109478100B (zh) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6969554B2 (ja) | 情報処理システム、記録媒体、情報処理方法、およびプログラム | |
US11785395B2 (en) | Hearing aid with voice recognition | |
US20220021985A1 (en) | Selectively conditioning audio signals based on an audioprint of an object | |
US20230045237A1 (en) | Wearable apparatus for active substitution | |
CN109032384A (zh) | 音乐播放控制方法、装置及存储介质和穿戴式设备 | |
US20220312128A1 (en) | Hearing aid system with differential gain | |
US11544968B2 (en) | Information processing system, information processingmethod, and recording medium | |
JP6781545B2 (ja) | ロボット | |
TW202347096A (zh) | 用於受損使用者或具備殘疾的使用者之智慧眼鏡介面 | |
JPWO2018168247A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6667878B1 (ja) | 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法 | |
US20230132041A1 (en) | Response to sounds in an environment based on correlated audio and user events | |
KR20200092207A (ko) | 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200623 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211011 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6969554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |