JP2021051424A - 情報処理システム - Google Patents
情報処理システム Download PDFInfo
- Publication number
- JP2021051424A JP2021051424A JP2019172613A JP2019172613A JP2021051424A JP 2021051424 A JP2021051424 A JP 2021051424A JP 2019172613 A JP2019172613 A JP 2019172613A JP 2019172613 A JP2019172613 A JP 2019172613A JP 2021051424 A JP2021051424 A JP 2021051424A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- health
- communication robot
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ユーザの健康管理への配慮を可能とし、かつ、ユーザが親しみ易いコミュニケーションロボットを提供すること。【解決手段】ユーザUの健康管理を支援する情報処理システムにおいて、ウェアラブル端末3のセンサ部301は、ユーザUのコンテクスト情報と行動情報とを取得する。分析部105は、ユーザUのコンテクスト情報と行動情報との分析を行う。生成部106は、分析部105による分析の結果に基づいて、ユーザUの健康情報と、意識促進情報とを、音声情報、文字情報、又は画像情報)として生成する。出力制御部107は、生成部106により、音声情報、文字情報、又は画像情報)として生成された健康情報と意識促進情報とを出力する制御を実行する。【選択図】図7
Description
本発明は、情報処理システムに関する。
近年、高齢化社会や、単独世帯の増加が見込まれるという環境下において、音声対話機能等を備えた、いわゆるコミュニケーションロボットが、人々の生活をサポートするという状況が生まれつつある。
このような状況では、小型で持ち運び可能なコミュニケーションロボットに関する技術も提案されている(例えば特許文献1参照)。
このような状況では、小型で持ち運び可能なコミュニケーションロボットに関する技術も提案されている(例えば特許文献1参照)。
しかしながら、特許文献1に記載の技術を含め従来の技術では、コミュニケーションロボットを小型化させることで持ち運び可能としているが、コミュニケーションロボットを単に組み立て式にすることで小型化を実現させたに過ぎない。
このため、必ずしもユーザが十分に満足できるコミュニケーションロボットが提供されていることはいえなかった。具体的には例えば、従来のコミュニケーションロボットでは、ユーザの健康管理への配慮や、親しみ易さ等について十分に検討されていなかった。
このため、必ずしもユーザが十分に満足できるコミュニケーションロボットが提供されていることはいえなかった。具体的には例えば、従来のコミュニケーションロボットでは、ユーザの健康管理への配慮や、親しみ易さ等について十分に検討されていなかった。
本発明は、このような状況に鑑みてなされたものであり、ユーザの健康管理への配慮を可能とし、かつ、ユーザが親しみ易いコミュニケーションロボットを提供することを目的とする。
上記目的を達成するため、本発明の一態様の情報処理システムは、
ユーザの健康状態を把握するための情報を少なくとも含む第1情報を取得して、前記ユーザの健康管理を支援する情報処理システムにおいて、
前記第1情報を取得する取得手段と、
前記取得手段により取得された前記第1情報の分析を行う分析手段と、
前記分析手段による分析の結果に基づいて、前記ユーザの健康状態を示す情報としての健康情報と、前記ユーザの健康意識を促進させる情報としての意識促進情報とを、所定の出力形式の第2情報として生成する生成手段と、
前記生成手段により生成された前記第2情報を出力する制御を実行する出力制御手段と、
を備える。
ユーザの健康状態を把握するための情報を少なくとも含む第1情報を取得して、前記ユーザの健康管理を支援する情報処理システムにおいて、
前記第1情報を取得する取得手段と、
前記取得手段により取得された前記第1情報の分析を行う分析手段と、
前記分析手段による分析の結果に基づいて、前記ユーザの健康状態を示す情報としての健康情報と、前記ユーザの健康意識を促進させる情報としての意識促進情報とを、所定の出力形式の第2情報として生成する生成手段と、
前記生成手段により生成された前記第2情報を出力する制御を実行する出力制御手段と、
を備える。
本発明によれば、ユーザの健康管理への配慮を可能とし、かつ、ユーザが親しみ易いコミュニケーションロボットを提供することができる。
以下、本発明の実施形態について、図面を用いて説明する。
まず、図1乃至図5を参照して、本発明の一実施形態に係る情報処理システムの構成と、その情報処理システムの適用対象となるサービス(以下、「本サービス」と呼ぶ)の概要について説明する。
図1は、本発明の一実施形態に係る情報処理システムの構成の一例を示す図である。
図1は、本発明の一実施形態に係る情報処理システムの構成の一例を示す図である。
図1に示す情報処理システムは、コミュニケーションロボット1と、サーバ2と、ウェアラブル端末3と、家族端末4とを含むように構成されている。
コミュニケーションロボット1、サーバ2、ウェアラブル端末3、及び家族端末4の夫々は、インターネット等の所定のネットワークNを介して相互に接続されている。
コミュニケーションロボット1、サーバ2、ウェアラブル端末3、及び家族端末4の夫々は、インターネット等の所定のネットワークNを介して相互に接続されている。
コミュニケーションロボット1は、ユーザUと対話する機能(以下、「対話機能」と呼ぶ)と、ユーザUの健康を管理する機能(以下、「健康管理機能」と呼ぶ)とを少なくとも備える情報処理装置である。コミュニケーションロボット1は、タッチパネルMやスピーカ(図示せず)等を備え、音声情報、文字情報、及び画像情報を出力可能する。
「対話機能」とは、具体的には、ユーザUが日常的に用いる自然言語を認識し、自然言語を用いて返答する機能のことをいう。
「自然言語」とは、人間により日常の意思疎通のために用いられる、文化的背景を持って自然に発展してきた言語のことをいう。自然言語の理解は、形態素解析や構文解析等の技術を用いたNLP(自然言語処理)等によって実現される。
「自然言語」とは、人間により日常の意思疎通のために用いられる、文化的背景を持って自然に発展してきた言語のことをいう。自然言語の理解は、形態素解析や構文解析等の技術を用いたNLP(自然言語処理)等によって実現される。
「健康管理機能」とは、ユーザUの健康状態に基づいて、ユーザUの健康状態を示す情報(以下、「健康情報」と呼ぶ)や、健康意識を促進させる情報(以下、「意識促進情報」と呼ぶ)を生成して提示する機能のことをいう。
ユーザUの健康状態は、ユーザUのコンテクスト情報と、行動情報とに基づいて把握される。
健康管理機能により生成される健康情報及び意識促進情報は、音声情報として生成される場合と、文字情報として生成される場合と、画像情報として生成される場合とがある。
ユーザUの健康状態は、ユーザUのコンテクスト情報と、行動情報とに基づいて把握される。
健康管理機能により生成される健康情報及び意識促進情報は、音声情報として生成される場合と、文字情報として生成される場合と、画像情報として生成される場合とがある。
ユーザUの「コンテクスト情報」とは、ユーザUの内的状態及び外的状態の全てを指す情報のことをいう。「内的状態」とは、ユーザU自身を対象とするセンシングによって示される状態をいう。具体的に例えば、ユーザUの、身長、体重、年齢、体調(例えば体温や脈拍数)、感情(例えば喜怒哀楽)は、いずれもユーザUの内的状態の一例である。「外的状態」とは、ユーザUがおかれている環境を対象とするセンシングによって示される状態をいう。具体的に例えば、ユーザUが存在する、又は将来的に存在し得る場所の天気及び予想される天気、気温、室温、温度、空間的若しくは時間的な配置の位置の他、ユーザUの周囲の空間方向と時間方向のうち、少なくとも一方向に分布する所定の状態等は、いずれもユーザUの外的状態の一例である。なお、「時間的な配置の位置」には、例えば現在時刻等が含まれる。
ユーザUの「行動情報」とは、ユーザUが行った行動に関する情報のことをいう。行動情報には、例えばユーザUの日常生活上の自然な行動に関する情報や、ユーザUが積極的に行った運動に関する情報等が含まれる。
コミュニケーションロボット1は、ユーザUのコンテクスト情報及び行動情報をウェアラブル端末3から取得する。ただし、これに限定されず、コミュニケーションロボット1は、サーバ2や家族端末4から取得してもよいし、センサ等を備えることで自ら取得してもよい。
具体的には例えば、ウェアラブル端末3を装着したユーザUがコミュニケーションロボット1に近付くことで、ウェアラブル端末3とコミュニケーションロボット1との間で通信が開始され、情報の共有がなされるようにしてもよい。
具体的には例えば、ウェアラブル端末3を装着したユーザUがコミュニケーションロボット1に近付くことで、ウェアラブル端末3とコミュニケーションロボット1との間で通信が開始され、情報の共有がなされるようにしてもよい。
サーバ2は、サービス提供者(図示せず)により管理される情報処理装置である。サーバ2は、コミュニケーションロボット1、ウェアラブル端末3、及び家族端末4の夫々と適宜通信をしながら、本サービスを実現するための各種処理を実行する。具体的には例えば、サーバ2は、図1の情報処理システム内における各種データの連携や管理を行う。
ウェアラブル端末3は、ユーザUの身体の一部に装着可能とし、ユーザUにより操作される情報処理装置である。ウェアラブル端末3は、ユーザUのコンテクスト情報や行動情報を取得する。ウェアラブル端末3がユーザUのコンテクスト情報や行動情報を取得するので、より精度の高い情報の取得が容易となる。
家族端末4は、ユーザUの親族である家族Fにより操作される情報処理装置であり、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。家族端末4は、ユーザUの健康情報や意識促進情報を取得する。
なお、図1には、ウェアラブル端末3を装着するユーザUと、家族端末4を操作する家族Fとが夫々1人ずつ描画されているが、これは説明を簡略化させるためのものに過ぎない。ウェアラブル端末3を装着するユーザUと、家族端末4を操作する家族Fとの夫々は複数人存在し得る。
本サービスは、サービス提供者(図示せず)からユーザU、及びサプライヤに対して提供されるサービスの一例である。サービス提供者は、図1に示す情報処理システムを利用することで、ユーザUや家族Fに対し、本サービスを提供することができる。
ユーザUは、本サービスを利用することで、コミュニケーションロボット1との間のコミュニケーションを楽しみながら、自身の健康への意識を促進させることができる。
家族Fは、本サービスを利用することで、遠隔地に存在するユーザUの行動や健康状態を容易に把握することができる。
ユーザUは、本サービスを利用することで、コミュニケーションロボット1との間のコミュニケーションを楽しみながら、自身の健康への意識を促進させることができる。
家族Fは、本サービスを利用することで、遠隔地に存在するユーザUの行動や健康状態を容易に把握することができる。
ここで、ユーザU、及び家族Fの夫々は、本サービスの利用者向けの専用のアプリ(以下、「専用アプリ」と呼ぶ)がインストールされたウェアラブル端末3、及び家族端末4の夫々を用いて本サービスを利用することができる。
また、ユーザU、及び家族Fの夫々は、ウェアラブル端末3、及び家族端末4の夫々のブラウザ機能により表示される、専用サイトから本サービスを利用することもできる。
なお、以下、断りのない限り、「ユーザUがウェアラブル端末3を操作する」と表現している場合、それは、次のいずれかを意味している。即ち、ユーザUが、ウェアラブル端末3にインストールされた専用アプリを起動して各種操作を行うこと、又はウェアラブル端末3のブラウザ機能により表示される専用サイトから本サービスを利用することを意味している。
また、「家族Fが家族端末4を操作する」と表現している場合、それは、次のいずれかを意味している。即ち、家族Fが、家族端末4にインストールされた専用アプリを起動して各種操作を行うこと、又は家族端末4のブラウザ機能により表示される専用サイトから本サービスを利用することを意味している。
また、ユーザU、及び家族Fの夫々は、ウェアラブル端末3、及び家族端末4の夫々のブラウザ機能により表示される、専用サイトから本サービスを利用することもできる。
なお、以下、断りのない限り、「ユーザUがウェアラブル端末3を操作する」と表現している場合、それは、次のいずれかを意味している。即ち、ユーザUが、ウェアラブル端末3にインストールされた専用アプリを起動して各種操作を行うこと、又はウェアラブル端末3のブラウザ機能により表示される専用サイトから本サービスを利用することを意味している。
また、「家族Fが家族端末4を操作する」と表現している場合、それは、次のいずれかを意味している。即ち、家族Fが、家族端末4にインストールされた専用アプリを起動して各種操作を行うこと、又は家族端末4のブラウザ機能により表示される専用サイトから本サービスを利用することを意味している。
図2は、コミュニケーションロボットの対話機能と健康管理機能とで実現される、健康情報通知の概要を示すイメージ図である。
コミュニケーションロボット1は、健康管理機能として、ユーザUの健康情報及び意思促進情報をユーザUに提示する。
具体的には例えば、コミュニケーションロボット1は、タッチパネルMに健康情報を表示させるとともに、音声情報として生成した意志促進情報を出力する。
具体的には例えば、コミュニケーションロボット1は、タッチパネルMに健康情報を表示させるとともに、音声情報として生成した意志促進情報を出力する。
図2には、ユーザUとコミュニケーションロボット1との対話の例が2つ示されている。
即ち、対話例P1では、まずユーザUから、「健康情報を見せて!」と発話される。すると、コミュニケーションロボット1は、ユーザUのコンテクスト情報と行動情報とに基づいて健康情報を生成し、タッチパネルMに表示させる。タッチパネルMに表示される健康情報として、例えば直近8日間など、予め設定された内容の情報がグラフ等で示されてもよい。
コミュニケーションロボット1は、タッチパネルMに健康情報を表示させると、それとともに音声情報として生成した意志促進情報を出力する。対話例P1では、コンテクスト情報に含まれる「心拍数」(例えば「135」という比較的高い数値)に基づいて、音声情報としての意思促進情報が生成される。そして、例えば「無理してない?明日はゆっくり休まなきゃだめだよ!」といったメッセージがコミュニケーションロボット1から発話される。
即ち、対話例P1では、まずユーザUから、「健康情報を見せて!」と発話される。すると、コミュニケーションロボット1は、ユーザUのコンテクスト情報と行動情報とに基づいて健康情報を生成し、タッチパネルMに表示させる。タッチパネルMに表示される健康情報として、例えば直近8日間など、予め設定された内容の情報がグラフ等で示されてもよい。
コミュニケーションロボット1は、タッチパネルMに健康情報を表示させると、それとともに音声情報として生成した意志促進情報を出力する。対話例P1では、コンテクスト情報に含まれる「心拍数」(例えば「135」という比較的高い数値)に基づいて、音声情報としての意思促進情報が生成される。そして、例えば「無理してない?明日はゆっくり休まなきゃだめだよ!」といったメッセージがコミュニケーションロボット1から発話される。
また、対話例P2では、まずユーザUから、「健康情報を見せて!」と発話される。すると、コミュニケーションロボット1は、ユーザUのコンテクスト情報と行動情報とに基づいて健康情報を生成し、タッチパネルMに表示させる。
コミュニケーションロボット1は、タッチパネルMに健康情報を表示させるとともに、音声情報として生成した意志促進情報を出力する。対話例P2では、行動情報に含まれる「1日の歩数」(例えば「500歩以下」という少ない数値)と、コンテクスト情報に含まれる「天気」に関する情報に基づいて、音声情報としての意思促進情報が生成される。そして、例えば「今日は雨だったから外に出られなかった?明日は晴れるからお散歩に行こう!」といったメッセージがコミュニケーションロボット1から発話される。
コミュニケーションロボット1は、タッチパネルMに健康情報を表示させるとともに、音声情報として生成した意志促進情報を出力する。対話例P2では、行動情報に含まれる「1日の歩数」(例えば「500歩以下」という少ない数値)と、コンテクスト情報に含まれる「天気」に関する情報に基づいて、音声情報としての意思促進情報が生成される。そして、例えば「今日は雨だったから外に出られなかった?明日は晴れるからお散歩に行こう!」といったメッセージがコミュニケーションロボット1から発話される。
ユーザUは、コミュニケーションロボット1との間で、上述の対話例P1又はP2のようなやり取りをすることで、コミュニケーションロボット1との対話を楽しみながら、自身の健康意思の促進を図ることができる。
図3は、コミュニケーションロボットに表示されるメニュー画面の具体例を示す図である。
図4は、図3のメニュー画面に表示されたメニューのうち、歩数ランキング、目標値設定、及び毎月健康レポートの夫々における対話例を示す図である。
図4は、図3のメニュー画面に表示されたメニューのうち、歩数ランキング、目標値設定、及び毎月健康レポートの夫々における対話例を示す図である。
コミュニケーションロボット1のタッチパネルMには、例えば図3に示すような、ユーザUによる入力操作を可能とするメニュー画面を表示させることができる。このとき、コミュニケーションロボット1が、図3に示すように「〇〇さんの健康ノートをチェックしてみよう!」といったメッセージを発話するようにすることもできる。
図3に示すメニュー画面には、「健康ノート」という表記とともに、「歩数ランキング」と表記されたボタンB1と、「目標値設定」と表記されたボタンB2と、「毎日記録」と表記されたボタンB3と、「毎月健康レポート」と表記されたソフトウェアボタンB4とが表示されている。
図3に示すメニュー画面には、「健康ノート」という表記とともに、「歩数ランキング」と表記されたボタンB1と、「目標値設定」と表記されたボタンB2と、「毎日記録」と表記されたボタンB3と、「毎月健康レポート」と表記されたソフトウェアボタンB4とが表示されている。
メニュー画面に表示されたボタンB1乃至B4のうち、ボタンB1が押下されると、1日の歩数が多いユーザUのランキングの一覧が「歩数ランキング」(図示せず)としてタッチパネルMに表示される。「歩数ランキング」が表示されるようにすることで、ユーザU同士の競争心を煽ることができる。その結果、ユーザUの健康促進を図ることができる。
このように、ユーザUは、メニュー画面に表示されたボタンB1を押下することで「歩数ランキング」を表示させることができるが、ボタンB1を押下することなく、「歩数ランキング」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「歩数ランキング」を表示させることができる。
具体的には例えば、コミュニケーションロボット1は、図4の対話例P3に示すように、「今日の(歩数)ランキング見せて!」といったユーザUの発話に対し、「〇〇さん!なんと10位にランクインしたよ!」といった発話する。
このように、ユーザUは、メニュー画面に表示されたボタンB1を押下することで「歩数ランキング」を表示させることができるが、ボタンB1を押下することなく、「歩数ランキング」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「歩数ランキング」を表示させることができる。
具体的には例えば、コミュニケーションロボット1は、図4の対話例P3に示すように、「今日の(歩数)ランキング見せて!」といったユーザUの発話に対し、「〇〇さん!なんと10位にランクインしたよ!」といった発話する。
メニュー画面に表示されたボタンB1乃至B4のうち、ボタンB2が押下されると、図示はしないが、目標歩数や目標脈拍数等を設定するための画面(以下、「目標設定画面」と呼ぶ)がタッチパネルMに表示される。「目標設定画面」をユーザUに提示して、ユーザUが目標を設定できるようにすることで、ユーザUのやる気を醸成したり、ユーザUに対する注意喚起を行ったりすることができる。なお、目標脈拍数は、例えば診察時に医師に言われた目標値や、平均値等を設定することができる。
このように、ユーザUは、メニュー画面に表示されたボタンB2を押下することで「目標設定画面」を表示させることができるが、ボタンB2を押下することなく、「目標設定画面」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「目標設定画面」を表示させることができる。
具体的には例えば、コミュニケーションロボット1は、図4の対話例P4に示すように、「目標値の達成状況を教えて!」というユーザUの発話に対し、目標が達成された場合には、「わあ、すごい!目標の1万歩を達成したね!」といった発話する。これに対し、目標が達成されなかった場合には、「あと○○歩!明日は今日よりも少し多めに歩いてみよう!」といった発話する。
具体的には例えば、コミュニケーションロボット1は、図4の対話例P4に示すように、「目標値の達成状況を教えて!」というユーザUの発話に対し、目標が達成された場合には、「わあ、すごい!目標の1万歩を達成したね!」といった発話する。これに対し、目標が達成されなかった場合には、「あと○○歩!明日は今日よりも少し多めに歩いてみよう!」といった発話する。
また、目標値を設定する操作自体を、ユーザUの手入力ではなく、対話によって行えるようにすることもできる。具体的には例えば、図示はしないが、コミュニケーションロボット1は、「1日1万歩を目標値にして!」というユーザUの発話に対し、「1日1万歩を目標値として設定するね。了解!がんばろうね!」といった発話する。
また、ユーザUにより設定された目標値が明らかに低すぎるものである場合には、対話によってコミュニケーションロボット1が指摘できるようにすることもできる。具体的には例えば、図示はしないが、コミュニケーションロボット1は、「1日800歩?目標としてはちょっと低すぎるね。もっと頑張ってみよう!」といった発話する。
メニュー画面に表示されたボタンB1乃至B4のうち、ボタンB3が押下されると、コミュニケーションロボット1のカメラ(図示せず)が起動して、ユーザUの撮像が行われる。ユーザUの撮像画像には、撮像日の健康情報の一部(例えば歩数や血圧の数値)が重畳するように表示され、「毎日記録」として記憶されて管理される。「毎日記録」のようにユーザUの撮像画像のデータに健康情報の少なくとも一部を重畳的に表示させ、その撮像画像のデータを家族Fが共有できるようにすることで、家族Fの安心に繋がる。また、記録が行われるタイミングでデータ連携を促すこともできる。なお、負担軽減化のために、コミュニケーションロボット1に保存される撮像画像のデータの量に制限を設けてもよい。
ユーザUは、メニュー画面に表示されたボタンB4を押下することで「毎日記録」を一覧化させた「毎日記録一覧画面」を表示させることができるが、ボタンB4を押下することなく、「毎日記録一覧画面」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「毎日記録一覧画面」を表示させることができる。
具体的には例えば、図示はしないが、「毎日記録一覧を見せて!」というユーザUの発話に対し、コミュニケーションロボット1が、「毎日記録一覧を表示するね!」といった発話する。
具体的には例えば、図示はしないが、「毎日記録一覧を見せて!」というユーザUの発話に対し、コミュニケーションロボット1が、「毎日記録一覧を表示するね!」といった発話する。
メニュー画面に表示されたボタンB1乃至B4のうち、ボタンB4が押下されると、図示はしないが、「毎月健康レポート」として、直近1カ月の健康情報についてのレポートがタッチパネルMに表示される。「毎月健康レポート」のように継続性を有するデータをユーザUに提示することで、ユーザUのやる気の醸成を図ることができる。
このように、ユーザUは、メニュー画面に表示されたボタンB4を押下することで「毎月健康レポート」を表示させることができるが、ボタンB4を押下することなく、「毎月健康レポート」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「毎月健康レポート」を表示させることができる。
具体的には例えば、コミュニケーションロボット1は、図4の対話例P5に示すように、「(毎月健康)レポートを見せて!」というユーザUの発話に対し、「8月の○○さんは・・・30万歩!約2万キロだから地球半周歩いたね!すごい!」といった発話する。
このように、ユーザUは、メニュー画面に表示されたボタンB4を押下することで「毎月健康レポート」を表示させることができるが、ボタンB4を押下することなく、「毎月健康レポート」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「毎月健康レポート」を表示させることができる。
具体的には例えば、コミュニケーションロボット1は、図4の対話例P5に示すように、「(毎月健康)レポートを見せて!」というユーザUの発話に対し、「8月の○○さんは・・・30万歩!約2万キロだから地球半周歩いたね!すごい!」といった発話する。
図5は、ボイステキスト機能、写真受信機能、及び応援機能の夫々における対話例を示す図である。
コミュニケーションロボット1は、「ボイステキスト機能」として、家族端末4から送信されてきたテキストメッセージの読上げを行う機能を有している。
タッチパネルMの所定位置に表示された所定のボタン(図示せず)が押下されると、受信済みのテキストメッセージが一覧化された「テキストメッセージ一覧画面」(図示せず)がタッチパネルMに表示される。
「テキストメッセージ一覧画面」が表示されるようにすることで、ユーザUの不在時にテキストメッセージが送信されてきたとしても、ユーザUがテキストメッセージを見逃すことを防ぐことができる。
このように、ユーザUは、「テキストメッセージ一覧画面」を表示させることができるが、所定のボタンを押下することなく、「テキストメッセージ一覧画面」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「テキストメッセージ一覧画面」を表示させることができる。
具体的には例えば、図5の対話例P6に示すように、「〇〇さん!□□さんからメッセージが届いているよ!」といったコミュニケーションロボット1の発話に対し、ユーザUは、「そのメッセージ読んで!」といった発話をする。すると、コミュニケーションロボット1は、メッセージの内容である「明日10時に荷物が届くからね」といった発話をする。
タッチパネルMの所定位置に表示された所定のボタン(図示せず)が押下されると、受信済みのテキストメッセージが一覧化された「テキストメッセージ一覧画面」(図示せず)がタッチパネルMに表示される。
「テキストメッセージ一覧画面」が表示されるようにすることで、ユーザUの不在時にテキストメッセージが送信されてきたとしても、ユーザUがテキストメッセージを見逃すことを防ぐことができる。
このように、ユーザUは、「テキストメッセージ一覧画面」を表示させることができるが、所定のボタンを押下することなく、「テキストメッセージ一覧画面」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「テキストメッセージ一覧画面」を表示させることができる。
具体的には例えば、図5の対話例P6に示すように、「〇〇さん!□□さんからメッセージが届いているよ!」といったコミュニケーションロボット1の発話に対し、ユーザUは、「そのメッセージ読んで!」といった発話をする。すると、コミュニケーションロボット1は、メッセージの内容である「明日10時に荷物が届くからね」といった発話をする。
コミュニケーションロボット1は、「写真受信機能」として、家族端末4から送信されてきた写真をダウンロードして表示する機能を有している。
タッチパネルMの所定位置に表示された所定のボタン(図示せず)が押下されると、ダウンロードした写真が一覧化された「シェア写真一覧画面」(図示せず)がタッチパネルMに表示される。
「シェア写真一覧画面」が表示されるようにすることで、ユーザUと家族Fとの思い出を記録して共有することができる。
このように、ユーザUは、「シェア写真一覧画面」を表示させることができるが、所定のボタンを押下することなく、「シェア写真一覧画面」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「シェア写真一覧画面」を表示させることができる。
具体的には例えば、図5の対話例P7に示すように、「〇〇さん!□□さんから写真が届いているよ!」といったコミュニケーションロボット1の発話に対し、ユーザUは、「その写真みせて!」といった発話をする。
タッチパネルMの所定位置に表示された所定のボタン(図示せず)が押下されると、ダウンロードした写真が一覧化された「シェア写真一覧画面」(図示せず)がタッチパネルMに表示される。
「シェア写真一覧画面」が表示されるようにすることで、ユーザUと家族Fとの思い出を記録して共有することができる。
このように、ユーザUは、「シェア写真一覧画面」を表示させることができるが、所定のボタンを押下することなく、「シェア写真一覧画面」を表示させることもできる。即ち、ユーザUは、コミュニケーションロボット1と対話をすることで、「シェア写真一覧画面」を表示させることができる。
具体的には例えば、図5の対話例P7に示すように、「〇〇さん!□□さんから写真が届いているよ!」といったコミュニケーションロボット1の発話に対し、ユーザUは、「その写真みせて!」といった発話をする。
コミュニケーションロボット1は、「応援機能」として、家族端末4から送信されてきた、ユーザUに対する応援を示す情報を報知する機能を有している。
家族端末4に表示されている「応援ボタン」(図示せず)が押下されると、家族端末4からコミュニケーションロボット1に対し、ユーザUに対する応援を示す情報が送信される。
これにより、家族Fは、ユーザUに対するメッセージの内容を考えることなく、家族FがユーザUを気にかけていることをユーザUに報知することができる。
具体的には例えば、図5の対話例P8に示すように、コミュニケーションロボット1は、「〇〇さん!□□さんから応援されたよ!」といったの発話の後に続けて、「明日も頑張っちゃおう!」といった発話をする。この場合、「明日も頑張っちゃおう!」という応援メッセージは、予め用意された複数の応援メッセージの中からランダムで選択される。
家族端末4に表示されている「応援ボタン」(図示せず)が押下されると、家族端末4からコミュニケーションロボット1に対し、ユーザUに対する応援を示す情報が送信される。
これにより、家族Fは、ユーザUに対するメッセージの内容を考えることなく、家族FがユーザUを気にかけていることをユーザUに報知することができる。
具体的には例えば、図5の対話例P8に示すように、コミュニケーションロボット1は、「〇〇さん!□□さんから応援されたよ!」といったの発話の後に続けて、「明日も頑張っちゃおう!」といった発話をする。この場合、「明日も頑張っちゃおう!」という応援メッセージは、予め用意された複数の応援メッセージの中からランダムで選択される。
また、本サービスによれば、例えば以下のようなサービスも実現させることができる。
即ち、家族端末4にユーザUの簡易的な健康情報(例えば直近8日間の健康情報)を表示させることができる。これにより、家族FにユーザUについての話題を提供することができる。
また、家族端末4にユーザUの位置情報(例えばGPS(Global Positioning System)位置情報)を表示させることができる。これにより、家族FはユーザUの行動(例えば移動経路等)を把握することができる。ユーザU側で当該機能のON/OFF設定を行えるようにしてもよい。これにより、ユーザUのプライバシーの保護を図ることができる。
また、家族端末4にユーザUの「毎日記録」を表示させることができる。これにより、家族FはユーザUの健康状態を把握することができる。
また、家族端末4に保存されている写真のデータをコミュニケーションロボット1に送信することができる。これにより、ユーザUと家族Fとの間で思い出を共有することができる。
即ち、家族端末4にユーザUの簡易的な健康情報(例えば直近8日間の健康情報)を表示させることができる。これにより、家族FにユーザUについての話題を提供することができる。
また、家族端末4にユーザUの位置情報(例えばGPS(Global Positioning System)位置情報)を表示させることができる。これにより、家族FはユーザUの行動(例えば移動経路等)を把握することができる。ユーザU側で当該機能のON/OFF設定を行えるようにしてもよい。これにより、ユーザUのプライバシーの保護を図ることができる。
また、家族端末4にユーザUの「毎日記録」を表示させることができる。これにより、家族FはユーザUの健康状態を把握することができる。
また、家族端末4に保存されている写真のデータをコミュニケーションロボット1に送信することができる。これにより、ユーザUと家族Fとの間で思い出を共有することができる。
図6は、図1に示す情報処理システムのうちコミュニケーションロボットのハードウェア構成の一例を示すブロック図である。
コミュニケーションロボット1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19及びドライブ20が接続されている。
入力部16は、各種ハードウェア釦等で構成され、操作者の指示操作に応じて各種情報を入力する。
出力部17は、液晶等のディスプレイやスピーカ等により構成され、各種情報を画像や音声として出力する。
入力部16と出力部17とでタッチパネルMを構成する。
出力部17は、液晶等のディスプレイやスピーカ等により構成され、各種情報を画像や音声として出力する。
入力部16と出力部17とでタッチパネルMを構成する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(例えば図1のサーバ2、ウェアラブル端末3、及び家族端末4等)との間で通信を行う。具体的には例えば、通信部19は、Bluetooth(登録商標)やWi−Fi等の通信技術を利用して、ウェアラブル端末3との間で通信を行う。
通信部19は、インターネットを含むネットワークNを介して他の装置(例えば図1のサーバ2、ウェアラブル端末3、及び家族端末4等)との間で通信を行う。具体的には例えば、通信部19は、Bluetooth(登録商標)やWi−Fi等の通信技術を利用して、ウェアラブル端末3との間で通信を行う。
ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。
また、リムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
また、リムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
なお、図示はしないが、図1のサーバ2、ウェアラブル端末3、及び家族端末4も、図1に示すハードウェア構成と基本的に同様の構成を有することができる。従って、サーバ2、ウェアラブル端末3、及び家族端末4のハードウェア構成の説明については省略する。
このような図6のコミュニケーションロボット1の各種ハードウェアと各種ソフトウェアとの協働により、コミュニケーションロボット1における健康管理処理を含む各種処理の実行が可能になる。その結果、サービス提供者は、ユーザU、及び家族Fに対し、上述の本サービスを提供することができる。
「健康管理処理」とは、上述の本サービスを提供するために実行される処理のことをいう。
以下、図7を参照して、本実施形態に係る情報処理システムのうち、コミュニケーションロボット1において実行される、健康管理処理を実行するための機能的構成について説明する。
「健康管理処理」とは、上述の本サービスを提供するために実行される処理のことをいう。
以下、図7を参照して、本実施形態に係る情報処理システムのうち、コミュニケーションロボット1において実行される、健康管理処理を実行するための機能的構成について説明する。
図7は、図6のコミュニケーションロボットを含む情報処理システムの機能的構成のうち、健康管理処理を実行するための機能的構成の一例を示すブロック図である。
図7に示すように、コミュニケーションロボット1のCPU11においては、健康管理処理の実行が制御される場合、データ管理部101と、取得部102と、認識部103と、受付部104と、分析部105と、生成部106と、出力制御部107とが機能する。
また、コミュニケーションロボット1の記憶部18の一領域にはユーザDB181と、メッセージDB182とが設けられている。ユーザDB181には、ユーザUに関するあらゆる情報(以下、「ユーザ情報」と呼ぶ)が、ユーザUを一意に特定可能なID等に対応付けられて管理されている。ユーザUのコンテクスト情報や行動情報は、いずれもユーザ情報に含まれる情報である。メッセージDB182には、出力制御部107により出力の制御が実行される、ユーザUに対するメッセージのひな型となる情報(以下、「ひな形情報」と呼ぶ)が記憶されている。
また、コミュニケーションロボット1の記憶部18の一領域にはユーザDB181と、メッセージDB182とが設けられている。ユーザDB181には、ユーザUに関するあらゆる情報(以下、「ユーザ情報」と呼ぶ)が、ユーザUを一意に特定可能なID等に対応付けられて管理されている。ユーザUのコンテクスト情報や行動情報は、いずれもユーザ情報に含まれる情報である。メッセージDB182には、出力制御部107により出力の制御が実行される、ユーザUに対するメッセージのひな型となる情報(以下、「ひな形情報」と呼ぶ)が記憶されている。
また、ウェアラブル端末3の図示せぬCPUにおいては、健康管理処理の実行が制御される場合、センサ部301が機能する。
データ管理部101は、コミュニケーションロボット1の記憶部18に記憶されている各種の情報の管理を行う。
具体的には、データ管理部101は、ユーザDB181に記憶されているユーザ情報と、メッセージDB182に記憶されているひな形情報との管理を行う。
具体的には、データ管理部101は、ユーザDB181に記憶されているユーザ情報と、メッセージDB182に記憶されているひな形情報との管理を行う。
取得部102は、ユーザUの健康状態を把握するための所定情報を取得する。
具体的には、取得部102は、ユーザUの健康状態を把握するための所定情報として、ウェアラブル端末3に記憶されている、ユーザUのコンテクスト情報と行動情報とを取得する。取得部により取得された、ユーザUのコンテクスト情報及び行動情報は、ユーザDB181に記憶され、データ管理部101により管理される。
具体的には、取得部102は、ユーザUの健康状態を把握するための所定情報として、ウェアラブル端末3に記憶されている、ユーザUのコンテクスト情報と行動情報とを取得する。取得部により取得された、ユーザUのコンテクスト情報及び行動情報は、ユーザDB181に記憶され、データ管理部101により管理される。
また、取得部102は、ユーザUの音声情報を取得する。
具体的には、取得部102は、ユーザUが発話した場合に、その音声を示す情報を音声情報として取得する。
具体的には、取得部102は、ユーザUが発話した場合に、その音声を示す情報を音声情報として取得する。
認識部103は、取得部102により取得された音声情報の認識を行う。
具体的には、認識部103は、取得部102により取得された音声情報のうち、ユーザUが日常的に用いる自然言語を認識する。上述したように、自然言語の認識は、形態素解析や構文解析等の技術を用いたNLP(自然言語処理)等によって実現される。
具体的には、認識部103は、取得部102により取得された音声情報のうち、ユーザUが日常的に用いる自然言語を認識する。上述したように、自然言語の認識は、形態素解析や構文解析等の技術を用いたNLP(自然言語処理)等によって実現される。
受付部104は、ユーザUによる入力操作を受付ける。
具体的には、受付部104は、コミュニケーションロボット1のタッチパネルM(図3)に表示されたボタンB1乃至B4の夫々を押下する操作(例えばタップ操作)を受付ける。
具体的には、受付部104は、コミュニケーションロボット1のタッチパネルM(図3)に表示されたボタンB1乃至B4の夫々を押下する操作(例えばタップ操作)を受付ける。
分析部105は、取得部102により取得された、ユーザUの健康状態を把握するための所定情報の分析を行う。
具体的には、分析部105は、取得部102により取得され、データ管理部101により管理されている、ユーザUのコンテクスト情報と、行動情報とを少なくとも含む情報の分析を行う。
具体的には、分析部105は、取得部102により取得され、データ管理部101により管理されている、ユーザUのコンテクスト情報と、行動情報とを少なくとも含む情報の分析を行う。
生成部106は、分析部105による分析の結果に基づいて、ユーザUの健康状態を示す情報としての健康情報と、ユーザUの健康意識を促進させる情報としての意識促進情報とを、所定の出力形式の情報として生成する。
なお、生成部106により生成される健康情報及び意識促進情報の形式は特に限定されない。上述したように、健康情報及び意識促進情報は、自然言語による音声情報として生成される場合と、文字情報として生成される場合と、画像情報として生成される場合とがある。
なお、生成部106により生成される健康情報及び意識促進情報の形式は特に限定されない。上述したように、健康情報及び意識促進情報は、自然言語による音声情報として生成される場合と、文字情報として生成される場合と、画像情報として生成される場合とがある。
健康情報及び意識促進情報が音声情報として生成される場合とは、具体的には、コミュニケーションロボット1が、ユーザUに対して、音声情報によるメッセージを発話する場合である。音声情報によるメッセージには、コミュニケーションロボット1により生成されたオリジナルのメッセージの他、家族Fからの応援メッセージを含まれる。
即ち、コミュニケーションロボット1は、ユーザUに対する音声によるメッセージとして、音声情報として生成された意識促進情報の出力を行う。
即ち、コミュニケーションロボット1は、ユーザUに対する音声によるメッセージとして、音声情報として生成された意識促進情報の出力を行う。
健康情報及び意識促進情報が文字情報として生成される場合とは、具体的には、コミュニケーションロボット1が、タッチパネルMに、ユーザUの健康情報、歩数ランキングの結果、ユーザUの目標値、ユーザUの毎月健康レポート等の文字情報を表示させる場合である。
健康情報及び意識促進情報が画像情報として生成される場合とは、具体的には、コミュニケーションロボット1が、タッチパネルMに画像情報を表示させる場合である。タッチパネルMに表示される画像情報としては、例えばユーザUの撮像画像のデータ、写真受信機能により受信された写真の画像データ、健康情報を示す各種グラフや表等が含まれる。
出力制御部107は、生成部106により所定の出力形式の情報として生成された、ユーザUの健康状態を示す情報としての健康情報と、ユーザUの健康意識を促進させる情報としての意識促進情報とを出力する制御を実行する。
具体的には、出力制御部107は、音声情報、文字情報、又は画像情報として生成された、ユーザUの健康情報と意識促進情報とを出力する制御を実行する。
具体的には、出力制御部107は、音声情報、文字情報、又は画像情報として生成された、ユーザUの健康情報と意識促進情報とを出力する制御を実行する。
ウェアラブル端末3のセンサ部301は、ユーザUの健康状態を把握するための所定情報を取得する。
具体的には、センサ部301は、ユーザUの健康状態を把握するための所定情報として、ユーザUのコンテクスト情報と行動情報とを取得する。
具体的には、センサ部301は、ユーザUの健康状態を把握するための所定情報として、ユーザUのコンテクスト情報と行動情報とを取得する。
以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものとみなす。
例えば、上述の実施形態では、家族端末4は、ユーザUの親族である家族Fが操作する構成となっているが、これは例示に過ぎない。ユーザUの行動や健康状態の把握する権利義務を有する者であれば、ユーザUの親族に限らず家族端末4の操作主体となることができる。具体的には例えば、病院に入院中のユーザUの看護を行う者や、学校の寮に入寮中のユーザUの健康管理義務を負う者等は、家族端末4の操作主体となることができる。
また例えば、上述の実施形態では、コミュニケーションロボット1にユーザUの健康情報が表示されるとともに、意思促進情報を示すメッセージが発話される構成となっているが、これは例示に過ぎない。コミュニケーションロボット1に健康情報が表示されるタイミングと、意思促進情報を示すメッセージが発話されるタイミングとは必ずしも連動している必要はない。また、いずれか一方のみが行われるようにしてもよい。
また例えば、上述の実施形態では、ユーザUの健康情報はコミュニケーションロボット1に表示される構成となっているが、これに限定されず、例えばウェアラブル端末3や家族端末4に健康情報が表示されるようにしてもよい。
また例えば、上述の実施形態では、意識促進情報が画像情報として生成される場合、生成される画像情報は写真等の静止画像とされているが、静止画像に限定されず、動画像であってもよい。
また、図1に示すシステム構成、図6に示すコミュニケーションロボット1のハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。
また、図7に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図7の例に限定されない。
また、機能ブロックの存在場所も、図7に限定されず、任意でよい。
例えば、図7の例において、上述の健康管理処理はコミュニケーションロボット1側で行われる構成となっているが、これに限定されず、ウェアラブル端末3側や家族端末4側で健康管理処理の少なくとも一部が行われてもよい。
即ち、健康管理処理の実行に必要となる機能ブロックは、コミュニケーションロボット1側が備える構成となっているが、これは例示に過ぎない。コミュニケーションロボット1側に配置された機能ブロックの少なくとも一部を、ウェアラブル端末3側や家族端末4側が備える構成としてもよい。
例えば、図7の例において、上述の健康管理処理はコミュニケーションロボット1側で行われる構成となっているが、これに限定されず、ウェアラブル端末3側や家族端末4側で健康管理処理の少なくとも一部が行われてもよい。
即ち、健康管理処理の実行に必要となる機能ブロックは、コミュニケーションロボット1側が備える構成となっているが、これは例示に過ぎない。コミュニケーションロボット1側に配置された機能ブロックの少なくとも一部を、ウェアラブル端末3側や家族端末4側が備える構成としてもよい。
また、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、広告主にプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で広告主に提供される記録媒体等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上まとめると、本発明が適用される情報処理システムは、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理システムは、
ユーザ(例えば図1のユーザU)の健康状態を把握するための情報を少なくとも含む第1情報(例えばユーザUのコンテクスト情報と行動情報)を取得して、前記ユーザの健康管理を支援する情報処理システムにおいて、
前記第1情報を取得する取得手段(例えば図7のウェアラブル端末3のセンサ部301)と、
前記取得手段により取得された前記第1情報の分析を行う分析手段(例えば図7の分析部105)と、
前記分析手段による分析の結果に基づいて、前記ユーザの健康状態を示す情報としての健康情報と、前記ユーザの健康意識を促進させる情報としての意識促進情報とを、所定の出力形式の第2情報(例えば音声情報、文字情報、又は画像情報)として生成する生成手段(例えば図7の生成部106)と、
前記生成手段により生成された前記第2情報を出力する制御を実行する出力制御手段(例えば図7の出力制御部107)と、
を備える。
即ち、本発明が適用される情報処理システムは、
ユーザ(例えば図1のユーザU)の健康状態を把握するための情報を少なくとも含む第1情報(例えばユーザUのコンテクスト情報と行動情報)を取得して、前記ユーザの健康管理を支援する情報処理システムにおいて、
前記第1情報を取得する取得手段(例えば図7のウェアラブル端末3のセンサ部301)と、
前記取得手段により取得された前記第1情報の分析を行う分析手段(例えば図7の分析部105)と、
前記分析手段による分析の結果に基づいて、前記ユーザの健康状態を示す情報としての健康情報と、前記ユーザの健康意識を促進させる情報としての意識促進情報とを、所定の出力形式の第2情報(例えば音声情報、文字情報、又は画像情報)として生成する生成手段(例えば図7の生成部106)と、
前記生成手段により生成された前記第2情報を出力する制御を実行する出力制御手段(例えば図7の出力制御部107)と、
を備える。
これにより、取得された第1情報の分析結果に基づいて、ユーザの健康情報と意識促進情報とが、所定の出力形式である第2情報として生成されて出力される。その結果、ユーザの健康管理への配慮を可能とするコミュニケーションロボットが提供可能となる。
また、前記取得手段は、前記ユーザにより装着されるウェアラブル端末(例えば図7のウェアラブル端末3)とすることができる。
これにより、ウェアラブル端末3が第1情報を取得するので、より精度の高い第1情報の取得が容易となる。
また、前記取得手段は、
前記第1情報として、前記ユーザのコンテクスト情報と行動情報との少なくとも一方を取得することができる。
前記第1情報として、前記ユーザのコンテクスト情報と行動情報との少なくとも一方を取得することができる。
これにより、第1情報として、ユーザのコンテクスト情報と行動情報とが取得されるので、様々な視点に基づいて、ユーザの健康情報と意識促進情報とが第2情報として生成されて出力される。その結果、より高いレベルで、ユーザの健康管理への配慮を可能とするコミュニケーションロボットが提供可能となる。
また、前記生成手段は、
前記第2情報として、音声情報、文字情報、及び画像情報のうち少なくとも1の情報を生成することができる。
前記第2情報として、音声情報、文字情報、及び画像情報のうち少なくとも1の情報を生成することができる。
これにより、第2情報として、音声情報、文字情報、及び画像情報のうち少なくとも1の情報が生成されるので、ユーザが親しみ易いコミュニケーションロボットが提供可能となる。
1・・・コミュニケーションロボット、2・・・サーバ、3・・ウェアラブル端末、4・・家族端末、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・入力部、17・・・出力部、18・・・記憶部、19・・・通信部、20・・・ドライブ、30・・・リムーバルメディア、101・・・データ管理部、102・・・取得部、103・・・認識部、104・・・受付部、105・・・分析部、106・・・生成部、107・・・出力制御部、301・・・センサ部、181・・・ユーザDB、182・・・メッセージDB、U・・・ユーザ、F・・・ユーザの家族、P1乃至P8・・・対話例、B1乃至B4・・・ボタン、N・・・ネットワーク、M・・・タッチパネル
Claims (4)
- ユーザの健康状態を把握するための情報を少なくとも含む第1情報を取得して、前記ユーザの健康管理を支援する情報処理システムにおいて、
前記第1情報を取得する取得手段と、
前記取得手段により取得された前記第1情報の分析を行う分析手段と、
前記分析手段による分析の結果に基づいて、前記ユーザの健康状態を示す情報としての健康情報と、前記ユーザの健康意識を促進させる情報としての意識促進情報とを、所定の出力形式の第2情報として生成する生成手段と、
前記生成手段により生成された前記第2情報を出力する制御を実行する出力制御手段と、
を備える情報処理システム。 - 前記取得手段は、前記ユーザにより装着されるウェアラブル端末である、
請求項1に記載の情報処理システム。 - 前記取得手段は、
前記第1情報として、前記ユーザのコンテクスト情報と行動情報との少なくとも一方を取得する、
請求項1又は2に記載の情報処理システム。 - 前記生成手段は、
前記第2情報として、音声情報、文字情報、及び画像情報のうち少なくとも1の情報を生成する、
請求項1乃至3のうちいずれか1項に記載の情報処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172613A JP2021051424A (ja) | 2019-09-24 | 2019-09-24 | 情報処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172613A JP2021051424A (ja) | 2019-09-24 | 2019-09-24 | 情報処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021051424A true JP2021051424A (ja) | 2021-04-01 |
Family
ID=75157939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019172613A Pending JP2021051424A (ja) | 2019-09-24 | 2019-09-24 | 情報処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021051424A (ja) |
-
2019
- 2019-09-24 JP JP2019172613A patent/JP2021051424A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8803690B2 (en) | Context dependent application/event activation for people with various cognitive ability levels | |
US9208661B2 (en) | Context dependent application/event activation for people with various cognitive ability levels | |
US20210042794A1 (en) | System and Method for Personalized Preference Optimization | |
US9286442B2 (en) | Telecare and/or telehealth communication method and system | |
US8176135B2 (en) | Method and system for enhanced messaging | |
US9998886B2 (en) | Method and system for enhanced messaging using emotional and locational information | |
US10706971B2 (en) | System for management and intervention of neurocognitive related conditions and diseases | |
JP6719072B2 (ja) | 接客装置、接客方法及び接客システム | |
KR20160099552A (ko) | 서비스 제공 관리 시스템 | |
WO2017062163A1 (en) | Proxies for speech generating devices | |
US20190228850A1 (en) | Interactive pill dispensing apparatus and ecosystem for medication management | |
Croatti et al. | A personal medical digital assistant agent for supporting human operators in emergency scenarios | |
EP3360056A1 (en) | Facilitating awareness and conversation throughput in an augmentative and alternative communication system | |
Yfantidou et al. | 14 Years of Self-Tracking Technology for mHealth—Literature Review: Lessons Learned and the PAST SELF Framework | |
JP6342095B1 (ja) | 健康管理システム、健康管理方法、プログラム、及び記録媒体 | |
JP2018093977A (ja) | 看視システム、看視方法、及びプログラム | |
Kbar et al. | Utilizing sensors networks to develop a smart and context-aware solution for people with disabilities at the workplace (design and implementation) | |
JP2019133270A (ja) | コンピュータプログラム、支援装置及び支援方法 | |
JP2021051424A (ja) | 情報処理システム | |
JP2019057168A (ja) | コンピュータプログラム、サーバ装置、指導システム、指導方法、指導者端末装置及び被指導者端末装置 | |
JP7405357B2 (ja) | 高齢者等見守システム | |
Luxton | Behavioral and mental health apps. | |
Taghian et al. | Developing an integrated medication adherence system: Exploring the potential of i‐Ware's augmented reality goggles and mobile application | |
JP2020201669A (ja) | 情報処理装置 | |
US11646106B1 (en) | Intelligent multi-party remote care system |