図1は、本発明の実施例のコミュニケーションシステムの構成を示す図である。
本実施例のコミュニケーションシステムは、対話端末1及びリモートブレイン2によって構成される。対話端末1は、利用者の近くに設置され、リモートブレイン2からの指示に従って動作し、主に音声によって利用者とコミュニケーションする。対話端末1は、一人の利用者が複数を利用しても、一つを利用してもよい。対話端末1は常に利用者とコミュニケーションできるように、利用者の近傍に存在することが望ましい(図2参照)。このため、利用者が複数の対話端末1を利用する場合は、利用者が使用する部屋毎に対話端末1が設置されるとよい。また、利用者が一つの対話端末1を利用する場合は、対話端末1は走行機能を有し、利用者の移動に従って移動するとよい。
リモートブレイン2は、対話端末1から周囲の情報(音、明るさ、気温など)を収集し、利用者とのコミュニケーションに関する指示を対話端末1に送信する利用者情報制御・管理装置20で構成される。リモートブレイン2は、生活サポートサービスプロバイダが運営しており、クラウド上の計算機によって構成されている。利用者情報制御・管理装置20の詳細な構成は、図23を用いて後述する。
対話端末1とリモートブレイン2とは、通信回線3を介して接続される。通信回線3は、有線ネットワーク(例えば、イーサネット(登録商標))でも無線ネットワーク(例えば、WiFi)でもよいが、移動可能な対話端末1は無線で通信可能に構成するとよい。
また、リモートブレイン2は、各種サービスプロバイダが保有する外部システム4と接続されており、利用者が外部サービスを受けるためのインターフェースとして対話端末1を機能させる。例えば、利用者は、対話端末1を介してEコマースシステム4に接続して、所望の物品を購入して、自宅への配達ができる。また、利用者は、ヘルスケアサービスシステム4や病院システム4に接続して、健康管理に関する助言(例えば、処方薬の服用タイミングのお知らせサービス)や医師による問診を受けることができる。
図3は、対話端末1の構成を示すブロック図である。
対話端末1は、制御部101、記憶部102、通信インターフェース104、入力部106、マイクロホン109、出力部110及びスピーカ111を有する。対話端末1は、画像生成部103及び表示装置112を有してもよい。さらに、対話端末1は、発光装置105、カメラ107、センサ108及び駆動装置113の少なくとも一つを有してもよい。
制御部101は、プログラムを実行するプロセッサによって構成される。記憶部102は、プログラムやデータを格納するメモリによって構成される。メモリは、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、OS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサが実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。メモリに格納されたプログラムをプロセッサが実行することによって、対話端末1が諸機能を発揮する。
画像生成部103は、表示装置112に表示する画像を生成する。すなわち、リモートブレイン2からの指示や各種入力デバイス(カメラ107、センサ108、マイクロホン109等)に入力された周囲の状況に従って、記憶部102に格納された画像パターンから表示装置112に表示する画像を選択する。例えば、対話端末1の球体部11(図10参照)表示される目を模した模様19を選択する。
通信インターフェース104は、所定のプロトコルを用いて、他の装置(例えば、リモートブレイン2を構成する利用者情報制御・管理装置20)と通信する。
発光装置105は、図5に示すように、対話端末1の上方に設けられる球体部11を光らせるための可視光を放射する光源である。発光装置105は、後述する表示装置112として機能する投影装置の光源と共用してもよいし(図9参照)、表示装置112と別に設けてもよい。
入力部106は、カメラ107、センサ108、マイクロホン109などの入力デバイスからの信号を制御部101に送るインターフェースである。
カメラ107は、対話端末1の周囲の画像を撮影する。カメラ107が撮影する画像は、動画像でも、静止画像(例えば、1秒に1枚)でもよい。カメラ107が撮影した画像は、通信インターフェース104を介してリモートブレイン2に送られ、顔認識技術を用いて利用者を識別するために用いられる。カメラ107は、周囲の画像を撮影するために、半球を撮影できる魚眼カメラでも、2以上のカメラによって全球を撮影できるものでもよい。また、対話端末1が移動機能を有する場合、カメラ107が撮影した距離画像を用いて、対話端末1の周囲の障害物を検出して、対話端末1と他の物体との接触を防止できる。
センサ108は、対話端末1の周囲に人がいるかを検出する人感センサであり、赤外線や超音波や可視光画像などを用いて人を検知する。対話端末1は、対話端末1の周囲の環境を計測するセンサを有してもよい。例えば、温度、湿度などを測定し、測定結果を制御部101に送る。対話端末1が測定した温度が高温(例えば、65度以上)になった場合、部屋に火災が発生していると判定し、警報を発報するとよい。また、警報に伴い、対話端末1は、リモートブレイン2に異常を報知してもよい。さらに、リモートブレイン2から警備会社の警備システムに異常を通報してもよい。
マイクロホン109は、周囲の音(例えば、利用者が発した音声)を収集して、電気信号に変換するデバイスである。マイクロホン109は、無指向性でも、指向性を有してもよい。指向性マイクロホンを使用すると、音の到来方向から話者の位置を特定でき、話者の方向に、所定の画像を表示することによって、対話端末1が話者と向き合ってコミュニケーションするように制御できる。
出力部110は、スピーカ111、制御部101からの信号を表示装置112など各種出力デバイスに送るインターフェースである。
スピーカ111は、制御部101が発生した電気信号から変換した音(例えば、利用者にかける言葉、アラーム音など)を発生するデバイスである。
表示装置112は、対話端末1の一部(又は全部)の表面に所定の画像を映す装置であり、利用者と、より密なコミュニケーションをとるために使用される。例えば、対話端末1の表面を光透過型(例えば、半透明)の樹脂材料で形成し、対話端末1の内部に投影装置を設ける。そして、投影装置が対話端末1の内表面に画像を投影することによって、利用者が対話端末1の表面に表わされた画像を視認できる。また、対話端末1の表面の一部に液晶表示装置を設け、当該液晶表示装置に所定の画像を表示してもよい。なお、表示装置112は液晶表示装置ではなく、対話端末1の表面に画像を表示できるものであればよい。
例えば、対話端末1の球体部11(図10参照)に目を模した模様19を表示する。また、対話端末1は、利用者が所望する画像を通信回線3を経由して取得し、表示装置112に出力するプロジェクション機能を有してもよい。
駆動装置113は、対話端末1の部分を動かすための駆動装置であり、例えば、図4に示す球体部11を回動させたり、対話端末1の基部12を傾けたりする。具体的には、制御部101からの指令信号によって動作するステッピングモータやソレノイドを設け、筐体の一部を動作させるとよい。また、駆動装置113は、対話端末1を移動させる走行部を含んでもよい。例えば、制御部101からの指令信号によって回転する車輪を底面に設けたり、複数本の脚で走行部を構成して、脚の動きによって歩行してもよい。
対話端末1は、付加機能ユニット114を有してもよい。例えば、図11に示すように、対話端末1の基部12の下に投薬ユニット14を取り付ける。投薬ユニット14は、所定の時間になると服用すべき薬が取り出せるように制御される。
図4から図16は、対話端末1の外観を示す図であり、図4は消灯時の対話端末1の正面視、図5は、点灯時の対話端末1の正面視を示す。また、図6は、対話端末1の外観を示す六面図である。図6のうち、(A)は正面図、(B)は背面図、(C)は左側面図、(D)は右側面図、(E)は平面図、(F)は底面図である。図7は、対話端末1の透光性素材からなる部分を示す参考正面図であり、図8は、対話端末1の外観を示す参考斜視図であり、図9は、対話端末1のA−A’断面図である。断面図の切断位置は、図6の(B)背面図に示す。図10は、表示状態の対話端末1の外観を示す正面図である。
対話端末1は、基部12と、基部12の上方に設けられる球体部11とで構成される。なお、対話端末1の外観は一例であり、他の形状(例えば、動物の形状)でもよい。
球体部11は、図7のハッチングで示す部分が光を透過する材料(樹脂やガラス)で構成されており、球体部11の内部に設けられた発光装置105を点灯することによって、図4に示す消灯状態から図5に示す点灯状態に切り替えることができる。点灯状態の対話端末1は、ルームライトとして使用できる。基部12内の発光装置105からは上方に光が放射され、球体部11の内面を照射する。図9において網目のハッチングで示した範囲が光の照射範囲である。なお、図9には、発光装置105が表示装置112の光源と共用される例を示したが、表示装置112と別に設けてもよい。
基部12は、制御部101、記憶部102、画像生成部103、通信インターフェース104、発光装置105、入力部106、カメラ107、センサ108、マイクロホン109、出力部110、スピーカ111及び表示装置112を収容する。基部12の正面には、カメラ107が周囲を撮影するための光を導入する穴13が設けられており、穴13には透明の樹脂材料が取り付けられている。なお、穴13からセンサ108が周囲の人を検出してもよく、マイクロホン109が周囲の音を収集してもよい。
また、球体部11の内面には、表示装置112によって画像が投影され、利用者が、投影された画像を対話端末1の外部から視認できる。例えば、図10、図11に示すように、目を模した模様19を球体部11に表示することによって、球体部11を顔に模して目19によって表情を作ることができる。対話端末1は、利用者からの呼びかけや利用者への問いかけに伴って、目19を表示し、表情を作る。この目19は球体部11上を移動して、また形を変えて表示される。また、目の他に口を表示してもよい。なお、表情の例は図39を用いて後述する。
また、図10に示すように、球体部11が基部12に対して回動可能に構成してもよい。球体部11の回動によって、投影された画像と球体部11に描かれた画像との位置関係を変えて、利用者と、より密なコミュニケーションを取ることができる。
また、対話端末1には付加ユニット14を取り付けることができる。
図11は、付加ユニット(投薬ユニット14)を取り付けた対話端末1の正面視を示す。また、図12は、対話端末1の外観を示す六面図である。図12のうち、(A)は正面図、(B)は背面図、(C)は左側面図、(D)は右側面図、(E)は平面図、(F)は底面図である。図13は、対話端末1の透光性素材からなる部分を示す参考正面図であり、図14は、対話端末1の外観を示す参考斜視図であり、図15は、投薬ユニット14のトレー15が開いた状態の対話端末1の外観を示す参考斜視図であり、図16は、対話端末1のB−B’断面図である。断面図の切断位置は、図12の(B)背面図に示す。
例えば、図11に示すように、基部12の下に取り付けられた投薬ユニット14は、制御部101の制御によって開放されるトレー15を有する。トレー15には、利用者が服用する薬剤を格納する凹部16が設けられる。トレー15が開くと、利用者は、投薬ユニット14から服用すべき薬が取り出せる。また、投薬ユニット14は、トレー15内の薬の有無を検出するセンサを有し、センサが計測した重さや画像によって、トレー15から薬が取り出されたことを検出すると、トレー15が閉まる。
投薬ユニット14の内部には、服用すべき薬剤が格納される格納領域17が設けられており、所定の服用時刻に所定の服用量だけの薬が取り出せるように制御される。投薬ユニット14は、格納領域17に格納される薬剤の全てが服用される前(例えば、1週間毎などの定期的)に交換されるとよい。
図17から図22は、投薬ユニット14の外観を示す図である。図17は、投薬ユニット14の外観を示す六面図である。図17のうち、(A)は正面図、(B)は背面図、(C)は左側面図、(D)は右側面図、(E)は平面図、(F)は底面図である。図18は、投薬ユニット14の外観を示す参考斜視図であり、図19は、投薬ユニット14のC−C’断面図である。断面図の切断位置は、図17の(B)背面図に示す。また、図20は、トレー15が開いた状態の投薬ユニット14の外観を示す六面図である。図20のうち、(A)は正面図、(B)は背面図、(C)は左側面図、(D)は右側面図、(E)は平面図、(F)は底面図である。図21は、トレー15が開いた状態の投薬ユニット14の外観を示す参考斜視図であり、図22は、トレー15が開いた状態の投薬ユニット14のD−D’断面図である。断面図の切断位置は、図20の(B)背面図に示す。
図13、図14に示すように、投薬ユニット14は対話端末1の基部12の下部に取り付けられる。図18に示すように、投薬ユニット14の上面には、対話端末1の下面に設けられた端子18Aと接続する端子18Bが設けられる。投薬ユニット14には、端子18A、18Bを介して電源が供給される。また、端子18A、18Bを介して、制御部101が投薬ユニット14と通信してもよい。制御部101と投薬ユニット14とは、近距離無線(例えば、ブルートゥース(登録商標))によって通信してもよい。
図19、図22に示すように、投薬ユニット14の下面には他の付加ユニットと接続するための端子18Cが設けられる。投薬ユニット14は、対話端末1から供給された電源を、端子18Cを介して、他の付加ユニットに供給する。
すなわち、対話端末1は、主に家庭で使用され、利用者と対話するロボットである。また、基部12の上方に設けられる球体部11が発光する。さらに、基部12の上方に設けられる球体部11に顔を模した模様が表示される。基部12の下部には付加ユニット(投薬ユニット14)が取り付け可能である。
図7、図13に示す参考正面図において、斜線を施した部分は光透過性を有する。図9、図16に示す断面図において、基部12に設けられた発光装置105から上方の網目のハッチングで示した範囲が光の照射範囲である。
付加ユニット(投薬ユニット14)は、対話端末1の基部12の下部に取り付けられ、トレー15を有する。トレー15は、付加ユニット14の内部に収容されているが、図15、図20、図21、図22に示すように、付加ユニット14から突出する。
図23は、リモートブレイン2を構成する利用者情報制御・管理装置20の構成を示す図である。
利用者情報制御・管理装置20は、制御部201、分析部211、記憶部221及び通信インターフェース231を有し、プロセッサ、メモリ及び記憶装置を有する計算機によって構成される。メモリに格納されたプログラムをプロセッサ(例えば、主制御プログラム、人工知能プログラム、対話プログラム等)が実行することによって、制御部201及び分析部211の機能を発揮する。
メモリは、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサが実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
制御部201は、主制御部202、Eコマースインターフェース部203及びヘルスケアインターフェース部204を含む。主制御部202は、利用者情報制御・管理装置20の全体の動作を制御する。例えば、利用者毎のイベントを検出し、外部サービスとのインターフェースを起動する。Eコマースインターフェース部203は、Eコマースシステム4と接続し、利用者にEコマースサービスを提供するインターフェースである。ヘルスケアインターフェース部204は、ヘルスケアサービスシステム4と接続し、利用者にヘルスケアサービス(例えば、投薬管理)を提供するインターフェースである。
分析部211は、人工知能212、対話エンジン213及び行動判定部214を含む。
人工知能212は、入力されたデータを学習し、学習結果に基づいた推論によって結果を導出する。本実施例では、人工知能212は、対話エンジン213の一部を構成し、利用者の発話を分析し、応答を作成する。また、人工知能212は、行動判定部214の一部を構成し、過去と異なる発言や行動を検出したり、認知症の疑いの有無を判定する。
対話エンジン213は、利用者との対話を制御する。すなわち、対話エンジン213は、利用者の発話を分析し、応答を作成する。対話エンジン213は、複数のレベルの対話パターンを含むとよい。例えば、通常のレベル、認知症の疑いがあるレベル、認知症が進行したレベルなどである。行動判定部214は、利用者の対話や行動を分析し、利用者の行動レベルを判定する。例えば、行動判定部214は、認知症の疑い、認知症のレベルを判定する。
記憶部221は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置である。記憶部221は、プログラムの実行時にアクセスされるデータを格納する。また、記憶部221は、分析部211が実行するプログラムを格納してもよい。この場合、プログラムは、記憶部221から読み出されて、メモリにロードされて、プロセッサによって実行される。具体的には、記憶部221は、対話エンジン用データベース、利用者情報データベース及びサービス情報データベースを格納する。
対話エンジン用データベースは、利用者毎の対話端末1の情報が記録されるロボット情報222を含む。ロボット情報222の詳細は、図24を参照して後述する。
利用者情報データベースは、サービス利用情報223及び利用者情報224を含む。サービス利用情報223は、利用者がサービスを利用した履歴を記録する。サービス利用情報223の詳細は、図25、図26を参照して後述する。利用者情報224は、利用者情報224A、登録サービス情報224B及びアイデンティティ情報224Cを含む。利用者情報224Aは、図27に示すように、利用者を特定可能な個人情報を記録する。登録サービス情報224Bは、図28に示すように、利用者が利用の登録をしているサービスの情報を記録する。アイデンティティ情報224Cは、図29に示すように、利用者の個人的な属性を記録する。
サービス情報データベース225は、図示を省略するが、前述したサービス利用情報223の全利用者分のデータで構成される。すなわち、サービス利用情報223は、サービス情報データベース225から利用者毎のデータを抽出したものである。
サービス情報データベース225は、外部システム4が保有するサービス情報データベース425と同期しており、サービス情報データベース425の更新に伴い、サービス情報データベース225が更新される。例えば、図26に示すサービス利用情報(ヘルスケアサポート)223は、ヘルスケアサービスシステム4が保有するサービス情報データベース425から取得したデータを格納する。
通信インターフェース231は、所定のプロトコルに従って、他の装置(例えば、対話端末1)との通信を制御するネットワークインターフェースデバイスである。
利用者情報制御・管理装置20は、入力インターフェース及び出力インターフェースを有してもよい。入力インターフェースには、例えば、キーボードやマウスなどが接続され、オペレータからの入力を受ける。出力インターフェースには、ディスプレイ装置やプリンタなどが接続され、プログラムの実行結果をオペレータが視認可能な形式で出力する。
利用者情報制御・管理装置20のプロセッサが実行するプログラムは、リムーバブルメディア(CD−ROM、フラッシュメモリなど)又はネットワークを介して利用者情報制御・管理装置20に提供され、非一時的記憶媒体である不揮発性の記憶部221に格納される。このため、利用者情報制御・管理装置20は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。
利用者情報制御・管理装置20は、複数の物理的計算機資源上に構築されたクラウド上の仮想計算機であり、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムで動作するものでもよい。
図24は、ロボット情報222の一例を示す図である。
ロボット情報222は、利用者毎の対話端末1の情報を記録し、固体ID、オーナー、利用中の対話エンジン、連携しているサービス、会話履歴、応答した表情のパターンと回数、及び分析履歴のデータフィールドを含む。
固体IDは、対話端末1に一意に付与された識別情報である。オーナーは、当該対話端末1の利用者である。
利用中の対話エンジンは、当該対話端末1で利用されている対話エンジン213のレベルである。対話エンジンは、レベル毎に、認知症の疑いのしきい値、判定条件及び会話パターンが定められており、対話エンジン213のレベルによって、利用者との会話及び会話の文脈に応じた応答のパターンが異なる。例えば、対話エンジン213のレベルには、通常の会話の他、認知機能低下を抑制させる複数のレベルがあり、当該レベルの対話エンジン213では、認知症の進行を抑制する効果がある対話(質問、返答、呼びかけ等)を含めるように制御する。対話エンジン213は、利用者の状態の分析結果(例えば、認知機能の状態)によって、そのレベルが変更される。すなわち、会話の内容や他のサービスの利用状況などを総合しら分析によって、認知症の兆候があるかを判定し、認知機能が低下していると判定されると、対話エンジン213が認知機能に適したレベルに変更される。
連携しているサービスは、当該対話端末1によって利用できる外部サービスである。会話履歴は当該対話端末との対話の履歴であり、最後に会話した日(又は日時)が記録される。会話記録は、会話の時系列の履歴でもよい。また、会話記録が会話の詳細を含むように記録してもよい。会話の詳細は、マイクロホン109が収集した音データや話者の表情を写した動画像データ(音声付き)でもよい。また、音データを解析したテキストデータでもよい。テキストデータから当該会話を特徴付ける単語(例えば、いちご、ストロベリーパイ、バター等)を抽出して、会話の詳細データをタグ付けするとよい。
応答した表情のパターンと回数は、当該対話端末1が、利用者の対話の応答時に表示された画像のパターンと回数であり、対話端末1が応答した表情が記録される。分析履歴は、当該対話端末1の利用者の状態を分析した日である。
図25は、サービス利用情報(Eコマース)223の一例を示す図である。
サービス利用情報(Eコマース)223は、各利用者がEコマースサービスを利用した履歴を記録し、利用日時、Eコマース会社名、注文内容、個数、配達予定時刻、配達業者、ドライバ、及び注配/配達状況のデータフィールドを含む。
利用日時は、利用者がEコマースサービスを利用した日時である。図では年月日を記録しているが、時刻まで記録してもよい。Eコマース会社名は、Eコマースサービスを提供する会社名である。注文内容及び個数は、それぞれ購入した商品名及び数量である。配達予定時刻は、商品の配達予定時刻である。配達業者及びドライバは、それぞれ商品を配達する業者名及びドライバの名前である。注配/配達状況は、商品の注文から配達までの構成手進捗状況である。
図26は、サービス利用情報(ヘルスケアサポート)223の一例を示す図である。
サービス利用情報(ヘルスケアサポート)223は、各利用者がヘスケアサポートサービスを利用した履歴を記録し、利用日時、薬品名、投薬判定、医師との会話、担当主治医、薬剤師、及び服薬時間のデータフィールドを含む。サービス利用情報(ヘルスケアサポート)223は、投薬ユニット14の交換履歴を含んでもよい。
利用日時は、利用者がヘルスケアサービスを利用した日時である。図では年月日を記録しているが、時刻まで記録してもよい。薬品名は、利用者が服用すべき薬品名である。投薬判定は、利用者が当該日時に薬を服用したかを示す。なお、本システムでは、薬を飲み忘れた場合、次の投薬タイミングで医師と会話するように促すとよい。医師との会話は、前述した飲み忘れに対して医師と会話をしたかを記録する。担当主治医及び薬剤師は、それぞれ主治医及び薬剤師の名前である。服薬時間は、薬を服用した時刻である。
例えば、図示した2行目のデータは、2017年2月2日に薬の服用を忘れて、医師と会話したことを示す。
図27は、利用者情報224Aの一例を示す図である。
利用者情報224Aは、利用者を特定可能な個人情報を記録し、ID、氏名、性別、年齢、住所、連絡先、保証人、支払い、及び利用期間のデータフィールドを含む。
IDは、利用者を一意に識別可能な識別情報である。氏名、性別、年齢、住所、及び連絡先は、それぞれ利用者の氏名、性別、年齢、住所、及び電話番号である。保証人は、利用者に代わって諸手続を行う権限を付与された者である。支払いは、当該コミュニケーションシステムの利用料金を支払う方法である。利用期間は、当該コミュニケーションシステムの利用期間である。
図28は、登録サービス情報224Bの一例を示す図である。
登録サービス情報224Bは、利用者が利用の登録をしているサービスの情報を記録し、利用サービスプラン、利用状況(頻度)、利用期間、及び月額利用料のデータフィールドを含む。利用サービスプランは、利用者が当該サービスで利用しているプランである。利用状況(頻度)及び利用期間は、それぞれ利用者が当該サービスを利用している頻度及び期間である。月額利用料は、当該サービスの利用料である。
図29は、アイデンティティ情報224Cの一例を示す図である。
アイデンティティ情報224Cは、利用者の個人的な属性を記録し、対話エンジン213が利用者との会話の話題(トピック)を探すために用いられる。アイデンティティ情報224Cは、趣味、特技、生活サイクル、性格、及びトレーニング結果のデータフィールドを含む。趣味及び特技は、それぞれ利用者の趣味及び性格である。生活サイクルは、利用者の起床時刻及び就寝時刻である、生活サイクルに、毎日定期的に行われる行動を記録してもよい。性格は、人工知能212が、ユーザとの会話から分析した利用者の性格である。トレーニング結果は、人工知能212が、ユーザとの会話を分析する上で生じた事項である。
アイデンティティ情報224Cのうち、趣味、特技、及び生活サイクルは、ユーザが対話端末1を使い始める際に入力する。アイデンティティ情報224Cのうち、趣味、特技、生活サイクル、性格、及びトレーニング結果は、利用者情報制御・管理装置20が利用者の会話や行動(注文履歴、カメラ画像など)を分析した結果を記録する。すなわち、趣味、特技、及び生活サイクルは、利用者によって初期値が入力され、人工知能212が分析した結果で更新される。
また、アイデンティティ情報224C(特に、趣味、特技)は、過去の事項も保存しておき、利用者に過去の出来事を思い出させる会話のトピックとして用いられる。
次に、対話端末1や利用者情報制御・管理装置20が実行する処理を説明する。
図30は、メイン処理のフローチャートである。メイン処理のステップ301〜302は対話端末1で実行され、ステップ303以後は利用者情報制御・管理装置20で実行される。
対話端末1は、休止モードでは、ライトを消灯し、表情を表示しない状態で、センサ108が対話端末1の周囲の人の有無を監視する(301)。
対話端末1が、周囲の人を検出すると待機モードに移行し、カメラ107及びマイクロホン109を起動し、周囲の映像及び音声の収録を開始する。収録された映像及び音声は利用者情報制御・管理装置20に送信される(302)。
主制御部202は、対話端末1が待機モードに移行したことを検出すると、ハンドオーバ処理(図31)を起動し、対話端末1から送信された映像及び音声を分析して、利用者の近傍にある対話端末1を判定する(303)。
主制御部202は、対話端末1から送信された音声を分析した結果、言語「ライト」を認識すると、該対話端末1に照明点灯を指示する(304)。また、主制御部202は、対話端末1から送信された画像を分析した結果、ライトを点灯するジェスチャーを検出すると、該対話端末1に照明点灯を指示してもよい。対話端末1は、照明点灯指示を受けると、発光装置105を点灯する。なお、対話端末1にタッチセンサを設け、利用者による対話端末1への接触をタッチセンサが検出すると、照明を点灯してもよい。
主制御部202は、予め設定された投薬時間が到来すると、投薬管理処理(図32)を起動する(305)。投薬管理処理では、ヘルスケアインターフェース部204が、投薬時間を報知し、利用者に薬の服用を促す。
主制御部202は、対話端末1から送信された音声を分析した結果、商品購入意思を検出すると、Eコマース処理(図33)を起動する(306)。Eコマース処理では、Eコマースインターフェース部203が、利用者のEコマースによる商品の購入をサポートする。
主制御部202は、対話端末1から送信された音声を分析した結果、対話端末1への呼びかけを認識すると、会話処理(図34)を起動する(307)。具体的には、対話端末1と対話エンジン213を接続し、利用者が対話エンジン213と会話可能な状態にする。
以上に説明したものの他、利用者情報制御・管理装置20は、利用者の様々なアクション(発話、行動など)を検出して、該アクションに対応する処理を起動してもよい。
図31は、ハンドオーバ処理のフローチャートである。
ハンドオーバ処理では、近傍に人を検出した対話端末1から送信された映像及び音声を分析して、利用者の近傍にある対話端末1を判定する。
まず、主制御部202は、待機モードに移行した対話端末1がから送信された映像及び音声を分析して、該対話端末1が検出した人が利用者であるかを判定する(311)。具体的には、撮影された画像の顔認識や、収集された音声の声紋解析によって個人を判定できる。
検出した人が利用者である場合、当該対話端末1は待機モードに移行するように(又は、待機モードを維持するように)制御する(312)。対話端末1は、カメラ107及びマイクロホン109による周囲の映像及び音声の収録を続ける。
利用者が他の対話端末1で検出された場合、以前に利用者を検出していた対話端末1を休止モードに移行する(313)。
このように、複数の対話端末1が利用者の移動を追跡するので、アクティブな対話端末1が常に利用者の近傍に存在し、利用者と常にコミュニケーションできるようになる。
図32は、投薬管理処理のフローチャートである。
主制御部202が、所定の服用時刻の到来を検出すると、ヘルスケアインターフェース部204を起動して投薬管理処理を実行し、利用者による薬剤の服用をサポートする。この薬剤服用サポートの様子は図38に示す。
すなわち、ヘルスケアインターフェース部204は、利用者への会話を発し投薬時間を報知して、トレー15を開く(321)。そして、利用者が薬をトレー15から取り出したことを検出すると、ヘルスケアインターフェース部204はトレー15を閉め(322)、サービス利用情報(ヘルスケアサポート)223の投薬判定及び服薬時刻を記録する(323)。
なお、他の対話端末1に薬が格納されている場合、どの場所で薬が提供されるかを案内するとよい。また、全ての対話端末1に薬を格納しておき、利用者の近傍の対話端末1が服薬時刻を報知し、薬を提供してもよい。
図33は、Eコマース処理のフローチャートである。
利用者がEコマースを利用する場合、商品の発注を対話端末1に語りかける。対話エンジン213が、利用者の発話がEコマースの利用だと判定すると、Eコマースインターフェース部203を起動してEコマース処理を実行し、利用者の買い物をサポートする。この買い物サポートの様子は図36(A)に示す。
すなわち、Eコマースインターフェース部203は、利用者の発話に基づいて、注文を受け(331)、利用者が契約しているEコマースシステム4へ接続し、商品を発注する(332)。そして、Eコマースインターフェース部203は、注文内容や注文回数などの行動パターンをロボット情報222及びサービス利用情報(Eコマース)223に記録する(333)。サービス利用情報(Eコマース)223は、Eコマースシステム4から収集したデータによって更新してもよい。
図34は、会話処理のフローチャートである。
対話エンジン213は、利用者との対話の文脈を分析し(341)、分析した文脈に基づいて、次の会話のトピックを選択し(342)、選択されたトピックを対話端末1に送信し、ユーザに発話する(343)。その後、対話エンジン213は、対話端末1が捕捉した利用者の返答を受けると(344)、過去の会話や文脈から次の発言を選択し、選択された発言を対話端末1に送信し、ユーザに発話する(345)。以上の対話エンジン213による一連の処理において、利用者の発言を保存し、発言の内容を分析して、対話端末1の次のアクション(発話、表情)を判定する。
図35は、行動判定処理のフローチャートである。
行動判定処理は、予め定められた所定のタイミングで主制御部202が行動判定部214を起動することによって実行する。例えば、行動判定処理を月に1回実行して、利用者の認知症のレベルを判定するとよい。
まず、行動判定部214は、記録された発言パターンや行動パターンを参照し、過去と異なる発言や行動を検出する(351)。具体的には、過去の発言を様々な観点で特徴量化し、現在の発言の特徴量と比較し、特徴量の差が所定の閾値を超えた場合、過去と異なる発言であると判定する。同様に、行動の特徴量を用いて、過去と異なる行動も検出する。行動は、対話端末1のカメラ107が取得した画像やEコマースインターフェース部203を経由した商品の発注状況によって分析できる。例えば、検出される事象は、発話回数の減少、繰り返しの発話、同じ商品の発注の繰り返しなどである。
その後、行動判定部214は、過去と異なる発言や行動を、過去の発話パターン、健康状態、及び他のユーザの類似行動と照合し、認知症の疑いの有無を判定する(352)。例えば、検出される事象として、発話回数の減少、繰り返しの発話の多発などが検出された場合、認知症の疑いがあると判定する。
行動判定部214は、認知症の疑いがあると判断された場合、対話エンジン213を認知機能低下を抑制させるレベルに切り替え、日々の対話の中に抑制の効果がある質問や返答、呼びかけを含めるように制御する(353)。
その後、行動判定部214は、対話内容から、認知機能の低下を判定し(354)、判定された認知機能のレベルに対話エンジン213を切り替える(355)。
一方、認知症の疑いがないと判断された場合、通常の生活支援を継続して行う(356)。
このように、行動判定処理では、利用者のレベルを判定し、利用者のレベルに適するように、対話端末1の役割を変化させる。この行動判定処理による対話端末1の役割の変化の様子は図36、図37に示す。
以上、行動判定処理で認知症のレベルを判定する例を説明したが、他の種類の行動を判定して、生活サポートのレベルを変更してもよい。
図36(A)は、買い物サポートの様子を示す図である。
対話端末1が利用者からの問いかけを検出すると、目の画像を表示し、利用者への応対が可能なことを知らせる。そして、利用者から「リンゴ3個とバターを一箱買ってちょうだい。」と問いかけられると、利用者の発話がEコマースの利用だと対話エンジン213が判定し、Eコマースインターフェース部203を起動する。Eコマースインターフェース部203は、利用者が契約しているEコマースシステム4へ接続し、商品を発注する。そして、Eコマースインターフェース部203は、Eコマースシステム4からの回答(注文の諾否、配送予定など)を対話エンジン213からユーザに伝える。
図36は、行動判定処理による対話端末1の役割の変化の契機の例を示す図である。
図36(A)は、Eコマースの利用シーンであり、10時にリンゴ3個とバターを一箱が購入されている。
図36(B)は、図36(A)から4時間後の13時のEコマースの利用シーンであり、利用者がリンゴ3個の購入を要求している。対話エンジン213は、1日に複数回同じ商品を注文していると判定し、通常の処理のように、Eコマースインターフェース部203を起動することなく、「今朝もリンゴ買ったけど、誰かにプレゼントするの?」と返答し、注文が重複しているか、追加で必要なのかを確認する。そして、追加の注文であることが確認できると、Eコマースインターフェース部203を起動して、商品をへ発注する。
一方、注文が重複していると判定されると、当該会話履歴を行動判定部214に送り、当該重複した注文を分析し、行動の変化であるかを判定する。例えば、所定の時間内に重複した注文を複数回検出した場合、利用者に認知症の疑いがあると判定できる。
図37は、認知機能低下の抑制の例を示す図である。
図37(A)に示すように、会話が少ない利用者には、会話の契機となる発話を行って、利用者を会話に誘導する。例えば、利用者が過去に頻繁にクロワッサンを焼いていたという行動が記録されている場合、利用者が料理本を何となく見ている時に、「ねえ、今度クロワッサンを焼いてみようよ」と、過去の行動を思い出させて、同じ行動を行わせるとよい。そして、クロワッサンの作り方のページを見るように誘導できる。
また、図37(B)に示すように、思考を巡らせるトレーニングを提案してもよい。例えば、図37(A)に示す対話に続いて、対話端末1が「何を買っておいたらいい?」と発話し、クロワッサンを焼くために必要なものを利用者に考えさせ、思考を巡らせる契機を作るとよい。
さらに、図37(C)に示すように、不足する情報をサポートしてもよい。例えば、対話端末1からの「何を買っておいたらいい?」との問いかけに対して、利用者の返事が曖昧だったり不足している場合、利用者が失念している又は欠落している情報を対話端末1が提案し、利用者の生活をサポートする。その後、対話端末1は、利用者の行動を見守り続ける。
このように、利用者のサポートによって、対話により認知機能の低下を抑制し、利用者の次のアクションを導出できる。
図38は、投薬管理の様子を示す図である。
図38(A)に示すように、主制御部202が、所定の服用時刻の到来を検出すると、ヘルスケアインターフェース部204を起動する。ヘルスケアインターフェース部204は、「12時です。お薬を飲んでね。今日の薬は薬品Aが1錠、薬品Bが2錠だよ。」と利用者へ問いかけて、投薬時間の到来、服用する薬の種類及び数を報知して、トレー15を開く。そして、利用者が薬をトレー15から取り出したことを検出すると(図38(B))、ヘルスケアインターフェース部204はトレー15を閉める。
図39は、対話端末1の表情の例を示す図である。
[A]は、対話端末1が、周囲の人を検出した待機モードから、対話端末に呼びかけがあった、または対話端末からの発話をするモードに移行した状態の対話端末1の表情を示す。[A]に示す状態では、目の周りの模様が短時間で様々に(例えば、ランダムに)変化する。その後[F]に示すように、起動音と共に目が表示され、[D]の定常状態となる。[D]定常状態からは、[B]挨拶をする表情、[C]お礼を言う表情、[E]了解の表情、[G]考え中の表情、[H]お願いする表情、[I]眠い表情、[J]対話が終了し、待機モードに移行する無表情などを、利用者や対話端末1の状態に応じて切り替えて表示する。例えば、[G]考え中の表情は、対話端末1が受けた利用者からの問いかけに対して、リモートブレイン2から応答を受けるまでの間に表示される。このように、対話端末1は、目の周りの模様を様々に変化して利用者とコミュニケーションする。
以上に説明したように、本発明の実施例によると、リモートブレイン2は、対話端末1が収集した音及び画像の少なくとも一つを解析して、利用者の状態を判定し、判定された利用者の状態に応じて、対話エンジン213の動作レベルを変更するので、利用者の状態に適する対話を提供できる。これにより、同じ対話端末1を長期間使用する動機づけができる。また、利用者が危険な状態になったときに、警告を発することができる。
また、利用者に認知症の疑いがあると判定されると、対話エンジン213は、利用者の認知症の進行を抑制する会話パターンに動作レベルを変更するので、昔の記憶を思い出させて、病状の進行を抑制できる。特に、利用者の発話回数の増加を促すことができる。
また、リモートブレイン2は、対話端末1の周囲に人が検出されると、当該対話端末が収集した音及び画像の少なくとも一つを解析して、検出された人が予め登録された利用者であるかを判定し、利用者が検出された対話端末1のマイクロホン109及びカメラ107を動作させて音及び画像を収集し、利用者が検出されていない対話端末1のマイクロホン109及びカメラ107を非動作状態に切り替えるので、各部屋に設置した複数の対話端末1で継続するサポートを利用者に提供できる。
また、対話端末1は、発光装置105を有するので、部屋に置いても違和感のないルームライトとして使用できる。また、対話端末1が収集した音及び画像の少なくとも一つから、発光装置105の点灯要求を検出すると、対話端末1が発光装置105を点灯させるので、利用者の音声やジェスチャーによって対話端末1を制御して、ルームライトを点灯、消灯できる。
また、対話端末1は、利用者が服用する薬剤を格納する投薬ユニット14を有し、所定の時刻になると、投薬ユニット14から薬剤が取り出し可能に(トレー15を開くように)制御するので、利用者の薬の飲み忘れを防止できる。
また、リモートブレイン2は、対話端末1が収集した音及び画像の少なくとも一つを解析して、利用者の状態を時系列に記録し、前記利用者の状態に応じて、対話端末1の機能を変化させるので、利用者の状態が変化しても、同じ対話端末1を使用し続けることができ、利用者が愛着を持って対話端末1を使用できる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。