以下、本発明の一実施形態について、図面を参照しつつ説明する。
図1は、一実施形態に係る見守りシステム1の構成を示す図である。見守りシステム1は、人工知能エージェント端末利用者23と会話することによって人工知能エージェント端末利用者23の状況を把握するための見守りシステムであって、人工知能エージェント端末2と見守りサーバ3と見守り端末4を備える。人工知能エージェント端末2と見守りサーバ3と見守り端末4とは、有線又は無線LANなどの通信回線24を介してインターネットを通じて双方向にデータを送受信できる状態になっている。
人工知能エージェント端末2は、人工知能エージェント端末利用者23が入力した会話データに対しての応答と、人工知能エージェント端末利用者23との会話を終わらせるための終話と、人工知能エージェント端末利用者23への話しかける発話とを行う端末である。人工知能エージェント端末2は、一実施形態としてスマートフォンのアプリケーションを使用するが、他の端末、例えばロボットや専用端末、タブレットでも良い。
見守りサーバ3は、人工知能エージェント端末2から受け取ったデータに基づいて、学習データから応答、発話、終話に対応する会話データを人工知能エージェント端末2へ送信するサーバである。人工知能エージェント端末2から受け取ったデータに基づいて、学習データ17と会話データ18を参照した際、学習データ17によって算出された数値が指定した範囲内であった場合、見守り端末に通知を行う。
見守り端末4は、見守りサーバ3が検出した会話データを受信する端末である。見守り端末4は、必要に応じて見守りサーバ3の会話データと学習データを閲覧することができる。また見守り端末4は、見守りサーバ3を介さずに人工知能エージェント端末2に会話データを送信することができる。
図2は、一実施形態に係る人工知能エージェント端末2の機能的構成を示す図である。人工知能エージェント端末2は、人工知能エージェント端末利用者23と会話を行うため、人工知能エージェント5と会話表示部8と人工知能エージェント端末送信部9と人工知能エージェント端末受信部10を備える。
人工知能エージェント5は、人工知能エージェント端末利用者23が閲覧する会話表示部8に会話データを送信するため、応答部6と会話開始部7を備える。
人工知能エージェント端末利用者23が入力した会話データに対しての応答を行う際は、会話表示部8に入力された会話データを人工知能エージェント5の応答部6で受信し、人工知能エージェント端末送信部9へ会話データを送信する。見守りサーバ3から返ってきた会話データは人工知能エージェント端末受信部10で受信し、応答部6へ送信され、会話表示部8に表示される。
人工知能エージェント端末利用者23との会話を終わらせるための終話を行う際は、会話表示部8に入力された会話データを人工知能エージェント5の応答部6で受信し、人工知能エージェント端末送信部9へ会話データを送信する。見守りサーバ3から返ってきた会話データは人工知能エージェント端末受信部10で受信し、応答部6へ送信され、会話表示部8に表示される。人工知能エージェント端末利用者23が発した会話に対しての応答と人工知能エージェント端末利用者23との会話を終わらせるための終話は、見守りサーバ3から受信したデータに基づいて行われる。
人工知能エージェント端末利用者23へ話しかける発話を行う際は、会話開始部7が会話表示部8の状態と、過去の会話データに基づいて、人工知能エージェント端末送信部9に会話データの送信を行う。見守りサーバ3から返ってきた会話データは人工知能エージェント端末受信部10で受信し、会話表示部8へ送信され、会話表示部8に表示される。
図3は、一実施形態に係る見守りサーバ3の機能的構成を示す図である。見守りサーバ3は、人工知能エージェント端末2と見守り端末4から受信したデータに基づいて返信を行うサーバであって、見守りサーバ受信部11と会話データ変換部12と学習データ生成部13と通知部14と見守りサーバ送信部15と記録部16とを備える。
見守りサーバ3の記録部16は、学習データ17と会話データ18とを備える。学習データ17は学習を行ったニューラルネットワークやディープラーニングのフレームワークと呼ばれる機械学習装置と受信した会話データから数値を算出する処理を含む。また学習データ17と会話データ18は、リレーショナルデータベースと呼ばれるデータベース装置に記録される。
見守りサーバ3は、人工知能エージェント端末2から会話データを見守りサーバ受信部11で受信し、記録部16の学習データ17によって算出された数値と会話データ18を参照し、見守りサーバ送信部15へ会話データの送信を行う。送信する会話データは、図12に示すような学習データ17によって算出された数値からもっとも数値の高いものを行う。図12に示す数値は、一例であり学習データ生成部13の構造と生成された学習によってデータの構造が変化する。また、学習データについては、後ほど説明を行う。
会話データ変換部12は、記録部16の会話データ18から会話データを受け取り、学習データ生成部13へ送信するためのデータ変換を行う。
学習データ生成部13は、会話データ変換部12が変換した会話データを受け取り、学習データを生成し、記録部16に記録する。学習データ生成部13はニューラルネットワークやディープラーニングのフレームワークと呼ばれる機械学習装置である。また、記録部16に記録される学習データ17は、学習済みのニューラルネットワークやディープラーニングのフレームワークと数値を含む。
通知部14は、見守り端末4へデータを送信するため、学習データ17と会話データ18を参照し、学習データ17によって算出された数値が指定した範囲内であった会話データを検出した際には、見守りサーバ送信部15にデータを送信する。
図4は、一実施形態に係る見守り端末4の機能的構成を示す図である。見守り端末4は、人工知能エージェント端末利用者23の状況を把握するための端末であって、見守り端末受信部19と見守り端末送信部20と表示部21と会話データ入力部22とを備える。見守り端末4は、見守りサーバ3から送信されたデータを見守り端末受信部19で受信し、表示部21に表示する。
見守り端末4は、会話データ入力部22に会話データを入力することによって、見守りサーバ3を介することなく人工知能エージェント端末2に会話データを送信することができる。
これまで、見守りシステム1の機能的な構成について説明した。ここから、見守りシステム1が備える人工知能エージェント端末2と見守りサーバ3と見守り端末4のそれぞれが実行する処理の流れの一例について図を参照しつつ説明する。
図5は、人工知能エージェントによる応答の流れを示すフローチャートである。同図に示す応答処理は、人工知能エージェント端末2と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されており、人工知能エージェント端末利用者23の会話データの入力によって処理が実行される(ステップS101)。
人工知能エージェント5は、応答部6で会話データの確認を行い、会話データを人工知能エージェント端末送信部9に送信する(ステップS102)。
人工知能エージェント端末送信部9は、見守りサーバ3の見守りサーバ受信部11に会話データを送信する(ステップS103)。
見守りサーバ3は、学習データ17を参照する(ステップS104)。
見守りサーバ3は、過去の会話データの履歴や時間のデータと、学習データ17によって算出された数値を確認する(ステップS105)。このとき、数値が指定した範囲内であった場合は、会話内容の特異性が検知されたことになり、見守り端末4に通知を行う。特異性の検知については、後ほど説明を行う。
会話内容の特異性検知が検知された場合、見守りサーバ3は、人工知能エージェント端末2から受信した会話データと関連する学習データ17のデータを、通知部14に送信する(スがテップS106)。
通知部14は、受信したデータと予め定められた見守り端末4の送信先情報とを見守りサーバ送信部15へ送信する。見守りサーバ送信部15は、見守り端末4にデータを送信する(ステップS107)。
見守り端末4は見守り端末受信部19でデータを受信する。見守り端末4を使用している見守り者は、会話データの内容を確認し、会話データ入力部22に状況確認のデータを入力する。入力されたデータは見守り端末送信部20を介して、人工知能エージェント端末受信部10に送信される(ステップS107)。
人工知能エージェント端末2は、受信したデータを応答部6から会話表示部8へ送信する(ステップS115)。
人工知能エージェント端末利用者23が、適切に会話に応答したした場合、状況が確認できたため、終了となる(ステップS116)。また人工知能エージェント端末利用者23が応答のために入力した会話データは、見守りサーバ3に送信される。
人工知能エージェント端末利用者23が、応答しなかった場合、または適切な応答をしなかった場合、見守り端末4の使用者が緊急対応を行う(ステップS117)。
次に、ステップS105で会話内容の特異性が検知されなかった場合について説明する。
見守りサーバ3は、会話内容の特異性検知が検知されなかった場合、会話データ18から必要な会話データを抽出し、見守りサーバ送信部15へ会話データを送信する(ステップS108)。
人工知能エージェント端末2は、人工知能エージェント端末受信部10で会話データを受信し、応答部6へ送信する(ステップS109)。
応答部6は、複数の人工知能エージェント5から応答する会話・人工知能エージェントの選択を行う(ステップS110)。複数の人工知能エージェントが存在するのは、汎用的に使用できる人工知能エージェントと、人工知能エージェント端末利用者23に対応した人工知能エージェントなどがあるためである。例えば、方言に対応した人工知能エージェントがある。
応答部6は、選択した会話・人工知能エージェントのデータを会話表示部8に送信する(ステップS111)。
人工知能エージェント端末利用者23は、会話表示部8を介して会話を閲覧し、終了となる(ステップS112)。
人工知能エージェントによる応答の流れは、人工知能エージェント端末利用者23が会話データを入力するたびに繰り返し行われる。図7に示した人工知能エージェントによる終話が確認されたとき、会話が終了する。人工知能エージェントによる終話については後ほど説明を行う。
図6は、人工知能エージェントによる発話の流れを示すフローチャートである。同図に示す発話処理は、人工知能エージェント端末2と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されており、人工知能エージェント5の会話開始部7による会話データの未受信によって処理が実行される(ステップS201)。
会話開始部7は、過去の会話データの履歴や時間のデータを元に会話データの未受信を自動的に判断し、人工知能エージェント端末送信部9を介して、見守りサーバ3に会話データの参照を行う。見守りサーバ受信部11は、人工知能エージェント端末2から会話データの未受信の情報を受け取ると記録部16の学習データ17を参照する(ステップS202)。
過去の会話データの履歴や時間のデータを元に、学習データ17によって算出された数値を確認し、もっとも数値の高いデータと関連付けられた会話データを見守りサーバ送信部15を介して、人工知能エージェント端末受信部10に送信する(ステップS203)。
人工知能エージェント端末受信部10は、見守りサーバ3から受信した会話データを会話開始部7に送信する(ステップS204)。
図9に示すように人工知能エージェント5は複数用意されているため、会話開始部7は会話データから発話する人工知能エージェントを選択し、会話表示部8へデータを送る(ステップS205)。
会話表示部8は、受け取ったデータを元に発話を行う(ステップS206)。図9は実際に2つ目の人工知能エージェントが発話したときのアプリケーションの画像である。
人工知能エージェント端末利用者23は、人工知能エージェントの会話を閲覧する(ステップS207)。
発話の会話データは、人工知能エージェント端末利用者23が応答しやすい内容となっているため、人工知能エージェント端末利用者23の反応を待つ(ステップS208)。
人工知能エージェント端末利用者23が応答した場合には、会話が終了する(ステップS209)。また人工知能エージェント端末利用者23が応答のために入力した会話データは、見守りサーバ3に送信される。
人工知能エージェント端末利用者23が応答しなかった場合には、緊急対応を行う(ステップS210)。
図7は、人工知能エージェントによる終話の流れを示すフローチャートである。同図に示す終話処理は、人工知能エージェント端末2と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されており、人工知能エージェント端末利用者23の会話データの入力によって処理が実行される(ステップS301)。
人工知能エージェント5は、応答部6で会話データの確認を行い、会話データを人工知能エージェント端末送信部9に送信する(ステップS302)。
人工知能エージェント端末送信部9は、見守りサーバ3の見守りサーバ受信部11に会話データを送信する(ステップS303)。
見守りサーバ3は、学習データ17を参照する(ステップS304)。
見守りサーバ3は、過去の会話データの履歴や時間のデータを元に、学習データ17によって算出された数値を確認し、もっとも数値の高いデータと関連付けられた会話データを見守りサーバ送信部15を介して、人工知能エージェント端末受信部10に送信する(ステップS305)。
人工知能エージェント端末受信部10は、見守りサーバ3から受信した会話データを応答部6に送信する(ステップS306)。
図10に示すように人工知能エージェント5は複数用意されているため、応答部6は会話データから発話する人工知能エージェントを選択し、会話表示部8へデータを送る(ステップS307)。
会話表示部8は、受け取ったデータを元に終話を行う(ステップS308)。図10は実際に2つ目の人工知能エージェントが終話したときのアプリケーションの画像である。
人工知能エージェント端末利用者23は、人工知能エージェントの会話を閲覧する(ステップS309)。
終話の会話データは、人工知能エージェント端末利用者23が終話しやすい内容となっているため、会話が終了する(ステップS310)。また人工知能エージェント端末利用者23が応答した場合の会話データは、見守りサーバ3に送信される。終話の会話データについても会話データ変換部12と学習データ生成部13を介して、学習データ17を生成することで、算出された数値からもっとも高い数値の会話データを用いる。
図8は、人工知能エージェントが応答した際の一例を示す図である。人工知能エージェント端末利用者23が会話データを入力したことで、複数の人工知能エージェントの1つが応答を行っている。
図9は、人工知能エージェントが発話した際の一例を示す図である。複数の人工知能エージェントの1つが、人工知能エージェント5の会話開始部7が起動したことで、発話が行われている。
図10は、人工知能エージェントが終話した際の一例を示す図である。人工知能エージェント端末利用者23が会話データを入力したことで、複数の人工知能エージェントの1つが終話を行っている。
図11は、学習データ17によって算出された数値と会話データ18から特異性を検知する流れを示すフローチャートである。同図に示す特異性の検知は、見守りサーバ3が起動している状態で、人工知能エージェント端末2から会話データを受信し、学習データ17を参照する際に処理が実行される(ステップS501)。また、見守り端末4と見守りサーバ3とが起動している状態で、かつ通信回線によって接続されている場合、見守り端末4から処理の実行を行うことができる。
見守りサーバ3は、過去の会話データの履歴や時間のデータを元に、学習データ17によって算出された数値を確認する(ステップS502)。
数値の高いデータと関連付けられた会話データが確認できた場合、見守りサーバ3は、会話データを人工知能エージェント端末2へ送信する(ステップS503)。本ステップは、図5で示したステップS108と同じ処理である。
また指定した範囲内の数値だった場合、特異性の検知が行われる(ステップS504)。
見守りサーバ3は、通知部14へ会話データを送信する(ステップS505)。本ステップは、図5で示したステップS106と同じ処理である。
このような見守り処理を繰り返すことによって、人工知能エージェント端末利用者23の学習データ17と会話データ18が記録部16に記録される。
ここまで説明した見守り処理による発話と終話が、人工知能エージェント端末利用者23の状況を判断する指標となる理由について、ここで詳細に説明する。
例えば、人工知能エージェントによる発話を行う場合、人工知能エージェント端末利用者23の活動時間に寄らず、人工知能エージェント端末利用者23の活動を確認可能である。本発明では、人工知能エージェント端末利用者23を高齢者に想定しているが、高齢者の数が増えていく中で、1人の高齢者に対し、1人の見守り者が対応することは、人的リソースが大きいことがわかっている。しかし、人工知能エージェント5が自動的に行うことで、人的リソースを大きく削減することが可能である。
また、通信回線が通じていれば、発話処理が行われるため、家に居ない場合、例えば遠方に移動している際にも、人工知能エージェント端末利用者23の状態の確認が可能である。例えば、旅行や移動している時である。そのような場合でも、人工知能エージェント端末利用者23が人工知能エージェント端末2を持ち歩くことで、人工知能エージェント端末利用者23の状況を確認することができる。
もっとも、人工知能エージェント端末利用者23が人工知能エージェント端末2を持ち歩かない場合もある。しかし、発話処理に対して応答がなければ、特異性の検知が可能であるため、人工知能エージェント端末利用者23が通常とは異なる状態であることを見守り端末4を所持している者が把握することができる。
また人工知能エージェント端末利用者23以外の第三者が、人工知能エージェント端末2を利用して、応答する可能性がある。その場合、見守りサーバ3の学習データ17によって算出された数値を確認した際に、通常と異なる対応であれば、過去の会話データの履歴と時間、学習データ17によって算出された数値から、特異性の検知が可能である。例えば、おはようという発話処理に、人工知能エージェント端末利用者23が、常におはようと応答していた場合、人工知能エージェント端末利用者23以外の第三者が、おはようございますと応答すれば、通常と異なる反応であるため、学習データ17によって算出された数値が通常とは異なる値を示すことになるため、特異性が検知され、見守り端末4に情報が通知される。
また、人工知能エージェントによる発話に対して、同じ応答しか繰り返さない場合、人工知能エージェント端末利用者23になんらかの状態異常がおきていることを把握できる。例えば、おはよう、こんにちは、こんばんはという発話処理に、人工知能エージェント端末利用者23が常におはようと応答した場合、学習データ17によって算出された数値が指定した範囲内になり、特異性が検知される。具体的には、数値の指定範囲を0.5以下とした場合、図12に示すように、夜の段階で0.1となり検知が可能である。例えば、会話データから認知症を判断するなどができる。そのような会話データについては、事前に会話データ変換部12と学習データ生成部13に学習データ17を生成しておくことができる。これは症例に合わせて都度学習を行うことも可能である。
また、本発明では人工知能エージェント5に複数の人工知能エージェントを備えることで、人工知能エージェント端末利用者23に合わせた発話が可能である。例えば、方言などのローカライズである。本発明の一実施形態として学習データ生成部13にニューラルネットワークやディープラーニングと呼ばれるフレームワークを利用するが、一般的にこれらの機械学習装置は学習時間がかかるため、汎用的な学習が優先して行われている。しかし、本発明では、会話データ変換部12の処理を行うことで、学習回数を半分以下にでき、学習時間を約2倍早めることができる。そのため、複数の人工知能エージェントを別々に学習させることができ、同じニューラルネットワークやディープラーニングのフレームワークを使用しても、複数の指標で判断することが可能である。会話データ変換部12の処理については、後ほど説明する。
さらに、ローカライズによって、地方の高齢者が日常で利用している言葉を使って、会話することができるため、人工知能エージェント端末利用者23以外の第三者による、成りすましも行いにくい。
当然であるが、人工知能エージェント端末利用者23が自身の危険について、人工知能エージェント端末2を通じて送信することも可能である。
本発明では、会話データとして、文字と絵と音声を想定している。文字は通常のキーボード入力による文字入力である。絵は、文字と絵が組み合わせられたものである。例えば、おはようという言葉と、挨拶をしているキャラクターの絵柄を組み合わせたものである。音声は、人工知能エージェント端末2へ音声による入力である。
したがって、発話に対して、人工知能エージェント端末利用者23が音声で応答している場合、人工知能エージェント端末利用者23以外の第三者が文字や絵で応答すれば、特異性が検知され、人工知能エージェント端末利用者23に何かが状態異常がおきていることがわかる。
また、特異性が検知された場合に、見守り端末4から直接人工知能エージェント端末2に連絡することが可能であるが、人工知能エージェント5が代わりに状況について確認することも可能である。例えば、頭が痛いと人工知能エージェント端末利用者23が会話を入力した場合、何が起きたのかについて確認を行うなどがある。これらの会話データについては、都度学習を行い、学習データを生成していくことで、精度が向上する。
例えば、発話処理については、人工知能エージェント端末利用者23のスケジュールを確認し、その日の予定を伝えることが可能である。単純にスケジュールの管理を行うだけでなく、スケジュールを覚えているかどうかの確認をすることができる。
人工知能エージェントによる終話を行う場合も、発話の場合と同様に特異性の検知が可能である。
また、終話処理では、人工知能エージェント端末利用者23の健康管理に利用することができる。例えば、特定の時間が来た場合に、図10のように終話処理を行うことで、人工知能エージェント端末利用者23の就寝を促すことができる。
さらに、会話を通して人工知能エージェント端末利用者23の状態を確認することから、人工知能エージェント端末利用者23が監視されていると感じないため、自然な状態で人工知能エージェント端末利用者23の状態を確認することができる。会話表示部8に表示される人工知能エージェント5の画像は、アイコンだけでなく写真などを用いてもかまわないため、例えば家族の写真を用いることで、家族との連絡を取るという自然な行為によって、人工知能エージェント端末利用者23の状態を確認できる。
例えば、定期的に食事の写真を撮ってもらい人工知能エージェント端末2を通じて写真をアップロードしてもらうということもできる。
このように見守り処理による発話と終話を介して、人工知能エージェント端末利用者23の状況を把握する指標となり得る。そのため、発話と終話によって人工知能エージェント端末利用者23の安否の確認ができるだけでなく、健康状態の把握や管理も行うことが可能になる。
図12は、学習データの一例を示す図である。本学習データは、図5の人工知能エージェントによる応答の流れを示すフローチャートで、人工知能エージェント端末利用者23が、おはようと会話データを入力した際、学習データ17によって算出された数字、または記録されているデータの一例である。図13の学習データの生成の流れを示すフローチャートで示すように学習データ17の数値は常に更新される。また、学習データは複数のパラメータによる数値が重み付けされている。実施例では、朝と夜のパラメータの数値データを示したが、時間帯や気温、天気などのパラメータを扱うことが可能である。数値データは、0から1の小数点以下を含む値を取り、1がもっとも高い数値となる。
本発明では、ニューラルネットワークやディープラーニングのフレームワークによる実施を想定しており、実際には学習データ17を参照すると都度計数が行われ、数値が算出される。ただし、汎用的な会話データについては、例えば挨拶などは、事前に数値を記録部16、または人工知能エージェント5が保持しておくことで、応答速度を高めることが可能である。これは、人間における脊髄反射と同様である。そのような処理の際にも、会話データは見守りサーバ3に送信される。
図12で示すように、朝の時間帯において、おはようという会話データが入力された場合、応答する会話データとしては、おはようの数値が高い。逆に夜の時間帯においては、数値が低い。
この数値から、図5の人工知能エージェントによる応答の流れを示すフローチャートで示した会話の特異性を検知する。具体的には、人工知能エージェント端末利用者23が朝の時間帯で、おやすみなさいと入力した場合、指定した範囲内に数値があるため、特異性が検知できる。ここで指定する数値は、見守り者が設定を行う。数値は0から1の範囲で、上記の場合には、例えば0.5といった数値を指定することで、特異性が検知できる。
これにより朝も夜も人工知能エージェント端末利用者23が、こんにちはと入力した場合も特異性が検知できる。
図13は、学習データの生成の流れを示すフローチャートである。過去の会話データから、学習データ17を生成する。同図に示す学習データの生成処理は、見守りサーバ3が起動している状態で、定期的に行われる。また見守り端末4から起動することも可能である。
見守りサーバ3が会話データを受信し、会話データ変換部12に送信する(ステップS401)。このデータは学習データを生成するためのデータであり、記録部16の会話データ18とは別のデータとなる。処理が行われたあとは、学習データとともに、記録部16に記録される。
会話データ変換部12は、学習データ生成部13の学習速度を高めるためデータの多次元化を行う(ステップS402)。会話データの多次元化については、後ほど説明を行う。
学習データ生成部13は、会話データ変換部12から受け取ったデータから学習データを生成する(ステップS403)。学習データ生成部13は、一般的に人工知能エンジンと呼ばれるソフトウェアである。本発明では、ニューラルネットワークやディープラーニングのフレームワークによる実施を想定しているが、その他の機械学習装置を利用することも可能である。
生成された学習データ17は記録部16に記録される。元になった会話データは記録部16の会話データ18に記録され、終了となる(ステップS404)。
図14は、会話データ変換部12のプログラム実装比較を示す図である。学習データ生成部13が学習を行う際の学習データを実数から多次元化する際の実装である。ディープラーニングやニューラルネットワークのフレームワークにデータを入力する際の数値は、0から1の小数点以下を含む値を取る。例えば、白黒の画像データにおいては、白い部分が0、黒い部分を1として学習データを入力することが多く、これが実数の学習データである。本発明では、その学習データを多次元化して入力する。当然であるが、入力データの多次元化にともなって、ニューラルネットワークやディープラーニングのフレームワークのデータ入力と出力部分についても変更を行う。
図14では、2次元、多次元、多次元(複素数)、双対の場合のプログラム実装について示しているが、さらに次元を拡張することが可能である。また、本発明では、1をこんにちは、0をおやすみなさいに対応させることができる。
図15は、会話データの多次元化による学習効率の向上の一例を示す図である。縦軸が誤答率、横軸が学習回数で、会話データ変換部12によって変換されたデータと、変換されなかったデータの学習回数を比較している。図15のグラフの線が下のものが図14に示す多次元(複素数)による会話データ変換を行った場合の例である。
図15の会話データ変換部12によって変換されたデータの場合、誤答率10%に到達する際の学習回数が変換されなかったデータの学習回数の半分以下となっている。同じ学習回数の場合、変換されたデータと変換されなかったデータの計算時間は1.1倍である。変換されなかったデータに比べて変換されたデータの方が計算時間はかかっているが、学習回数を半分以下にできることから、誤答率10%に到達するまでの計算時間は、変換されたデータの方が変換されなかったデータに比べて2倍程度短い。
本技術により同じコンピュータを使用して、2種類のニューラルネットワークやディープラーニングのフレームワークによる学習を行うことが可能である。
また、会話データ変換部12による処理は、ニューラルネットワークやディープラーニングのフレームワークの構造を変更するものではない。そのため、現在のニューラルネットワークやディープラーニングのフレームワークへの適用が可能である。
さらに、既存のニューラルネットワークやディープラーニングのフレームワークの学習則を変更する学習高速化処理と組み合わせることで、さらに学習時間を短縮することが可能である。
図14で示した2次元、多次元、多次元(複素数)、双対について、同じニューラルネットワークを使った場合、多次元(複素数)がもっとも学習時間を短縮できる。また、同じデータでもニューラルネットワークの他のパラメータの調整によっても、学習時間の短縮率は異なる。
このような学習データの生成の処理を繰り返すことによって、人工知能エージェント端末利用者23の学習データ17と会話データ18が記録部16に記録される。
ここまで説明した学習データの生成が、人工知能エージェント端末利用者23の状況を把握する精度を向上する技術となる理由について、ここで詳細に説明する。
例えば、学習時間の短縮の短縮によって、従来よりも多層のニューラルネットワークやディープラーニングのフレームワークを使用することができる。ニューラルネットワークやディープラーニングのフレームワークは、層が多くなるほど精度が向上することが知られている。本発明を用いることで、従来よりも層を多くしても、学習時間が変わらないため、結果精度を向上することが可能である。
また、学習時間の短縮によって複数のニューラルネットワークやディープラーニングのフレームワークを使用することも可能になる。そのため、従来は難しかった複数の人工知能による数値判断が可能となる。具体的には、会話データを学習させたニューラルネットワークと、音声データを学習させたニューラルネットワークによる学習データの生成がある。会話データの学習データだけでは人工知能エージェント端末利用者23の状況の判断が難しい場合、音声データの学習データを含めて参照することで、特異性の検知の精度を高めることが可能である。
複数のニューラルネットワークやディープラーニングのフレームワークによって、汎用的な学習データと人工知能エージェント端末利用者23に合わせた学習データを作成しやすくなるため、地方の方言への対応や、人工知能エージェント端末利用者23の年齢、性別などに合わせた学習データの生成が可能である。
さらに、学習時間が短縮されることで、都度学習が可能となる。例えば、1回の学習に24時間かかっていたものが、12時間で完了するため、新しい言葉を都度学習させることで、人工知能エージェント端末利用者23の状況に対応できる。
具体的には、方言などのローカライズや新語などがある。例えば、新しい言葉が使われた場合、特異性の検知がされるが、その会話データを学習することで、再び新しい言葉が使われた場合に、特異性の検知が行われないように処理を行うことが可能である。
新たに学習させることの副次的な効果として、その言葉に反応しないようにプログラムを改変するという作業がなくなるため、ソフトウェアの保守性が高まるという効果もある。
学習データ17については、人工知能エージェントごとに生成することができるため、人工知能エージェント端末利用者23がはじめて使用する際に、人工知能エージェント端末利用者23の状況に合った人工知能エージェントを利用することで、使い始めた段階から発話、終話、応答の精度を高めることが可能である。
また、学習する際の数値データを多次元化することで、複数の学習を1つのニューラルネットワークやディープラーニングのフレームワークによって学習することが可能である。例えば、会話データと音声データの両方について、1つのニューラルネットワークやディープラーニングのフレームワークによる学習ができる。具体的には、画像判別と対話が同時に1つのプログラムで実現できる。
学習時間を短縮できる副次的な効果としては、コンピュータリソースの使用を減らすことにつながる。したがって、ハイパフォーマンスなコンピュータを使用しなくても良いため、使用するサーバ費用の低減や電力の消費を抑えることになる。
本発明では、実施の一例として見守りサーバ3と人工知能エージェント端末2を分けているが、コンピュータリソースの使用を減らすことができることから、スマーフトフォンやタブレット端末において、学習データを生成し記録することも可能である。具体的には、人工知能エージェント5の応答部6、会話開始部7に組み込める。
これにより人工知能エージェント端末2で複数の人工知能エージェントと、複数の学習データ17を組み合わせることが可能になる。複数の人工知能エージェントがあっても、同じ学習データを使っていれば、同じ会話データとなってしまうため、機械によるものであると気づきやすい。
また、学習データ17が更新されない場合、同じ過ちを常に繰り返してしまうが、本発明では、都度学習が行えることから、人工知能エージェント端末利用者23に合った発話、終話、応答ができるため、人工知能エージェント端末利用者23の状況を把握する精度を向上できる。
このように学習データの生成の処理は、人工知能エージェント端末利用者23の状況を把握する精度を向上する技術となり得る。
以上、本発明の実施形態について説明したが、本発明は実施形態によって限定されるものではない。本発明は、実施形態及び以下の変形例を適宜組み合わせたものも含み、また、それらと均等なものを含む。
例えば、人工知能エージェント端末2は、スマートフォンやタブレット、ロボットに限らず、人工知能エージェント端末利用者23と会話できる端末で、見守りサーバ3と通信回線を介してデータの送受信ができるウェアラブルデバイスや携帯電話でもよい。また会話データや音声データの送受信によって、学習データ17によって算出された数値を確認できれば良いため、会話データや音声データをメールなどで送受信してもよい。さらに、既存のチャットアプリケーションに本発明を組み合わせることで、人工知能エージェント5を介さず、会話データの学習と特異性の検知を用いることで、人工知能エージェント端末利用者23の状況を把握することが可能である。
また例えば、見守りサーバ3は、クラウドサービスを用いてもよい。また学習データ生成部13のニューラルネットワークやディープラーニングのフレームワークを見守りサーバ3の中ではなく、見守りサーバ3の外部になるリソースを使用してもよい。
さらに例えば、見守り端末4は、スマートフォンやタブレット、PC、ロボットに限らず、人工知能エージェント端末利用者23と会話できる端末で、人工知能エージェント端末2と見守りサーバ3と通信回線を介してデータの送受信ができるウェアラブルデバイスや携帯電話でもよい。また会話データや音声データの送受信によって、学習データ17によって算出された数値を確認できれば良いため、会話データや音声データをメールなどで送受信してもよい。さらに、既存のチャットアプリケーションに本発明を組み合わせることで、人工知能エージェント端末2への緊急連絡として利用してもよい。見守り端末4は、家族や介護者に限らず、自治体やコミュニティの管理者が利用する端末でもよい。また、見守り端末4から見守りサーバ3を介して、人工知能エージェント5に会話をさせてもよい。
さらに例えば、人工知能エージェント5の人工知能エージェントは、人工無能を使用してもよい。その場合は、会話データを見守りサーバ3に送信し、学習データ17によって算出された数値と会話データを見守り端末4などに送信する。また、人工知能エージェントとディープラーニングやニューラルネットワークのフレームワーク、学習データ、会話データは1対1対応ではなく、1つの人工知能エージェントの裏側で複数のディープラーニングやニューラルネットワークのフレームワーク、学習データ、会話データを利用してもよい。当然であるが、人工知能エージェントは複数存在するため、N対Nの構造でもよい。
さらに例えば、学習データ17の初期データは汎用的な会話データのコーパスでもよい。本発明では都度学習が行われるが、都度学習を行わずに、特異性の検知だけ行うことが可能である。
さらに例えば、見守り端末4の表示部21は複数の人工知能エージェント端末2の会話表示部8を表示してもよい。表示するデータは学習データ17に重み付けされた数値データと組み合わせ、会話の重要度を色などによって表示してもよい。
複数の人工知能エージェント端末2の会話表示部8を表示することによって、複数の人工知能エージェント端末利用者23の状況を容易に確認することが可能になる。