JP7273563B2 - 情報処理装置、情報処理方法、および、プログラム - Google Patents

情報処理装置、情報処理方法、および、プログラム Download PDF

Info

Publication number
JP7273563B2
JP7273563B2 JP2019050031A JP2019050031A JP7273563B2 JP 7273563 B2 JP7273563 B2 JP 7273563B2 JP 2019050031 A JP2019050031 A JP 2019050031A JP 2019050031 A JP2019050031 A JP 2019050031A JP 7273563 B2 JP7273563 B2 JP 7273563B2
Authority
JP
Japan
Prior art keywords
information
user
unit
value
classified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019050031A
Other languages
English (en)
Other versions
JP2020154427A (ja
Inventor
史興 浅野
誠 西岡
由樹 達富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019050031A priority Critical patent/JP7273563B2/ja
Publication of JP2020154427A publication Critical patent/JP2020154427A/ja
Application granted granted Critical
Publication of JP7273563B2 publication Critical patent/JP7273563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報処理装置、情報処理方法、および、プログラムに関する。
従来、ユーザに関するライフログ情報の取得および利用が提案されている。ライフログ情報は、ユーザの行動を知り、ユーザの行動を予測したサービスの提供等に利用される。例えば、特許文献1には、センサから取得したセンサデータをユーザに関するライフログ情報として取得し、ライフログ情報にラベルを付与するシステムが開示されている。このシステムは、ライフログ情報に基づいてユーザに対し発話を行い、発話へのユーザの応答を取得する。そして、発話と応答の間に矛盾が発生した場合に、ライフログ情報のラベルを修正する。
特開2015-152947号公報
上記のように、ユーザに関する客観的な情報であるライフログ情報については種々の利用が提案されている。ライフログ情報と同様に、ユーザの経験、スキル、思考方法など、ユーザの内在的な側面に関して情報化することが可能であれば、利用価値があると考えられる。しかしながら、従来、ユーザの内在的な側面について、ユーザ以外の人に提供可能な情報を得る方法は、提案されていない。
本発明は上記背景に鑑みてなされたものであり、ユーザの経験等に基づく価値をユーザ以外の人に提供できる情報処理装置、情報処理方法、および、プログラムを提供することを目的とする。
上記目的を達成するための態様として、ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、を備え、前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行う分類部と、前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力する質問提示部と、をさらに備え、前記入力情報処理部は、前記質問提示部が前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、前記ユーザ価値情報生成部は、前記質問提示部が前記質問情報を出力した後に前記入力情報処理部により取得された前記第2ユーザ特性情報を含む前記第2ユーザ特性情報と、前記第1ユーザ特性情報とに基づいて、前記ユーザ価値情報を生成する情報処理装置が挙げられる。
上記情報処理装置において、前記ユーザ価値情報生成部により生成された前記ユーザ価値情報を、ユーザ価値データベースに登録する登録部と、抽出条件の入力を受け付ける抽出条件取得部と、前記抽出条件に基づいて、前記ユーザ価値データベースから前記ユーザ価値情報を抽出して出力するユーザ価値情報出力部と、を備える構成としてもよい。
上記情報処理装置において、前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記ユーザの経験または特徴の価値を表現するために必要な情報を抽出することにより、前記ユーザ価値情報を生成する構成としてもよい。
上記情報処理装置において、前記ユーザ価値情報生成部は、前記第1ユーザ特性情報と前記第2ユーザ特性情報とを比較し、前記ユーザに関する情報の信頼性を判定し、設定された水準以上の信頼性を有すると判定した情報に基づき前記ユーザ価値情報を生成する構成としてもよい。
上記情報処理装置において、記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記分類部により特定の属性に分類された情報を削除して、前記ユーザ価値情報を生成する構成としてもよい。
上記情報処理装置において、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、前記テキスト情報を評価するテキスト評価部と、備え、前記分類部は、前記テキスト情報を、自然言語の形態素または形態素の組み合わせからなる要素に切り分けて分類し、前記テキスト評価部は、前記分類部により分類された各々の前記要素、および、複数の前記要素の関係の少なくともいずれかに基づいて、前記テキスト情報の評価を決定し、決定した評価を前記ユーザ価値情報に付与する構成としてもよい。
上記情報処理装置において、前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、前記ユーザの成功体験に分類される情報と失敗体験に分類される情報とを抽出し、前記テキスト評価部は、前記成功体験に分類される情報と前記失敗体験に分類される情報との両方を含む前記ユーザ価値情報に対し、前記成功体験に分類された情報と前記失敗体験に分類された情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する構成としてもよい。
上記情報処理装置において、前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、抽象的表現に分類される情報と具体的表現に分類される情報とを抽出し、前記テキスト評価部は、前記抽象的表現に分類される情報と前記具体的表現に分類される情報との両方を含む前記ユーザ価値情報に対し、前記抽象的表現に分類される情報と前記具体的表現に分類される情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する構成としてもよい。
上記情報処理装置において、前記ユーザに対する質問情報を出力する質問提示部を備え、前記質問提示部は、前記ユーザの価値を表現するために不足している情報を取得するための前記質問情報を前記ユーザに対して提示する構成としてもよい。
上記情報処理装置において、前記ユーザ価値情報生成部は、前記ユーザから入力された情報に、前記ユーザが公開を許可しない情報が含まれる場合に、前記ユーザが公開を許可しない情報を含まない前記ユーザ価値情報を生成する構成としてもよい。
上記情報処理装置において、第1音声出力部と、前記第1音声出力部とは別体として構成される第2音声出力部と、音声を集音する集音部と、を備え、前記入力情報処理部は、前記第1音声出力部および前記第2音声出力部から出力される音声に応じて前記ユーザが発する音声を、前記集音部で集音することにより、前記ユーザの音声によって入力される情報を取得し、前記第1音声出力部によって前記ユーザに対する質問の音声を出力させ、前記第2音声出力部から前記質問の音声への応答を促す音声を出力させる構成としてもよい。
上記情報処理装置において、情報利用ユーザが使用する利用端末装置から閲覧要求の入力を受け付ける要求受付部と、前記情報利用ユーザによる閲覧要求の入力に対応して、前記ユーザに確認情報を出力する確認情報出力部と、前記確認情報に応答して前記ユーザが入力する応答入力を受け付ける応答受付部と、前記情報利用ユーザと前記ユーザとの間で対価を移動する対価取引処理を行う対価処理部と、を備え、抽出条件取得部は、前記閲覧要求の入力に基づいて前記抽出条件を取得し、前記ユーザ価値情報出力部は、前記応答受付部により受け付けた前記応答入力に基づいて、前記抽出条件に基づいて抽出した前記ユーザ価値情報を前記利用端末装置に出力し、前記対価処理部は、前記ユーザ価値情報の出力に応じて、前記情報利用ユーザから対価を徴収し、前記ユーザに対価を支払う処理を行う構成としてもよい。
上記情報処理装置において、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、前記テキスト情報を評価するテキスト評価部と、前記利用端末装置から前記ユーザ価値情報に対する評価を取得する利用ユーザ評価取得部と、前記利用ユーザ評価取得部により取得された評価と、前記テキスト評価部による評価との組み合わせに基づき前記ユーザ価値情報の統合的評価を決定する評価統合部と、を備え、前記対価処理部は、前記ユーザ価値情報の統合的評価に基づいて前記ユーザ価値情報の対価を決定する構成としてもよい。
上記目的を達成するための別の態様として、ユーザが使用する端末装置と通信するコンピュータによって、前記ユーザの生活において検出されるライフログ情報を取得し、前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出し、前記第1ユーザ特性情報を前記ユーザに対応づけて記録し、前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得し、前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行い、前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力し、前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成する情報処理方法が挙げられる。
上記目的を達成するための別の態様として、コンピュータを、ユーザの生活において検出されるライフログ情報を取得するライフログ取得部と、前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行う分類部と、前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力する質問提示部と、して機能させ、前記入力情報処理部は、前記質問提示部が前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、前記ユーザ価値情報生成部は、前記質問提示部が前記質問情報を出力した後に前記入力情報処理部により取得された前記第2ユーザ特性情報を含む前記第2ユーザ特性情報と、前記第1ユーザ特性情報とに基づいて、前記ユーザ価値情報を生成するプログラムが挙げられる。
上記情報処理装置によれば、ユーザの経験や特徴の価値を表現したユーザ価値情報を得ることにより、ユーザの内在的な価値を、ユーザ以外の人にも提供可能な情報にして、利用できる。ユーザ価値情報は、記録や伝達が可能な情報であるから、ユーザ価値情報を生成することにより、ユーザの経験や特徴を社会的資産として活用可能となる。また、客観性を有するライフログをもとに抽出される第1ユーザ特性情報と、主観的な特徴を有する第2ユーザ特性情報とに基づいてユーザ価値情報を生成するので、普遍性を有し、利用価値の高いユーザ価値情報を得ることができる。上記情報処理方法、および、プログラムによる場合にも、同様の作用効果を得ることができる。
情報管理システムの概略構成を示す説明図。 情報管理システムの要部構成図。 サーバの機能的構成を示すブロック図。 ヒアリングの態様を示す説明図。 第2ユーザ特性情報の構成例を示す模式図。 サーバの動作を示すフローチャート。 サーバの動作を示すフローチャート。 ユーザ価値情報の表示例を示す図。
以下、図面を参照して本発明の実施形態について説明する。
[1.情報管理システムの概要]
図1は、本発明の情報処理装置を適用したサーバ100を含む情報管理システム1の概略構成を示す図である。図2は、情報管理システム1の要部構成図であり、情報管理システム1を構成する装置の一部について、機能的構成を示すブロック図である。
情報管理システム1は、サーバ100、および、通信ネットワーク400を介してサーバ100に通信可能に接続される各種装置により構成される。情報管理システム1は、ユーザU1のライフログを収集する装置として、観察装置210、生体情報検知装置220、およびユーザ端末装置230を含む。これら各装置は通信装置300により通信ネットワーク400に接続され、サーバ100と通信可能である。
観察装置210は、ユーザU1およびその周辺環境を対象として検知を行う装置である。図1には、ユーザU1の周囲を飛翔するドローンを観察装置210として用いる例を示す。
生体情報検知装置220は、ユーザU1の身体に装着され、ユーザU1の身体に関する計測や検知を行う装置である。図1には、ユーザU1の腕に装着される腕時計型の装置として構成した例を示す。
ユーザ端末装置230は、ユーザU1が使用する端末装置であり、ユーザU1による入力操作、情報の表示等の機能を有する。また、ユーザ端末装置230は、後述するセンサを備え、ユーザU1に関する計測や検知を行う。ユーザ端末装置230は、例えば、ユーザU1が使用するパーソナルコンピュータやスマートフォン等である。
情報管理システム1は、通信ネットワーク400によりサーバ100に接続される利用端末装置350を含む。利用端末装置350は、情報利用ユーザU2が使用する端末装置であり、パーソナルコンピュータやスマートフォン等である。
通信ネットワーク400は、公衆回線網、専用線、或いはその他の通信回線を含んで構成される広域ネットワーク、或いは、LAN(Local Area Network)等の構内通信ネットワークである。通信ネットワーク400は、サーバ100と、他の装置とをデータ通信可能に接続する。
本実施形態で、観察装置210、生体情報検知装置220、第1端末装置250、および第2端末装置260は、通信装置300と通信を実行する。
通信装置300は、観察装置210、生体情報検知装置220、第1端末装置250、および第2端末装置260の各装置を通信ネットワーク400に接続する中継機能を有する。通信装置300は、上記各装置との間で、Wi-Fi(登録商標)、Bluetooth(登録商標)等の無線通信を実行する。
ユーザ端末装置230は、通信装置300を介さずにモバイル無線通信により通信ネットワーク400に接続して、サーバ100との間でデータ通信を実行する。また、ユーザ端末装置230は、通信装置300と通信を実行することにより、通信装置300を経由してサーバ100と通信を行ってもよい。
なお、観察装置210および生体情報検知装置220は、それぞれ、通信装置300を介さずにモバイル無線通信により通信ネットワーク400に接続して、サーバ100との間でデータ通信を実行してもよい。
また、観察装置210および生体情報検知装置220は、ユーザ端末装置230と無線通信を実行し、ユーザ端末装置230が、観察装置210および生体情報検知装置220とサーバ100との通信を中継してもよい。ユーザ端末装置230は、観察装置210および生体情報検知装置220が送信するデータを受信して蓄積し、蓄積したデータをサーバ100に送信してもよい。
サーバ100は、観察装置210、生体情報検知装置220およびユーザ端末装置230から、ユーザU1の生活において検出されるデータを取得し、取得したデータに基づきライフログ情報154を生成し、記憶する。
ライフログは、対象となる人物の生命活動、生態、および社会的行動の少なくともいずれかに属するデータで構成され、人物の生活の記録として利用可能な情報を指す。本実施形態のライフログ情報154は、対象となる人物であるユーザU1の行動を記録した情報である。サーバ100は、ユーザU1の位置、移動経路、ユーザU1の生体情報等から、ユーザU1の行動を特定し、ユーザU1の行動と日時とを対応づけるライフログ情報154を生成する。例えば、ライフログ情報154は、ユーザU1が食事をした日時、食事をした場所の位置情報、店舗名、食事をした場所の撮像画像データ、食事に要した時間等を含む。
情報管理システム1は、ユーザU1へのヒアリングを行う第1端末装置250、および第2端末装置260を含む。第1端末装置250および第2端末装置260は、ユーザU1に対して音や音声を出力する対話型のユーザインタフェイス装置であり、ユーザU1と会話を行い、ユーザU1が発する音声を集音する。第1端末装置250および第2端末装置260とユーザU1との会話におけるユーザU1の発話のデータはサーバ100に送信される。以下の説明では、自然言語による音声、および、その他の音を含めて、音声という。第1端末装置250および第2端末装置260はユーザU1と会話を行い、ユーザU1の発言を促す。サーバ100は、ユーザU1が発話した内容を、ヒアリングデータ159として記憶する。
サーバ100は、ライフログ情報154と、ヒアリングデータ159とに基づいて、ユーザ価値情報164を生成する。
ユーザ価値情報164は、ユーザU1が有する経験、スキル、思考方法、ノウハウ等の内在的な情報のうち、他の人と共有することで価値を生じる情報である。例えば、ユーザU1の過去の失敗や成功の経験は、ユーザU1以外の人にとって問題の解決策や示唆を与えることができるので、価値を生じる。ユーザU1の内在的な情報を具現化することで生じる価値を、以下の説明ではユーザU1の真価という。ユーザ価値情報164は、ユーザU1の真価をユーザU1以外の人に伝達可能な形態にした情報である。例えば、ユーザU1の個人的な思い込みは、他の人と共有することが困難であるか、共有しても価値を生じないので、真価を有しないといえる。
サーバ100は、ユーザU1以外の人に対し、ユーザ価値情報164を提供することによってユーザU1の経験、スキル、思考方法、ノウハウ等から価値を享受させる。また、サーバ100は、ユーザU1の真価をユーザ価値情報164として具現化し、ユーザU1の真価に市場性を持たせ、真価を提供することによる対価の獲得を可能とする。
情報利用ユーザU2は、利用端末装置350を操作して、サーバ100が有するユーザ価値情報164を利用する。利用端末装置350は、情報利用ユーザU2の操作に従って、サーバ100に対してユーザ価値情報164の提供を要求する。サーバ100は、利用端末装置350の要求に適合するユーザ価値情報164を抽出し、利用端末装置350に送信する。利用端末装置350は、サーバ100から送信されるユーザ価値情報164を受信して表示し、情報利用ユーザU2に提供する。
また、サーバ100は、情報利用ユーザU2がユーザ価値情報164を利用した場合に、対価の決済を行う。具体的には、情報利用ユーザU2からユーザ価値情報164の対価として支払いを受け、ユーザ価値情報164のもととなる情報を提供したユーザU1に対して対価の支払いを行う。
[2.情報管理システムの各部の構成]
図2を参照して、観察装置210、生体情報検知装置220、ユーザ端末装置230、第1端末装置250、および第1端末装置250の構成を説明する。
観察装置210は、カメラ211および通信部212を備える。観察装置210は、カメラ211によりユーザU1を撮像した撮像画像データを、通信部212によりサーバ100に送信する。
生体情報検知装置220は、制御部221、生体センサ222、体動センサ223、および通信部224を備える。制御部221は、CPU(Central Processing Unit)等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、生体情報検知装置220の各部を制御する。
生体センサ222は、ユーザU1の生体情報を検知するセンサである。具体的には、脈拍、血圧、血中酸素濃度、体温、発汗等を検知する。体動センサ223は、生体情報検知装置220の動きを検知する動きセンサである。例えば、体動センサ223は、加速度センサ、ジャイロセンサ、および、磁気センサからなるコンパス等である。生体情報検知装置220は複数種類の動きセンサを統合した統合センサユニットであってもよい。例えば、6軸センサユニットや9軸センサユニットを体動センサ223として採用できる。
制御部221は、生体センサ222の検知結果、および、体動センサ223の検知結果を通信部224によりサーバ100に送信する。
ユーザ端末装置230は、制御部231、入力部232、表示部233、9軸センサ234、GPS(Global Positioning System)235、気圧センサ236、および、通信部237を備える。
制御部231は、CPU等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、ユーザ端末装置230の各部を制御する。
入力部232は、ユーザU1による入力操作を受け付けて、入力されたデータを制御部231に出力する。表示部233は、液晶表示パネルや有機EL(Electro Luminescence)表示パネルで構成される表示画面を備え、制御部231の制御に従って文字や画像を表示する。
ユーザ端末装置230は、動きセンサを備える。本実施形態では、一例として、3軸加速度センサ、3軸角ジャイロセンサ、3軸コンパスを統合した9軸センサ234を備える例を示す。9軸センサ234は、ユーザ端末装置230の動きを検知する。
GPS235は、人工衛星から送信される無線信号を受信することによりユーザ端末装置230の位置を検出する。
気圧センサ236は、ユーザ端末装置230の環境の気圧を検知する。
通信部237は、制御部231の制御に従って、モバイル無線通信により通信ネットワーク400に接続し、サーバ100との間でデータ通信を実行する。
制御部231は、9軸センサ234、GPS235、および気圧センサ236の検知結果を通信部237によりサーバ100に送信する。
また、制御部231は、ユーザU1により入力されたデータをサーバ100に送信してもよい。また、制御部231は、サーバ100から受信したデータに基づき、表示部233に文字や画像を表示させる。
カメラ211の撮像画像データはユーザU1の行動および動作を、ユーザU1の周囲とともに記録した情報である。体動センサ223および9軸センサ234の検知結果はユーザU1の動きを示し、GPS235および気圧センサ236の検知結果は、ユーザU1の位置を示す。生体センサ222の検知結果はユーザU1の生命活動を示す。これらのライフログを統合的に処理することにより、ユーザU1の行動の記録を生成できる。
第1端末装置250は、第1端末制御部251、第1音声出力部252、集音部253、および、通信部254を備える。第1端末制御部251は、CPU等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、第1端末装置250の各部を制御する。
第1音声出力部252は、デジタル音声データをアナログ音声信号に変換するD/Aコンバータ、アンプ、スピーカ等を備え、第1端末制御部251から入力されるデジタル音声データに基づき音声を出力する。集音部253は、マイクにより音声を集音してアナログ音声信号またはデジタル音声データを生成し、第1端末制御部251に出力する。
第1端末制御部251は、通信部254によりサーバ100との間で通信を実行する。第1端末制御部251は、サーバ100から受信するデジタル音声データに基づく音声を第1音声出力部252から出力させる。また、第1端末制御部251は、集音部253が集音した音声のデジタル音声データをサーバ100に送信する。
第2端末装置260は、第2端末制御部261、第2音声出力部262、および、通信部263を備える。第2端末制御部261は、CPU等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、第2端末装置260の各部を制御する。
第2音声出力部262は、デジタル音声データをアナログ音声信号に変換するD/Aコンバータ、アンプ、スピーカ等を備え、第2端末制御部261から入力されるデジタル音声データに基づき音声を出力する。第2端末制御部261は、通信部263によりサーバ100との間で通信を実行し、サーバ100から受信するデジタル音声データに基づく音声を第2音声出力部262から出力させる。
第2端末装置260は、通信部263により、第1端末装置250と通信を実行する構成であってもよい。この場合、第2端末制御部261は、第1端末装置250からデジタル音声データを受信し、第2端末制御部261により音声を出力させる。サーバ100が生成するデジタル音声データが第1端末装置250を経由して第2端末装置260に送信されてもよい。或いは、第1端末制御部251が生成するデジタル音声データが第2端末装置260に送信されてもよい。
図3は、サーバ100の機能的構成を示すブロック図である。
サーバ100は、通信部110、CPU120、およびメモリ150等により構成されたコンピュータである。通信部110は、有線通信回線または無線通信により通信ネットワーク400に接続される。サーバ100は、通信部110により、観察装置210、生体情報検知装置220、ユーザ端末装置230、第1端末装置250、および第2端末装置260との間で通信を行う。
メモリ150は、CPU120により読み取り可能にデータやプログラムを記憶する記憶装置であり、半導体メモリ素子、磁気的記憶媒体、光学的記憶媒体、その他の記憶デバイス等により構成される。メモリ150には、制御用プログラム151が保存されている。
CPU120は、制御用プログラム151を読み込んで実行することにより、ライフログ情報取得部121、抽出部122、記録部123、ヒアリング処理部130、テキスト評価部136、関連データ収集部140、登録部141、要求受付部142、抽出条件取得部143、ユーザ価値情報出力部144、利用ユーザ評価取得部145、評価統合部146、および、対価処理部147として機能する。ヒアリング処理部130は、入力情報処理部131、ユーザ価値情報生成部132、変換部133、分類部134、および、質問提示部135により構成され、これらの各機能部もCPU120が制御用プログラム151を実行することにより実現される。
CPU120は、マイコン等の他のプロセッサで構成されてもよく、プロセッサとROM(Read Only Memory)、RAM(Random Access Memory)等が統合されたデバイスであってもよい。
メモリ150は、制御用プログラム151のほか、ユーザDB152、辞書データ157、および、価格データ165を記憶する。
メモリ150には、ユーザDB(データベース)152、および、ユーザ価値情報DB163が格納される。これらの各データベースは、メモリ150の記憶領域を利用して実現される。ユーザDB152は、サーバ100を使用するユーザに関するユーザ情報を、各ユーザを識別するユーザ識別情報に対応づけて格納する。ユーザDB152は、例えば、ユーザU1および情報利用ユーザU2に関するユーザ情報を格納する。ユーザ価値情報DB163は、ユーザ価値情報164を格納する。
さらに、メモリ150の記憶領域には、ライフログ情報記憶部153、第1ユーザ特性情報記憶部155、ヒアリングデータ記憶部158、関連データ記憶部160、および、第2ユーザ特性情報記憶部161が設けられる。
ライフログ情報記憶部153は、ライフログ情報154を記憶する。第1ユーザ特性情報記憶部155は、第1ユーザ特性情報156を記憶し、ヒアリングデータ記憶部158はヒアリングデータ159を記憶する。また、第2ユーザ特性情報記憶部161は第2ユーザ特性情報162を記憶する。
ライフログ情報取得部121は、観察装置210、生体情報検知装置220、およびユーザ端末装置230から送信されるデータを取得して解析することにより、ユーザU1の行動の記録であるライフログ情報154を生成する。ライフログ情報取得部121は、生成したライフログ情報154をライフログ情報記憶部153に記憶させる。
抽出部122は、処理対象の期間に該当する日時を含むライフログ情報154を取得し、ライフログ情報154からユーザU1の真価に関する情報を抽出する。処理対象の期間は、予め設定された期間毎、或いは、ライフログ情報154に含まれるユーザU1の行動の区切り毎である。この期間は、日、月、または年等を単位として指定される。
抽出部122は、ライフログ情報154から情報を抽出し、抽出した情報をもとに第1ユーザ特性情報156を生成する。抽出部122は、第1ユーザ特性情報156に、ライフログ情報154の処理対象の期間を示す情報を付加する。記録部123は、抽出部122が生成した第1ユーザ特性情報記憶部155に記憶させる。
例えば、抽出部122は、ライフログ情報154をもとに、対象期間におけるユーザU1の行動を特定し、ユーザU1の複数の行動の結びつきを特定する。これにより、抽出部122は、複数の行動で構成されるエピソードを生成する。例えば、ユーザU1が駅で迷っている人物Pに声をかけた行動、人物Pを駅の事務室まで案内した行動、別の日時にユーザU1が人物Pに出会って挨拶された行動をライフログ情報154から抽出した場合、これらの行動を1つのエピソードとして結びつける。
抽出部122は、ライフログ情報154から抽出する情報、および情報の組み合わせを特定するための学習を行った人工知能(AI:Artificial Intelligence)で構成されてもよい。すなわち、ライフログ情報154から抽出すべき情報と、抽出する情報の種類を示すラベルとを有する学習用データセットを学習したAIを抽出部122として用いてもよい。この場合、抽出部122は、学習済みのAIがサーバ100に実装されたものであってもよい。また、サーバ100に実装された抽出部122が、ライフログ情報154から情報を抽出した結果についてフィードバックを受けて、学習を実行してもよい。
このように、ライフログ情報取得部121、抽出部122および記録部123は、ユーザU1のライフログ情報154に基づいて、ユーザU1の真価に関する第1ユーザ特性情報156を生成および記録する。
ヒアリング処理部130は、第1端末装置250および第2端末装置260を用いてユーザU1に対するヒアリングを実行し、ヒアリングの結果に基づき第2ユーザ特性情報162を生成する。
図4は、ヒアリングの態様を示す説明図である。
ヒアリングでは、第1端末装置250および第2端末装置260がユーザU1に向かって発話する。図4の例では、サーバ100は、第1端末装置250が質問T1を発音させ、ユーザU1の回答を求める。ユーザU1が質問T1に応答して発話T2を行うと、サーバ100は、第2端末装置260により発言T3を発音させる。
サーバ100は、ユーザU1の発話T2の内容に基づき、発話T2に関連する具体的な内容を尋ねる質問T4を第1端末装置250によって発音させる。ユーザU1が質問T4に応答して発話T5を行うと、サーバ100は、第2端末装置260に発言T6を発音させる。さらに、第1端末装置250により、発話T5の内容の背景を尋ねる質問T7を発音させる。
この例では、サーバ100は、ユーザU1が発話を行う毎に、ユーザU1の発話の内容に対応する質問を生成して、第1端末装置250により発音させている。このため、ユーザU1が語る内容について、具体的な情報を求めたり、話の続きを求めたり、より詳細な経緯を求めたり、複数の経験を総括させて一般性の高い示唆を出すよう求めたり、することができる。一般性の高い示唆とは、換言すれば、より抽象度が高い表現である。
このように、ユーザU1の発話の内容に対応して質問を生成することによって、ユーザU1から多くの詳細な情報を得ることができる。
例えば、図4の会話では、第1端末装置250により、ユーザU1が自信を持っていることをユーザU1に語らせるための質問T1を発音した後で、ユーザU1の発話T2に対応して、具体的な内容を求める質問T4を発音させている。さらに、ユーザU1の発話T2に関連する情報を求める質問T7を第1端末装置250に発音させている。これらの会話により、サーバ100は、発話T2に含まれる抽象的な表現や、発話T5に含まれる具体的なエピソードに関する情報を得ることができる。
また、サーバ100は、ヒアリングを行う場合に、第1端末装置250と第2端末装置260とで発話内容を分担させてもよい。図4の例で、第2端末装置260はユーザU1に相槌として認識される発言T3、T6の音声を出力している。第1端末装置250が質問T1、T4、T8の音声を出力していることと対照的である。つまり、質問提示部135は、第1端末装置250から質問の音声を出力させ、第2端末装置260から質問の音声への応答を促す音声を出力させている。
質問T1、T4、T8を利用すればユーザU1から情報を引き出すことが可能であり、発言T3、T6は質問としての意味を持たないが、ユーザU1に対する心理的効果がある。すなわち、第1端末装置250および第2端末装置260が、ユーザU1に対して複数の会話の相手として機能するので、グループ会話を模したヒアリングを実現できる。グループ会話は、1対1の会話形式よりもユーザU1に与える緊張感や閉塞感が小さいため、ユーザU1をリラックスさせる効果を期待できる。このため、ヒアリングによって、より効率よく、多くの情報をユーザU1から得られる。
第1端末装置250および第2端末装置260が発音する内容は、後述する質問提示部135により生成される。
入力情報処理部131は、ヒアリングの記録となるヒアリングデータ159を生成し、ヒアリングデータ記憶部158に記憶させる。ヒアリングデータ159は、ユーザU1の発話に関するデータを含み、第1端末装置250および第2端末装置260により発音された質問や発話に関するデータを含んでもよい。ヒアリングデータ159は、例えば、ヒアリング中に集音部253により集音された音声データである。
ユーザ価値情報生成部132は、変換部133および分類部134とともに、ヒアリングデータ159から第2ユーザ特性情報162を生成する処理を実行する。
変換部133は、ヒアリングデータ159をテキストデータに変換する。
分類部134は、変換部133が変換したテキストデータを要素に分解し、各々の要素を分類する。例えば、分類部134は、テキストデータの形態素解析を実行し、形態素、または、形態素の組み合わせで構成される要素を抽出する。ここで、要素は、イディオム、句、節、文、文章等、文章を構成するものをいう。分類部134は、ユーザU1の真価との関係に基づき各要素を分類する。分類の詳細については図5を参照して後述する。
ユーザ価値情報生成部132は、分類部134により分類された要素を関連づけることにより、ユーザU1の真価に関する情報を含む第2ユーザ特性情報162を生成する。
質問提示部135は、第2ユーザ特性情報162に含まれる要素を参照し、不足している要素についてユーザU1に発話させるための質問を生成する。質問提示部135は、生成した質問を第1端末装置250により発話させるためのデータを生成し、通信部110によって第1端末装置250に送信する。この質問に応答してユーザU1が発話する内容は、ヒアリングデータ159として記録される。変換部133は、ユーザU1の発話をテキストデータに変換し、変換されたテキストデータを分類部134が解析して分類する。
図5は、第2ユーザ特性情報162の構成例を示す模式図である。
図5の例では、分類部134によって、要素が時間的表現、抽象的表現、および具体的表現に分類される。時間的表現の例としては、「過去」や「今」あるいは「現在」などの語が挙げられるが、年月日など具体的な時期を示す語であってもよい。第2ユーザ特性情報162において時間的表現が分類される領域を、スロット162aとする。
抽象的表現は、ユーザU1が、ユーザU1の経験、スキル、思考方法、ノウハウ等を抽象的に表した語や節、句等である。例えば、「自信がある」、「苦しかった」、「幸せ」が挙げられる。また、経験から得られたノウハウに関連する例示としては「他人の立場にたってみる」、「相手の心理を読む」、「相手の目の動きを観察すると良い」、「ここでは継続性が求められる」、「このタイミングでは緊張を緩和しても良い」、「その行動を反復してもよいが、少しパターンを変えるべき」などの表現が、複数の具体的場面に適用可能な抽象的表現の例として挙げられる。
第2ユーザ特性情報162において抽象的表現が分類される領域を、スロット162bとする。
具体的表現は、ユーザU1の経験、スキル、思考方法、ノウハウ等を具体的に表した語や節、句、文等であり、例えば、「節約」、「投資」、「食事」、「新しい事業」、「収入」が挙げられる。また、いくつかの要素は、他の要素と結びついて1つの具体的表現を構成する。例えば、「投資」と「失敗」が結びついて「投資に失敗した」という具体的なエピソードの表現となっている。また、例えば、「食事」と「困る」が結びついて「食事に困る」という具体的なエピソードの表現となっている。また、具体的表現には、具体性の差がある要素を分類することが許容される。例えば、「食事」に対して「タイ料理」の方が、具体性が高く、「タイ料理」に対して「トムヤンクン」の方が、具体性が高いことは言うまでもない。第2ユーザ特性情報162に含まれる要素の抽象性と具体性は、階層構造のあるオントロジー辞書として管理・評価されているものとする。
第2ユーザ特性情報162において具体的表現が分類される領域を、スロット162cとする。上記のように、スロット162cには、単独で具体的表現となる要素、および、他の要素と結びつくことで具体的表現として機能する要素が分類される。スロット162cには、要素間の結びつきを示す情報も格納される。要素と要素との結びつきは、明示的な結びつき、および、概念的な関連性のいずれであってもよい。
さらに、分類部134は、スロット162bに格納された要素を、スロット162aの要素、および、スロット162cの要素と結びつける。分類部134は、例えば、ヒアリングデータ159において発話された順序やタイミングに基づき、要素を結びつける。これにより、第2ユーザ特性情報162において、ユーザU1の経験、スキル、思考方法、ノウハウ等を抽象的に表現した要素と、抽象的な表現を裏付ける具体的な内容と、具体的な内容を時間的に位置づける表現とが結合される。
スロット162bに格納された要素のうち、スロット162cの要素と結びつけられないものは、具体的なエピソードによる裏付けがない。つまり、スロット162cの要素が不足している。また、スロット162aの要素と結びつけられていない要素は、時間的に特定されていない要素である。つまり、スロット162aの要素が不足しているといえる。
ユーザ価値情報164は、例えば、時間的表現、抽象的表現、および具体的表現に分類される要素の相互の関係をオントロジーの手法により記述したデータとして構成できる。
質問提示部135は、第2ユーザ特性情報162において不足している情報をユーザU1から引き出すように、質問を生成する。
例えば、図4に示したヒアリングにおいて、発話T2に含まれる「人に教えること」は抽象的表現であり、スロット162aに分類される。発話T2がされた時点では、「人に教えること」に対応する具体的表現はない。ここで、質問提示部135は、「人に教えること」に結びつく具体的な情報をユーザU1から得るために質問T4を生成する。質問T4を発音したことで、発話T5として、「昔」、「学校の先生」、「生徒から」、「わかりやすい」、「言われた」等の具体的な情報が得られている。「昔」はスロット162aに分類され、「学校の先生」はスロット162cに分類される。また、「わかりやすい」という表現は単独では抽象的表現であるが、「生徒から」、「言われた」という表現と結びついて、具体的なエピソードを表す。このように、発話T5に含まれる「生徒から」、「わかりやすい」、「言われた」等の要素は、互いに結びついてスロット162cに分類される。
このように、ユーザU1に対するヒアリングを重ねることによって、抽象的表現と、具体的表現と、時間的表現とが結びついた第2ユーザ特性情報162を得ることができる。
分類部134は、要素の分類を行う処理に加え、第2ユーザ特性情報162の全体が成功体験か失敗体験かの分類を行ってもよい。この構成によれば、ヒアリングの段階で、ユーザU1が話す内容が成功体験か失敗体験かを判定できる。
この場合、質問提示部135は、分類部134が第2ユーザ特性情報162を成功体験か失敗体験か分類するための質問を生成してもよい。例えば、分類部134が、第2ユーザ特性情報162を分類部134が成功体験か失敗体験かを明確に判定できない場合に、判定を行うための情報を追加的に得るための質問を生成する。この場合、分類部134の判定を補助する情報をユーザU1に発話させるような質問が、第1端末装置250により発音される。
分類部134は、要素の分類を行う処理において、スロット162a、162b、162cに分類された要素から、自慢話に該当する要素を検出して分類してもよい。例えば、分類部134は、抽象的表現のうち、ポジティブな表現であって、ネガティブな抽象的表現に結びついていない表現を特定する。そして、特定した抽象的表現、および、この抽象的表現に結びつけられる具体的表現を、自慢話として分類する。
分類部134は、要素に対して成功体験、失敗体験、抽象的表現、具体的表現といった分類を定義する辞書を有し、この辞書を参照して要素を分類してもよい。
また、分類部134は、第2ユーザ特性情報162に含まれる要素および要素の組み合わせを分類するための学習を行った人工知能で構成されてもよい。すなわち、分類部134は、分類すべき要素と、要素の分類を示すラベルとを有する学習用データセットを学習したAIであってもよい。この場合、分類部134は、学習済みのAIがサーバ100に実装されたものであってもよいし、サーバ100に実装された状態で学習を継続するものであってもよい。
質問提示部135は、ユーザU1の発話に基づき質問を生成する人工知能で構成されてもよい。すなわち、質問提示部135は、ユーザU1の発話に含まれる語または要素と、生成する質問に関する条件とを含む学習用データセットを学習したAIであってもよい。質問提示部135は、学習済みのAIがサーバ100に実装されたものであってもよいし、サーバ100に実装された状態で学習を継続するものであってもよい。
ユーザ価値情報生成部132は、ヒアリングにより十分な情報が得られた後、或いは、ヒアリングが終了した後に、第1ユーザ特性情報156と第2ユーザ特性情報162との両方を統合して、ユーザ価値情報164を生成する。ユーザ価値情報164は、ユーザU1の特徴、ユーザU1の具体的な経験としての成功談、失敗談、成功談と失敗談の経緯等を含み、例えば、複数の具体的な事象を含むストーリー形式の情報である。
第1ユーザ特性情報156は、ユーザU1の現実の行動の記録から生成される情報であるため、具体的な行動の裏付けがあり、信頼性が高い情報である。一方、第1ユーザ特性情報156は、ライフログ情報154が取得されていない期間について生成できない。また、ユーザU1の内面的な事象をライフログ情報154に基づき特定することは容易ではない。第2ユーザ特性情報162は、ヒアリングにより得られる情報である。ヒアリングでは、ユーザU1の内面的な事象に関する情報を、ユーザU1が発する言語的表現として得られるので、第2ユーザ特性情報162はユーザU1の真価に強く関連する情報をより多く含んでいる。また、過去の事象に関する情報も含まれる。従って、第1ユーザ特性情報156と第2ユーザ特性情報162の両方を用いることにより、ユーザU1の真価を的確に表現し、信頼性の高いユーザ価値情報164を生成できる。
ユーザ価値情報生成部132は、第2ユーザ特性情報162から自慢話に分類された要素を削除した上で、ユーザ価値情報164を生成してもよい。自慢話は、具体的表現により裏付けられていたとしても信頼性に欠ける可能性がある。このため、自慢話の要素を削除した第2ユーザ特性情報162を利用してユーザ価値情報164を生成することにより、ユーザ価値情報164の信頼性を高めることができる。
ユーザ価値情報生成部132は、第1ユーザ特性情報156と第2ユーザ特性情報162とを照合して、第2ユーザ特性情報162に含まれる情報の信頼性を判定してもよい。例えば、ユーザ価値情報生成部132は、第1ユーザ特性情報156に基づきユーザU1の行動特性を求めてもよい。ユーザ価値情報生成部132は、第2ユーザ特性情報162に含まれる情報のうち、ユーザU1の行動特性と矛盾する内容を示す情報を、信頼性の低い情報として判定してもよい。この場合、ユーザ価値情報生成部132は信頼性の低い情報を第2ユーザ特性情報162から除去した上で、ユーザ価値情報164を生成してもよい。これにより、ユーザ価値情報164の信頼性を担保できる。
ユーザ価値情報164は、例えば、ユーザU1の真価を表現するストーリーの形を有する。例えば、真価の名称、真価を持つに至るエピソードの背景、失敗談、失敗の原因、失敗を乗り越える視点や乗り越えられた理由、成功談、まとめ又はストーリーの要旨等の情報を含む。ユーザ価値情報生成部132は、ユーザ価値情報164を生成する処理において、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる要素や情報に、情報を追加してもよい。例えば、文章の形式を整える目的、または、設定されたストーリー形式にする目的で情報を補足してもよい。
テキスト評価部136は、ヒアリング処理部130が生成したユーザ価値情報164の評価を行う。テキスト評価部136は、第2ユーザ特性情報162に含まれる要素、および要素の結びつきをもとに、第1の評価を行う。第1の評価で、テキスト評価部136は、第2ユーザ特性情報162に含まれる要素を参照し、抽象的表現が一般概念化されているか否かに基づく評価を行う。具体的には、第2ユーザ特性情報162においてスロット162bの抽象的表現に、スロット162cの具体的表現が結びつけられているか否かを評価する。
テキスト評価部136は、ユーザ価値情報164の内容に基づき第2の評価を行う。第2の評価で、テキスト評価部136は、ユーザ価値情報164に含まれる情報から成功体験と失敗体験とを抽出する。テキスト評価部136は、ユーザ価値情報164に成功体験および失敗体験の両方が含まれるか否か、および、成功体験と失敗体験が具体的表現により裏付けられているかを評価する。テキスト評価部136は、成功体験のみを含むユーザ価値情報164を、自慢話の可能性があるとして、評価対象から除外してもよい。また、サーバ100は、テキスト評価部136によって自慢話の可能性を評価したタイミングで、ユーザU1に対して、その成功体験に至るまでに積み重ねたであろう失敗体験を語るように仕掛けるため、ヒアリング処理部130によりヒアリングを行っても良い。例えば、また、テキスト評価部136は、成功体験が少ないユーザ価値情報164を、ユーザU1の真価としての価値が低いと評価する。また、テキスト評価部136は、成功体験および失敗体験の両方が含まれるユーザ価値情報164を、いずれか一方が含まれないユーザ価値情報164よりも高く評価する。成功体験と失敗体験については、分類部134が判定した結果を利用できる。
テキスト評価部136は、ユーザ価値情報164に含まれる要素に対し、予め成功体験、失敗体験等の分類を定義した辞書を有し、この辞書を参照して評価を行ってもよい。また、単独の要素を評価するだけでなく、文脈、語彙の並び等に基づき評価を行ってもよい。
テキスト評価部136は、第1の評価、および、第2の評価の結果を、それぞれ点数化する。さらに、テキスト評価部136は、第1の評価および第2の評価の結果を統合した総合評価を生成し、総合評価の結果をユーザ価値情報164に付加する。
テキスト評価部136の評価は、上述した第1、第2の評価に限定されない。例えば、ユーザ価値情報164に含まれるストーリーの文章全体について、抽象度および具体性を評価してもよい。例えば、具体性の高い単語を多く含むユーザ価値情報164は、具体性が高いストーリーとして高い評価を付す。また、例えば、テキスト評価部136は、抽象度の高い単語を多く含み具体性の高い単語が少ないユーザ価値情報164を、具体性が低いストーリーとして低く評価する。また、抽象度の高い単語の割合が極端に多いユーザ価値情報164を、特に信頼性が低い情報として、より低く評価する。
さらに、テキスト評価部136は、具体性の高い単語を多く含みつつも、その単語に関連する抽象度の高い単語が適度の割合で含まれているストーリーを最も高く評価する。これは、自分自身の経験を具体的に語れると同時に、その具体的な経験を総括することで、一般化し、抽象的に表現できているからである、と評価する。このタイプのストーリーは、ユーザが経験した具体的な事象だけでなく、まだ経験していない他の事象についても、アナロジーを用いることで応用できる可能性を持っている。
また、テキスト評価部136は、第2の評価において、テキストを対象として評価を行う構成に限定されず、例えば、ヒアリングデータ159をテキスト化せず、直接評価するものであってもよい。
関連データ収集部140は、ヒアリング処理部130の処理対象となっているユーザU1に関する情報を収集する。関連データ収集部140は、例えば、SNS(Social Network Service)により公開されている情報から、ユーザU1に関する情報を収集する。
登録部141は、ユーザ価値情報生成部132が生成したユーザ価値情報164を、ユーザ価値情報DB163に登録する。登録部141は、ユーザ価値情報164に、テキスト評価部136が付与した評価、および、関連データ収集部140が収集した情報を対応づけてユーザ価値情報DB163に登録してもよい。
要求受付部142、抽出条件取得部143、およびユーザ価値情報出力部144は、情報利用ユーザU2の要求に応じて処理を実行し、情報利用ユーザU2にユーザ価値情報164を提供する。
情報利用ユーザU2は、ユーザ価値情報DB163に格納されたユーザ価値情報164を直接検索してもよいし、抽象的な疑問を利用端末装置350に入力し、ユーザ価値情報164による解決を求めてもよい。例えば、情報利用ユーザU2は、自身が解決したい問題や、自身の疑問を自然言語により利用端末装置350に入力してもよい。利用端末装置350は、情報利用ユーザU2による入力内容を、ユーザ価値情報164の閲覧要求としてサーバ100に送信し、要求受付部142は、閲覧要求を取得する。
抽出条件取得部143は、閲覧要求に該当するユーザ価値情報164を抽出するための抽出条件を生成または取得する。抽出条件取得部143は、例えば、利用端末装置350から受信した閲覧要求に含まれる言語を形態素解析し、閲覧要求に含まれる形態素、および/または形態素の組み合わせから、抽出条件を生成する。抽出条件は、閲覧要求に含まれる形態素、および/または形態素の組み合わせだけでなく、これらのシノニムを含んでもよい。つまり、抽出条件取得部143は、閲覧要求に含まれていない情報を含む抽出条件を生成してもよい。
ユーザ価値情報出力部144は、抽出条件に基づきユーザ価値情報DB163を検索して、閲覧要求に該当するユーザ価値情報164を抽出する。ユーザ価値情報出力部144は、ユーザ価値情報出力部144が抽出したユーザ価値情報164を閲覧するためのデータを生成し、通信部110により利用端末装置350に送信する。
利用ユーザ評価取得部145は、ユーザ価値情報出力部144により提供されたユーザ価値情報164に対して情報利用ユーザU2が付与する評価を取得する。
情報利用ユーザU2は、ユーザ価値情報164を閲覧した後で、ユーザ価値情報164が疑問や課題の解決に役立ったか否か等に基づき、ユーザ価値情報164の価値を評価する。情報利用ユーザU2による評価の内容は、利用端末装置350によりサーバ100に送信される。利用ユーザ評価取得部145は、利用端末装置350が送信した評価を取得する。
評価統合部146は、利用ユーザ評価取得部145が取得した評価に基づき、ユーザ価値情報DB163に格納されたユーザ価値情報164の評価を更新する。これにより、ユーザ価値情報164に対する評価は、テキスト評価部136による評価と、利用ユーザ評価取得部145による評価とを統合した評価となる。ユーザ価値情報DB163に格納されるユーザ価値情報164には、複数のパラメータによる評価が与えられる。パラメータは、例えば、自慢話の構成比率、具体性と抽象性の構成比率、失敗談と成功談の全体的な構成比率、現在に近い時期の成功談の構成比率、情報利用ユーザU2による評価等のパラメータである。
評価統合部146は、関連データ収集部140がSNS等から収集した情報に基づく評価を行ってもよい。例えば、SNSにおけるユーザU1の影響力を、ユーザ価値情報164の評価のパラメータとして含んでもよい。
対価処理部147は、評価統合部146による評価に基づき、ユーザ価値情報164の提供に係る対価の金額を決定し、価格データ165を生成または更新する。対価処理部147は、評価統合部146による評価が行われる毎に、金額を更新する。
対価処理部147は、サーバ100から利用端末装置350にユーザ価値情報164を出力したことに対する対価の処理を行う。具体的には、情報利用ユーザU2からユーザ価値情報164の対価の支払いを受け、ユーザU1に対してユーザ価値情報164の対価を支給する。ユーザ価値情報164の提供に伴う対価、すなわちユーザ価値情報164の価格は、価格データ165として記憶される。
例えば、サーバ100が、ユーザU1および情報利用ユーザU2を含む複数のユーザについて、価値を有するポイントを付与する構成が挙げられる。この構成では、ユーザDB152に、ユーザごとの保有ポイントを示す情報が格納される。対価処理部147は、情報利用ユーザU2が保有するポイントを減算することにより、情報利用ユーザU2から支払いを受ける。また、対価処理部147は、ユーザU1が保有するポイントを加算することにより、ユーザU1に対価を支給する。
対価処理部147は、通信ネットワーク400を介して、金融機関や決済サービス事業者が運営する決済サーバに接続して、対価の処理を行ってもよい。例えば、対価処理部147は、決済サーバにより、銀行口座からの引き落とし、クレジットカード決済、電子マネーや仮想通貨による決済等を実行させてもよい。
[3.情報管理システムの動作]
図6および図7は、情報管理システム1の動作を示すフローチャートである。図6は、サーバ100がユーザ価値情報164を生成する動作を示す。
ヒアリング処理部130がユーザU1に対するヒアリングを開始すると(ステップS101)、質問提示部135が発話内容を生成して第1端末装置250および第2端末装置260によって発話させる(ステップS102)。ここで、入力情報処理部131が集音部253により集音した音声のデジタル音声データを取得し(ステップS103)、ヒアリングデータ159をヒアリングデータ記憶部158に記憶させる(ステップS104)。
続いて、変換部133がヒアリングデータ159をテキストデータに変換する(ステップS105)。分類部134は、テキストデータを解析して要素に切り分け(ステップS106)、要素を分類する(ステップS107)。ヒアリング処理部130は、分類された要素に基づき第2ユーザ特性情報162を生成する(ステップS108)。
質問提示部135は、第2ユーザ特性情報162において不足している情報の有無を判定する(ステップS109)。不足している情報がある場合(ステップS109;YES)、質問提示部135は、不足している情報をユーザU1に発話させるため質問を生成し、第1端末装置250に出力する(ステップS110)。第1端末装置250が質問を発音すると(ステップS111)、ヒアリング処理部130はステップS103に戻る。
第2ユーザ特性情報162は、ユーザU1の一連のヒアリングについて生成される。従って、一連のヒアリングでステップS103-S109が繰り返し実行される場合、ステップS108では、その都度、第2ユーザ特性情報162が更新される。
第2ユーザ特性情報162において不足している情報がない場合(ステップS109;NO)、ヒアリング処理部130は、ヒアリングを終了するか否かを判定する(ステップS11)。ヒアリングを終了する場合とは、例えば、ユーザU1が会話を終えたり、回答しなくなったりした場合、および、第2ユーザ特性情報162の情報量が基準以上となった場合である。ヒアリングを終了しない場合(ステップS112;NO)、ヒアリング処理部130はステップS103に戻る。
ヒアリングを終了する場合(ステップS112;YES)、ユーザ価値情報生成部132は、第2ユーザ特性情報162から自慢話に分類された情報を削除する(ステップS113)。ユーザ価値情報生成部132は、第2ユーザ特性情報162に含まれる情報の信頼性を判定し(ステップS114)、信頼性の低い情報を第2ユーザ特性情報162から削除する(ステップS115)。ユーザ価値情報生成部132は、第2ユーザ特性情報162から成功体験と失敗体験に該当する情報を抽出して、第1ユーザ特性情報156と統合することにより、ユーザ価値情報164を生成する(ステップS117)。
ここで、ユーザ価値情報生成部132は、ユーザU1が公開を許可しない情報の有無を判定する(ステップS118)。ヒアリングにおいてユーザU1が、公開しないことを希望する発言をした場合、この発言に該当する要素の全てを、公開を許可しない情報とする。公開を許可しない情報がある場合(ステップS118;YES)、ユーザ価値情報生成部132は該当する情報をユーザ価値情報164から削除し(ステップS119)、CPU120の動作はステップS120に移行する。また、公開を許可しない情報がある場合(ステップS118;NO)、CPU120の動作はステップS120に移行する。
ステップS120では、テキスト評価部136がユーザ価値情報164の評価を行い(ステップS120)、評価がユーザ価値情報生成部132に付与される(ステップS121)。さらに、ユーザ価値情報生成部132が、ユーザ価値情報164に確認情報の要否を示す情報を付加する(ステップS122)。ステップS122では、ユーザ価値情報164をユーザU1以外の人に提供する場合に、提供の前にユーザU1に確認を求めることか否かが判定される。例えば、ヒアリングにおいてユーザU1が提供前の確認を求めた場合、ユーザ価値情報生成部132が、確認を要することを示すフラグを付けたユーザ価値情報164を生成する。
続いて、登録部141がユーザ価値情報164をユーザ価値情報DB163に登録し(ステップS123)、CPU120は本処理を終了する。
図7は、サーバ100が利用端末装置350にユーザ価値情報164を提供する動作を示す。
要求受付部142は、情報利用ユーザU2の操作に基づき利用端末装置350が送信する閲覧要求を取得し(ステップS141)、抽出条件取得部143が抽出条件を生成する8ステップS142)。ユーザ価値情報出力部144は、抽出条件を取得して(ステップS143)、ユーザ価値情報DB163を検索することにより、ユーザ価値情報164を抽出する(ステップS144)。ユーザ価値情報出力部144は、抽出したユーザ価値情報164を利用端末装置350により表示するための情報を生成する(ステップS145)。
図8は、ユーザ価値情報164の表示例を示す図であり、ユーザ価値情報出力部144が生成する情報に基づいて利用端末装置350に表示される態様の例を示す。図8には、複数のユーザ価値情報164に関する情報が、縦方向に並べて配置され、一覧表示される例を示す。
ユーザ価値情報表示部170は、内容表示171、詳細情報表示172、分類表示173、提供時期表示174、価格表示175、評価表示176、コネクティング情報表示177の各表示領域を含む。
内容表示171にはユーザ価値情報164の内容を端的に表現する情報が表示される。この情報は、ユーザ価値情報164の種類あるいはカテゴリーということもできる。
詳細情報表示172には、ユーザ価値情報164に関連するユーザU1の情報が表示される。例えば、詳細情報表示172には、ユーザU1を紹介する静止画像や動画像が配置される。また、ユーザU1のプロフィールや得意分野に関する情報を含んでもよい。詳細情報表示172に表示される情報は、例えば、ユーザDB152に登録された情報であるが、関連データ収集部140により収集された情報を含んでもよい。
分類表示173はユーザ価値情報164の分類が表示される。提供時期表示174にはユーザ価値情報164の提供時期を示す情報が表示される。価格表示175は、ユーザ価値情報164の提供の対価が表示され、評価表示176にはユーザ価値情報164の評価が表示される。
コネクティング情報表示177には、情報利用ユーザU2がユーザU1とのコネクションを形成できるか否かが表示される。コネクションの手段として、面会、電話、SNSによる連絡が挙げられる。
図7に戻り、ユーザ価値情報出力部144は、ユーザ価値情報表示部170等によって複数のユーザ価値情報164が表示される場合に、ユーザ価値情報164の表示順序を調整する(ステップS146)。ユーザ価値情報出力部144は、例えば、新しい順にユーザ価値情報164を配置してもよく、評価の高い順に配置してもよい。また、ユーザU1の知名度やSNSにおける影響力の順に、ユーザ価値情報164を並べて配置してもよい。
利用端末装置350に表示されたユーザ価値情報164のいずれかが選択された場合、ユーザ価値情報出力部144は、選択を受け付けて(ステップS147)、選択されたユーザ価値情報164が確認を要するか否かを判定する(ステップS148)。
確認が必要な場合(ステップS148;YES)、ユーザ価値情報出力部144は、ユーザU1が使用するユーザ端末装置230等に確認の要求を出力する(ステップS149)。確認の要求は、電話、Eメール、SNS等の各種の手段を利用すればよい。ユーザ価値情報出力部144は、ユーザU1による応答を受け付けて(ステップS150)、ユーザU1によりユーザ価値情報164の提供が許可されたか否かを判定する(ステップS151)。
提供が許可されない場合(ステップS151;NO)、ユーザ価値情報出力部144は、利用端末装置350に対して閲覧が不許可であることを通知し(ステップS152)、ステップS147に戻って別のユーザ価値情報164の選択を待機する。ステップS149-S152の動作において、ユーザ価値情報出力部144は、本発明の確認情報出力部および応答受付部の一例に対応する。
提供が許可された場合(ステップS151;YES)、および、確認が不要な場合(ステップS148;NO)、ユーザ価値情報出力部144は、選択されたユーザ価値情報164を通信部110によって利用端末装置350に送信する(ステップS153)。
ユーザ価値情報164の提供後、利用ユーザ評価取得部145は、利用端末装置350により入力される情報利用ユーザU2の評価を取得する(ステップS154)。
続いて、対価処理部147は、ユーザ価値情報164の提供に係る対価の支払い処理を実行し(ステップS155)、情報利用ユーザU2から支払いを受ける。ステップS155で、ユーザU1に対する対価の支払いを行ってもよい。
評価統合部146は、ステップS154で取得された評価をユーザ価値情報DB163内のユーザ価値情報164の評価に反映する処理を行う(ステップS156)。これにより、ユーザ価値情報164の評価が更新される。さらに、対価処理部147は、更新後の評価に対応してユーザ価値情報164の提供に伴う価格を変更し、この変更を価格データ165に反映させて(ステップS157)、本処理を終了する。
このように、サーバ100は、ユーザU1の生活において検出されるライフログ情報を取得するライフログ情報取得部121と、ライフログ情報をもとに、ユーザU1の経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報156を抽出する抽出部122と、第1ユーザ特性情報156をユーザU1に対応づけて記録する記録部123と、ユーザU1から入力される情報に基づいて、ユーザU1の経験あるいは特徴に関連する第2ユーザ特性情報162を取得する入力情報処理部と、第1ユーザ特性情報156と第2ユーザ特性情報162とに基づいて、ユーザU1以外の人に提供可能なユーザ価値を表現するユーザ価値情報164を生成するユーザ価値情報生成部132と、を有する。
この構成によれば、ユーザU1の経験や特徴の価値を表現したユーザ価値情報164を得ることにより、ユーザU1の内在的な価値を、ユーザU1以外の人にも提供可能な情報にして、利用できる。ユーザ価値情報164は、記録や伝達が可能な情報であるから、ユーザ価値情報164を生成することにより、ユーザU1の経験や特徴を社会的資産として活用可能となる。また、客観性を有するライフログ情報をもとに抽出される第1ユーザ特性情報156と、主観的な特徴を有する第2ユーザ特性情報162とに基づいて、普遍性を有し、利用価値の高いユーザ価値情報164を得ることができる。サーバ100が実行する情報処理方法、および制御用プログラム151による場合にも、同様の作用効果を得ることができる。
サーバ100は、ユーザ価値情報生成部132により生成されたユーザ価値情報164を、ユーザ価値データベースに登録する登録部141と、抽出条件の入力を受け付ける抽出条件取得部143と、抽出条件に基づいて、ユーザ価値データベースからユーザ価値情報164を抽出して出力するユーザ価値情報出力部144と、を備える。
この構成によれば、ユーザU1の真価を示すユーザ価値情報164を、情報利用ユーザU2等、ユーザU1以外の人と共有することができる。
ユーザ価値情報生成部132は、第1ユーザ特性情報156および第2ユーザ特性情報162から、ユーザU1の経験または特徴の価値を表現するために必要な情報を抽出することにより、ユーザ価値情報164を生成する。
この構成によれば、ユーザU1から得た情報から真価を表現するために必要な情報を抽出することで、ユーザU1以外の人にとって価値の高いユーザ価値情報164を生成できる。また、ユーザ価値情報164に不要な情報が含まれにくいので、ユーザ価値情報DB163のデータ容量の利用効率を高めることが期待できる。
ユーザ価値情報生成部132は、第1ユーザ特性情報156と第2ユーザ特性情報162とを比較し、ユーザに関する情報の信頼性を判定し、設定された水準以上の信頼性を有すると判定した情報に基づきユーザ価値情報164を生成する。
この構成によれば、信頼性の高いユーザ価値情報164を生成し、共有できる。
第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報を設定された属性に分類する分類部134を備え、ユーザ価値情報生成部132は、第1ユーザ特性情報156および第2ユーザ特性情報162から、分類部134により特定の属性に分類された情報を削除して、ユーザ価値情報164を生成する。
例えば、ユーザ価値情報生成部132は、第2ユーザ特性情報162から自慢話に分類される情報を削除して、ユーザ価値情報164を生成する。また、ユーザ価値情報生成部132は、ユーザU1の思い込みに分類される情報を含まないユーザ価値情報164を生成してもよい。
この構成によれば、ユーザU1以外の人にとって価値の高いユーザ価値情報164を生成できうる。
第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報をテキスト情報に変換する変換部133と、テキスト情報を評価するテキスト評価部136と、備え、分類部134は、テキスト情報を、自然言語の形態素または形態素の組み合わせからなる要素に切り分けて分類し、テキスト評価部136は、分類部134により分類された各々の要素、および、複数の要素の関係の少なくともいずれかに基づいて、テキスト情報の評価を決定し、決定した評価をユーザ価値情報164に付与する。
この構成によれば、ユーザ価値情報164に対し、テキストに基づく評価を付与することにより、定量的かつ相対的な評価を付与できる。このため、ユーザ価値情報164を利用する情報利用ユーザU2が、ユーザ価値情報164の価値を容易に判断できる。
分類部134は、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報から、ユーザU1の成功体験に分類される情報と失敗体験に分類される情報とを抽出し、テキスト評価部136は、成功体験に分類される情報と失敗体験に分類される情報との両方を含むユーザ価値情報164に対し、成功体験に分類された情報と失敗体験に分類された情報とのいずれかが含まれないユーザ価値情報164に比べて高い評価を付与する。
この構成によれば、ユーザU1以外の人にとって価値の高いユーザ価値情報164に対し、高い評価を付与できる。例えば、失敗体験の情報を含むユーザ価値情報164は、情報利用ユーザU2等に提供された場合の価値が高く、さらに成功体験の情報が加わることで、成功への参考となる可能性が高い。従って、ユーザ価値情報164の提供を受ける情報利用ユーザU2にとっての価値を基準として、ユーザ価値情報164に適切な評価を与えることができる。
分類部134は、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報から、抽象的表現に分類される情報と具体的表現に分類される情報とを抽出し、テキスト評価部136は、抽象的表現に分類される情報と具体的表現に分類される情報との両方を含むユーザ価値情報164に対し、抽象的表現に分類される情報と具体的表現に分類される情報とのいずれかが含まれないユーザ価値情報164に比べて高い評価を付与する。
この構成によれば、成功体験と失敗体験との両方に関する情報を含み、内容が充実しているユーザ価値情報164に高い評価を与える。これにより、ユーザ価値情報164の提供を受ける情報利用ユーザU2にとっての価値を基準として、ユーザ価値情報164に適切な評価を与えることができる。
ユーザU1に対する質問情報を出力する質問提示部135を備え、テキスト評価部136は、ユーザU1の価値を表現するために不足している情報を取得するための質問情報をユーザU1に対して提示する。
この構成によれば、ユーザU1から効率よく情報を得ることができる。
ユーザ価値情報生成部132は、ユーザU1から入力された情報に、ユーザU1が公開を許可しない情報が含まれる場合に、ユーザU1が公開を許可しない情報を含まないユーザ価値情報164を生成する。
この構成によれば、ユーザU1のプライバシー等に配慮し、ユーザU1の意図に沿ったユーザ価値情報164を生成できる。
サーバ100は、第1音声出力部252と、第1音声出力部252とは別体として構成される第2音声出力部262と、音声を集音する集音部253と、を備え、入力情報処理部131は、第1音声出力部252および第2音声出力部262から出力される音声に応じてユーザU1が発する音声を、集音部253で集音することにより、ユーザU1の音声によって入力される情報を取得し、第1音声出力部252によってユーザに対する質問の音声を出力させ、第2音声出力部262から質問の音声への応答を促す音声を出力させる。
この構成によれば、第1音声出力部252と第2音声出力部262とを用いて、グループ会話を模したヒアリングを行うことができる。これにより、ユーザU1に与える緊張感や警戒感を軽減し、ユーザU1をリラックスさせて、効率よく情報を得ることができる。
サーバ100は、情報利用ユーザU2が使用する利用端末装置350から閲覧要求の入力を受け付ける要求受付部142と、情報利用ユーザU2による閲覧要求の入力に対応して、ユーザに確認情報を出力する確認情報出力部としてのユーザ価値情報出力部144と、確認情報に応答してユーザが入力する応答入力を受け付ける応答受付部としてのユーザ価値情報出力部144と、情報利用ユーザU2とユーザとの間で対価を移動する対価取引処理を行う対価処理部147と、を備え、抽出条件取得部143は、閲覧要求の入力に基づいて抽出条件を取得し、ユーザ価値情報出力部144は、応答受付部により受け付けた応答入力に基づいて、抽出条件に基づいて抽出したユーザ価値情報164を利用端末装置350に出力し、対価処理部147は、ユーザ価値情報164の出力に応じて、情報利用ユーザU2から対価を徴収し、ユーザに対価を支払う処理を行う構成としてもよい。
この構成によれば、情報利用ユーザU2が対価を支払ってユーザ価値情報164の提供を受けることができ、ユーザ価値情報164の提供と、ユーザU1および情報利用ユーザU2における対価の流通とを含むプラットフォームを実現できる。
サーバ100は、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報をテキスト情報に変換する変換部133と、テキスト情報を評価するテキスト評価部136と、利用端末装置350からユーザ価値情報164に対する評価を取得する利用ユーザ評価取得部145と、利用ユーザ評価取得部145により取得された評価と、テキスト評価部136による評価との組み合わせに基づきユーザ価値情報164の統合的評価を決定する評価統合部146と、を備え、対価処理部147は、ユーザ価値情報164の統合的評価に基づいてユーザ価値情報164の対価を決定する。
この構成によれば、ユーザ価値情報164に対する多角的な評価を反映して、ユーザ価値情報164の提供に係る対価を設定できる。
[4.他の実施形態]
上記実施形態では、入力情報処理部131は、ヒアリングにおいて集音部253が集音した音声データを取得し、ヒアリングデータ159として記録する構成とした。入力情報処理部131、ヒアリングの際にカメラ211により撮像された撮像画像データに基づき情報を取得してもよい。すなわち、カメラ211によってヒアリング中のユーザU1を撮像し、ユーザU1のジェスチャを、入力情報として取得してもよい。この構成において、第1端末装置250または第2端末装置260がカメラを搭載し、ヒアリング中のユーザU1を撮像してもよい。これらの場合において、ヒアリングデータ159は、音声データと、撮像画像データとを含むデータであってもよい。
また、入力情報処理部131は、ユーザ端末装置230により入力されるテキストデータを取得してもよい。例えば、ユーザU1に対するヒアリングを、ユーザ端末装置230を用いたメッセージ交換により行ってもよい。この場合、ヒアリングデータ159は、ユーザ端末装置230とサーバ100とが交換したメッセージのデータであってもよい。
サーバ100は、第1端末装置250および第2端末装置260を利用してヒアリングを行う構成に限らず、例えば、3台以上の装置により音声を出力してもよいし、1台の装置のみにより音声を出力してもよい。
また、ユーザ端末装置230がスピーカを備える構成において、ユーザ端末装置230に、第2端末装置260の機能を実行させてもよい。また、ユーザ端末装置230がマイクおよびスピーカを備える構成において、ユーザ端末装置230に、第1端末装置250の機能を実行させてもよい。
ユーザU1のライフログを収集する装置は観察装置210等に限らず、例えば、ユーザU1が運転する自動車に搭載されたカメラ、センサ、GPSにより収集される情報、および/または、ユーザU1の住居に設置されたカメラやセンサにより収集される情報を、ライフログ情報取得部121により取得してもよい。
また、ユーザ端末装置230が、サーバ100のCPU120の機能の一部または全部を実行してもよい。この場合、サーバ100、或いはサーバ100に変えてメモリ150を備える装置と、ユーザ端末装置230とが、通信ネットワーク400を介して接続された構成とすることができる。ユーザ端末装置230は、例えば、ライフログ情報取得部121、抽出部122、記録部123、ヒアリング処理部130、テキスト評価部136、関連データ収集部140、登録部141、評価統合部146、および対価処理部147として機能してもよい。また、要求受付部142、抽出条件取得部143、ユーザ価値情報出力部144、利用ユーザ評価取得部145、対価処理部147の機能を、ユーザ端末装置230が実行してもよいし、他の装置が実行してもよい。
また、サーバ100とは異なる第2のサーバが、CPU120の機能の一部を実行してもよく、第2のサーバとサーバ100とが協働して図3に示す機能を実行してもよい。
なお、図3は、本願発明の理解を容易にするために、サーバ100の機能構成を、主な処理内容により区分して示した概略図であり、サーバ100の構成を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、各構成要素の処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。
1…情報管理システム、100…サーバ(情報処理装置)、120…CPU、121…ライフログ情報取得部、122…抽出部、123…記録部、130…ヒアリング処理部、131…入力情報処理部、132…ユーザ価値情報生成部、133…変換部、134…分類部、135…質問提示部、136…テキスト評価部、140…関連データ収集部、141…登録部、142…要求受付部、143…抽出条件取得部、144…ユーザ価値情報出力部(確認情報出力部、応答受付部)、145…利用ユーザ評価取得部、146…評価統合部、147…対価処理部、150…メモリ、151…制御用プログラム、152…ユーザDB、153…ライフログ情報記憶部、154…ライフログ情報、155…第1ユーザ特性情報記憶部、156…第1ユーザ特性情報、157…辞書データ、158…ヒアリングデータ記憶部、159…ヒアリングデータ、160…関連データ記憶部、161…第2ユーザ特性情報記憶部、162…第2ユーザ特性情報、163…ユーザ価値情報DB、164…ユーザ価値情報、165…価格データ、210…観察装置、220…生体情報検知装置、230…ユーザ端末装置、250…第1端末装置、252…第1音声出力部、253…集音部、260…第2端末装置、262…第2音声出力部、350…利用端末装置、400…通信ネットワーク。

Claims (14)

  1. ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、
    前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、
    前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、
    前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、
    前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、を備え
    前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行う分類部と、
    前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力する質問提示部と、をさらに備え、
    前記入力情報処理部は、前記質問提示部が前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、
    前記ユーザ価値情報生成部は、前記質問提示部が前記質問情報を出力した後に前記入力情報処理部により取得された前記第2ユーザ特性情報を含む前記第2ユーザ特性情報と、前記第1ユーザ特性情報とに基づいて、前記ユーザ価値情報を生成す
    情報処理装置。
  2. 前記ユーザ価値情報生成部により生成された前記ユーザ価値情報を、ユーザ価値データベースに登録する登録部と、
    抽出条件の入力を受け付ける抽出条件取得部と、
    前記抽出条件に基づいて、前記ユーザ価値データベースから前記ユーザ価値情報を抽出して出力するユーザ価値情報出力部と、を備える
    請求項1に記載の情報処理装置。
  3. 前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記ユーザの経験または特徴の価値を表現するために必要な情報を抽出することにより、前記ユーザ価値情報を生成する
    請求項1又は請求項2に記載の情報処理装置。
  4. 前記ユーザ価値情報生成部は、前記第1ユーザ特性情報と前記第2ユーザ特性情報とを比較し、
    前記ユーザに関する情報の信頼性を判定し、設定された水準以上の信頼性を有すると判定した情報に基づき前記ユーザ価値情報を生成する
    請求項1から請求項3のいずれか1項に記載の情報処理装置。
  5. 記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記分類部により特定の属性に分類された情報を削除して、前記ユーザ価値情報を生成する
    請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6. 前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、
    前記テキスト情報を評価するテキスト評価部と、備え、
    前記分類部は、前記テキスト情報を、自然言語の形態素または形態素の組み合わせからなる要素に切り分けて分類し、
    前記テキスト評価部は、前記分類部により分類された各々の前記要素、および、複数の前記要素の関係の少なくともいずれかに基づいて、前記テキスト情報の評価を決定し、決定した評価を前記ユーザ価値情報に付与する
    請求項1から請求項のいずれかに記載の情報処理装置。
  7. 前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、前記ユーザの成功体験に分類される情報と失敗体験に分類される情報とを抽出し、
    前記テキスト評価部は、前記成功体験に分類される情報と前記失敗体験に分類される情報との両方を含む前記ユーザ価値情報に対し、前記成功体験に分類された情報と前記失敗体験に分類された情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する
    請求項6に記載の情報処理装置。
  8. 前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、抽象的表現に分類される情報と具体的表現に分類される情報とを抽出し、
    前記テキスト評価部は、前記抽象的表現に分類される情報と前記具体的表現に分類される情報との両方を含む前記ユーザ価値情報に対し、前記抽象的表現に分類される情報と前記具体的表現に分類される情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する
    請求項6又は請求項7に記載の情報処理装置。
  9. 前記ユーザ価値情報生成部は、前記ユーザから入力された情報に、前記ユーザが公開を許可しない情報が含まれる場合に、前記ユーザが公開を許可しない情報を含まない前記ユーザ価値情報を生成する
    請求項1から請求項8のいずれか1項に記載の情報処理装置。
  10. 第1音声出力部と、前記第1音声出力部とは別体として構成される第2音声出力部と、音声を集音する集音部と、を備え、
    前記入力情報処理部は、前記第1音声出力部および前記第2音声出力部から出力される音声に応じて前記ユーザが発する音声を、前記集音部で集音することにより、前記ユーザの音声によって入力される情報を取得し、
    前記第1音声出力部によって前記ユーザに対する質問の音声を出力させ、前記第2音声出力部から前記質問の音声への応答を促す音声を出力させる
    請求項1から請求項9のいずれか1項に記載の情報処理装置。
  11. 情報利用ユーザが使用する利用端末装置から閲覧要求の入力を受け付ける要求受付部と、
    前記情報利用ユーザによる閲覧要求の入力に対応して、前記ユーザに確認情報を出力する確認情報出力部と、
    前記確認情報に応答して前記ユーザが入力する応答入力を受け付ける応答受付部と、
    前記情報利用ユーザと前記ユーザとの間で対価を移動する対価取引処理を行う対価処理部と、を備え、
    抽出条件取得部は、前記閲覧要求の入力に基づいて前記抽出条件を取得し、
    前記ユーザ価値情報出力部は、前記応答受付部により受け付けた前記応答入力に基づいて、前記抽出条件に基づいて抽出した前記ユーザ価値情報を前記利用端末装置に出力し、
    前記対価処理部は、前記ユーザ価値情報の出力に応じて、前記情報利用ユーザから対価を徴収し、前記ユーザに対価を支払う処理を行う
    請求項2に記載の情報処理装置。
  12. 前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、
    前記テキスト情報を評価するテキスト評価部と、
    前記利用端末装置から前記ユーザ価値情報に対する評価を取得する利用ユーザ評価取得部と、
    前記利用ユーザ評価取得部により取得された評価と、前記テキスト評価部による評価との組み合わせに基づき前記ユーザ価値情報の統合的評価を決定する評価統合部と、を備え、
    前記対価処理部は、前記ユーザ価値情報の統合的評価に基づいて前記ユーザ価値情報の対価を決定する
    請求項11に記載の情報処理装置。
  13. ユーザが使用する端末装置と通信するコンピュータによって、
    前記ユーザの生活において検出されるライフログ情報を取得し、
    前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出し、
    前記第1ユーザ特性情報を前記ユーザに対応づけて記録し、
    前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得し、
    前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行い、
    前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力し、
    前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、
    前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成する
    情報処理方法。
  14. コンピュータを、
    ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、
    前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、
    前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、
    前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、
    前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、
    前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行う分類部と、
    前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力する質問提示部と、して機能させ
    前記入力情報処理部は、前記質問提示部が前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、
    前記ユーザ価値情報生成部は、前記質問提示部が前記質問情報を出力した後に前記入力情報処理部により取得された前記第2ユーザ特性情報を含む前記第2ユーザ特性情報と、前記第1ユーザ特性情報とに基づいて、前記ユーザ価値情報を生成す
    プログラム。
JP2019050031A 2019-03-18 2019-03-18 情報処理装置、情報処理方法、および、プログラム Active JP7273563B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019050031A JP7273563B2 (ja) 2019-03-18 2019-03-18 情報処理装置、情報処理方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019050031A JP7273563B2 (ja) 2019-03-18 2019-03-18 情報処理装置、情報処理方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2020154427A JP2020154427A (ja) 2020-09-24
JP7273563B2 true JP7273563B2 (ja) 2023-05-15

Family

ID=72559010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050031A Active JP7273563B2 (ja) 2019-03-18 2019-03-18 情報処理装置、情報処理方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP7273563B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419313B2 (ja) * 2021-09-15 2024-01-22 Lineヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7368578B1 (ja) 2022-10-14 2023-10-24 医療法人社団M-Forest 呼吸器循環器系計測データ管理システム及び呼吸器循環器系計測データ管理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219845A (ja) 2016-06-05 2017-12-14 国立大学法人 千葉大学 発話促進装置及び発話促進プログラム
JP2019020882A (ja) 2017-07-13 2019-02-07 本田技研工業株式会社 ライフログ活用システム、方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219845A (ja) 2016-06-05 2017-12-14 国立大学法人 千葉大学 発話促進装置及び発話促進プログラム
JP2019020882A (ja) 2017-07-13 2019-02-07 本田技研工業株式会社 ライフログ活用システム、方法及びプログラム

Also Published As

Publication number Publication date
JP2020154427A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US20220382990A1 (en) System for minimizing repetition in intelligent virtual assistant conversations
Elliott Using narrative in social research: Qualitative and quantitative approaches
US20130144595A1 (en) Language translation based on speaker-related information
US11033216B2 (en) Augmenting questionnaires
US11756567B2 (en) Autocreation of conversational image representation
CN113035232B (zh) 一种基于语音识别的心理状态预测系统、方法及装置
CN110136721A (zh) 一种评分生成方法、装置、存储介质及电子设备
JP6649461B1 (ja) プログラム、情報処理装置及び情報処理方法
KR102100214B1 (ko) 음성 인식 기반의 세일즈 대화 분석 방법 및 장치
US9525841B2 (en) Imaging device for associating image data with shooting condition information
KR20100126052A (ko) 일정 관리 시스템 및 방법
JP7273563B2 (ja) 情報処理装置、情報処理方法、および、プログラム
US11361754B2 (en) Method and system for speech effectiveness evaluation and enhancement
US20220309936A1 (en) Video education content providing method and apparatus based on artificial intelligence natural language processing using characters
US12080288B2 (en) Learning support device, learning support method, and recording medium
CN114971658B (zh) 一种反诈宣传方法、系统、电子设备以及存储介质
WO2022180860A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
CN112381989A (zh) 排序方法、装置、系统和电子设备
US20200357385A1 (en) Information processing apparatus and information processing method
JP7152825B1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180856A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180862A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180853A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180858A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180857A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7273563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150