JP2020154427A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2020154427A
JP2020154427A JP2019050031A JP2019050031A JP2020154427A JP 2020154427 A JP2020154427 A JP 2020154427A JP 2019050031 A JP2019050031 A JP 2019050031A JP 2019050031 A JP2019050031 A JP 2019050031A JP 2020154427 A JP2020154427 A JP 2020154427A
Authority
JP
Japan
Prior art keywords
user
information
unit
value
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019050031A
Other languages
Japanese (ja)
Other versions
JP7273563B2 (en
Inventor
史興 浅野
Fumioki Asano
史興 浅野
西岡 誠
Makoto Nishioka
誠 西岡
由樹 達富
Yoshiki Tatsutomi
由樹 達富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019050031A priority Critical patent/JP7273563B2/en
Publication of JP2020154427A publication Critical patent/JP2020154427A/en
Application granted granted Critical
Publication of JP7273563B2 publication Critical patent/JP7273563B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processing apparatus, an information processing method, and a program that can provide a value based on an experience of a user to people other than the user.SOLUTION: A server 100 includes: a life log information acquisition unit 121 that acquires life log information detected in a user's life; an extraction unit 122 that extracts first user characteristic information 156 related to at least one of an experience and a characteristic of a user based on the life log information; a recording unit 123 that records the first user characteristic information 156 in association with the user; an input information processing unit that acquires second user characteristic information 162 related to the experience or the characteristic of the user based on information input from the user; and a user value information generation unit 132 that generates user value information 164 expressing a user value that can be provided to people other than the user, based on the first user characteristic information 156 and the second user characteristic information 162.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理方法、および、プログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

従来、ユーザに関するライフログ情報の取得および利用が提案されている。ライフログ情報は、ユーザの行動を知り、ユーザの行動を予測したサービスの提供等に利用される。例えば、特許文献1には、センサから取得したセンサデータをユーザに関するライフログ情報として取得し、ライフログ情報にラベルを付与するシステムが開示されている。このシステムは、ライフログ情報に基づいてユーザに対し発話を行い、発話へのユーザの応答を取得する。そして、発話と応答の間に矛盾が発生した場合に、ライフログ情報のラベルを修正する。 Conventionally, it has been proposed to acquire and use life log information about a user. The life log information is used for providing a service that knows the user's behavior and predicts the user's behavior. For example, Patent Document 1 discloses a system that acquires sensor data acquired from a sensor as life log information related to a user and assigns a label to the life log information. This system speaks to the user based on the life log information and acquires the user's response to the utterance. Then, when a contradiction occurs between the utterance and the response, the label of the life log information is corrected.

特開2015−152947号公報Japanese Unexamined Patent Publication No. 2015-152947

上記のように、ユーザに関する客観的な情報であるライフログ情報については種々の利用が提案されている。ライフログ情報と同様に、ユーザの経験、スキル、思考方法など、ユーザの内在的な側面に関して情報化することが可能であれば、利用価値があると考えられる。しかしながら、従来、ユーザの内在的な側面について、ユーザ以外の人に提供可能な情報を得る方法は、提案されていない。
本発明は上記背景に鑑みてなされたものであり、ユーザの経験等に基づく価値をユーザ以外の人に提供できる情報処理装置、情報処理方法、および、プログラムを提供することを目的とする。
As described above, various uses have been proposed for life log information, which is objective information about the user. As with life log information, if it is possible to informatize the user's intrinsic aspects such as the user's experience, skills, and thinking methods, it is considered to be useful. However, conventionally, no method has been proposed for obtaining information that can be provided to a person other than the user regarding the intrinsic aspect of the user.
The present invention has been made in view of the above background, and an object of the present invention is to provide an information processing device, an information processing method, and a program capable of providing a value based on a user's experience or the like to a person other than the user.

上記目的を達成するための態様として、ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、を備える情報処理装置が挙げられる。 As an embodiment for achieving the above object, at least one of the user's experience and features based on the life log information acquisition unit that acquires the life log information detected in the user's life and the life log information. An extraction unit that extracts related first user characteristic information, a recording unit that records the first user characteristic information in association with the user, and an experience or feature of the user based on information input from the user. A user who expresses a user value that can be provided to a person other than the user based on the input information processing unit that acquires the second user characteristic information related to the first user characteristic information and the first user characteristic information and the second user characteristic information. An information processing device including a user value information generation unit that generates value information can be mentioned.

上記情報処理装置において、前記ユーザ価値情報生成部により生成された前記ユーザ価値情報を、ユーザ価値データベースに登録する登録部と、抽出条件の入力を受け付ける抽出条件取得部と、前記抽出条件に基づいて、前記ユーザ価値データベースから前記ユーザ価値情報を抽出して出力するユーザ価値情報出力部と、を備える構成としてもよい。 In the information processing apparatus, based on the registration unit that registers the user value information generated by the user value information generation unit in the user value database, the extraction condition acquisition unit that accepts the input of the extraction condition, and the extraction condition. , The user value information output unit that extracts and outputs the user value information from the user value database may be provided.

上記情報処理装置において、前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記ユーザの経験または特徴の価値を表現するために必要な情報を抽出することにより、前記ユーザ価値情報を生成する構成としてもよい。 In the information processing device, the user value information generation unit extracts information necessary for expressing the value of the user's experience or feature from the first user characteristic information and the second user characteristic information. , The user value information may be generated.

上記情報処理装置において、前記ユーザ価値情報生成部は、前記第1ユーザ特性情報と前記第2ユーザ特性情報とを比較し、前記ユーザに関する情報の信頼性を判定し、設定された水準以上の信頼性を有すると判定した情報に基づき前記ユーザ価値情報を生成する構成としてもよい。 In the information processing device, the user value information generation unit compares the first user characteristic information with the second user characteristic information, determines the reliability of the information about the user, and has a reliability equal to or higher than a set level. The user value information may be generated based on the information determined to have the property.

上記情報処理装置において、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報を設定された属性に分類する分類部を備え、前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記分類部により特定の属性に分類された情報を削除して、前記ユーザ価値情報を生成する構成としてもよい。 The information processing apparatus includes a classification unit that classifies the first user characteristic information and the information contained in the second user characteristic information into set attributes, and the user value information generation unit includes the first user characteristic information. And the information classified into a specific attribute by the classification unit may be deleted from the second user characteristic information to generate the user value information.

上記情報処理装置において、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、前記テキスト情報を評価するテキスト評価部と、備え、前記分類部は、前記テキスト情報を、自然言語の形態素または形態素の組み合わせからなる要素に切り分けて分類し、前記テキスト評価部は、前記分類部により分類された各々の前記要素、および、複数の前記要素の関係の少なくともいずれかに基づいて、前記テキスト情報の評価を決定し、決定した評価を前記ユーザ価値情報に付与する構成としてもよい。 The information processing apparatus includes a conversion unit that converts the first user characteristic information and the information contained in the second user characteristic information into text information, and a text evaluation unit that evaluates the text information. , The text information is divided into elements composed of morphemes or combinations of morphemes in natural language and classified, and the text evaluation unit is a relationship between each of the elements classified by the classification unit and a plurality of the elements. The evaluation of the text information may be determined based on at least one of them, and the determined evaluation may be given to the user value information.

上記情報処理装置において、前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、前記ユーザの成功体験に分類される情報と失敗体験に分類される情報とを抽出し、前記テキスト評価部は、前記成功体験に分類される情報と前記失敗体験に分類される情報との両方を含む前記ユーザ価値情報に対し、前記成功体験に分類された情報と前記失敗体験に分類された情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する構成としてもよい。 In the information processing apparatus, the classification unit selects information classified into the success experience of the user and information classified into the failure experience from the information included in the first user characteristic information and the second user characteristic information. The text evaluation unit extracts the information classified into the success experience and the failure experience with respect to the user value information including both the information classified into the success experience and the information classified into the failure experience. It may be configured to give a higher evaluation than the user value information that does not include any of the information classified in.

上記情報処理装置において、前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、抽象的表現に分類される情報と具体的表現に分類される情報とを抽出し、前記テキスト評価部は、前記抽象的表現に分類される情報と前記具体的表現に分類される情報との両方を含む前記ユーザ価値情報に対し、前記抽象的表現に分類される情報と前記具体的表現に分類される情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する構成としてもよい。 In the information processing apparatus, the classification unit extracts information classified into an abstract expression and information classified into a specific expression from the information included in the first user characteristic information and the second user characteristic information. Then, the text evaluation unit refers to the information classified into the abstract expression and the information classified into the abstract expression with respect to the user value information including both the information classified into the abstract expression and the information classified into the specific expression. It may be configured to give a higher evaluation than the user value information that does not include any of the information classified into the specific expression.

上記情報処理装置において、前記ユーザに対する質問情報を出力する質問提示部を備え、前記質問提示部は、前記ユーザの価値を表現するために不足している情報を取得するための前記質問情報を前記ユーザに対して提示する構成としてもよい。 The information processing device includes a question presenting unit that outputs question information to the user, and the question presenting unit obtains the question information for acquiring information that is insufficient to express the value of the user. It may be configured to be presented to the user.

上記情報処理装置において、前記ユーザ価値情報生成部は、前記ユーザから入力された情報に、前記ユーザが公開を許可しない情報が含まれる場合に、前記ユーザが公開を許可しない情報を含まない前記ユーザ価値情報を生成する構成としてもよい。 In the information processing device, when the information input by the user includes information that the user does not permit to be published, the user value information generation unit does not include the information that the user does not permit to publish. It may be configured to generate value information.

上記情報処理装置において、第1音声出力部と、前記第1音声出力部とは別体として構成される第2音声出力部と、音声を集音する集音部と、を備え、前記入力情報処理部は、前記第1音声出力部および前記第2音声出力部から出力される音声に応じて前記ユーザが発する音声を、前記集音部で集音することにより、前記ユーザの音声によって入力される情報を取得し、前記第1音声出力部によって前記ユーザに対する質問の音声を出力させ、前記第2音声出力部から前記質問の音声への応答を促す音声を出力させる構成としてもよい。 The information processing apparatus includes a first audio output unit, a second audio output unit configured as a separate body from the first audio output unit, and a sound collecting unit for collecting audio, and the input information. The processing unit is input by the user's voice by collecting the voice emitted by the user in response to the voice output from the first voice output unit and the second voice output unit by the sound collecting unit. Information may be acquired, the voice of a question to the user may be output by the first voice output unit, and the voice prompting a response to the voice of the question may be output from the second voice output unit.

上記情報処理装置において、情報利用ユーザが使用する利用端末装置から閲覧要求の入力を受け付ける要求受付部と、前記情報利用ユーザによる閲覧要求の入力に対応して、前記ユーザに確認情報を出力する確認情報出力部と、前記確認情報に応答して前記ユーザが入力する応答入力を受け付ける応答受付部と、前記情報利用ユーザと前記ユーザとの間で対価を移動する対価取引処理を行う対価処理部と、を備え、抽出条件取得部は、前記閲覧要求の入力に基づいて前記抽出条件を取得し、前記ユーザ価値情報出力部は、前記応答受付部により受け付けた前記応答入力に基づいて、前記抽出条件に基づいて抽出した前記ユーザ価値情報を前記利用端末装置に出力し、前記対価処理部は、前記ユーザ価値情報の出力に応じて、前記情報利用ユーザから対価を徴収し、前記ユーザに対価を支払う処理を行う構成としてもよい。 In the information processing device, a request receiving unit that accepts an input of a browsing request from a user terminal device used by an information using user, and a confirmation that outputs confirmation information to the user in response to an input of a browsing request by the information using user. An information output unit, a response reception unit that receives a response input input by the user in response to the confirmation information, and a consideration processing unit that performs a consideration transaction process for moving the consideration between the information user and the user. The extraction condition acquisition unit acquires the extraction condition based on the input of the browsing request, and the user value information output unit obtains the extraction condition based on the response input received by the response reception unit. The user value information extracted based on the above is output to the user terminal device, and the consideration processing unit collects the consideration from the information user and pays the user in response to the output of the user value information. It may be configured to perform processing.

上記情報処理装置において、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、前記テキスト情報を評価するテキスト評価部と、前記利用端末装置から前記ユーザ価値情報に対する評価を取得する利用ユーザ評価取得部と、前記利用ユーザ評価取得部により取得された評価と、前記テキスト評価部による評価との組み合わせに基づき前記ユーザ価値情報の統合的評価を決定する評価統合部と、を備え、前記対価処理部は、前記ユーザ価値情報の統合的評価に基づいて前記ユーザ価値情報の対価を決定する構成としてもよい。 In the information processing device, a conversion unit that converts the first user characteristic information and the information contained in the second user characteristic information into text information, a text evaluation unit that evaluates the text information, and the user terminal device The integrated evaluation of the user value information is determined based on the combination of the user evaluation acquisition unit that acquires the evaluation for the user value information, the evaluation acquired by the user evaluation acquisition unit, and the evaluation by the text evaluation unit. The evaluation integrated unit and the consideration processing unit may be configured to determine the consideration of the user value information based on the integrated evaluation of the user value information.

上記目的を達成するための別の態様として、ユーザの生活において検出されるライフログ情報を取得し、前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出し、前記第1ユーザ特性情報を前記ユーザに対応づけて記録し、前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得し、前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成する情報処理方法が挙げられる。 As another aspect for achieving the above object, a first aspect of acquiring life log information detected in the user's life and using the life log information, which is related to at least one of the user's experience and characteristics. User characteristic information is extracted, the first user characteristic information is recorded in association with the user, and the second user characteristic information related to the experience or characteristic of the user is acquired based on the information input from the user. Then, an information processing method for generating user value information expressing a user value that can be provided to a person other than the user based on the first user characteristic information and the second user characteristic information can be mentioned.

上記目的を達成するための別の態様として、コンピュータを、ユーザの生活において検出されるライフログ情報を取得するライフログ取得部と、前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、して機能させるプログラムが挙げられる。 As another aspect for achieving the above object, a computer is provided with a life log acquisition unit that acquires life log information detected in the user's life, and the user's experience and characteristics based on the life log information. The user is based on an extraction unit that extracts at least one of the first user characteristic information, a recording unit that records the first user characteristic information in association with the user, and information input from the user. A user value that can be provided to a person other than the user based on the input information processing unit that acquires the second user characteristic information related to the experience or the characteristic of the user, and the first user characteristic information and the second user characteristic information. A user value information generation unit that generates user value information that expresses the above, and a program that functions as a user value information generation unit can be mentioned.

上記情報処理装置によれば、ユーザの経験や特徴の価値を表現したユーザ価値情報を得ることにより、ユーザの内在的な価値を、ユーザ以外の人にも提供可能な情報にして、利用できる。ユーザ価値情報は、記録や伝達が可能な情報であるから、ユーザ価値情報を生成することにより、ユーザの経験や特徴を社会的資産として活用可能となる。また、客観性を有するライフログをもとに抽出される第1ユーザ特性情報と、主観的な特徴を有する第2ユーザ特性情報とに基づいてユーザ価値情報を生成するので、普遍性を有し、利用価値の高いユーザ価値情報を得ることができる。上記情報処理方法、および、プログラムによる場合にも、同様の作用効果を得ることができる。 According to the information processing device, by obtaining user value information expressing the value of the user's experience and features, the intrinsic value of the user can be made into information that can be provided to a person other than the user and used. Since user value information is information that can be recorded and transmitted, by generating user value information, the user's experience and characteristics can be utilized as social assets. Further, since the user value information is generated based on the first user characteristic information extracted based on the objective life log and the second user characteristic information having subjective characteristics, it has universality. , User value information with high utility value can be obtained. Similar effects can be obtained by the above information processing method and the program.

情報管理システムの概略構成を示す説明図。Explanatory drawing which shows the schematic structure of an information management system. 情報管理システムの要部構成図。The block diagram of the main part of the information management system. サーバの機能的構成を示すブロック図。A block diagram showing the functional configuration of the server. ヒアリングの態様を示す説明図。Explanatory drawing which shows the mode of hearing. 第2ユーザ特性情報の構成例を示す模式図。The schematic diagram which shows the structural example of the 2nd user characteristic information. サーバの動作を示すフローチャート。A flowchart showing the operation of the server. サーバの動作を示すフローチャート。A flowchart showing the operation of the server. ユーザ価値情報の表示例を示す図。The figure which shows the display example of the user value information.

以下、図面を参照して本発明の実施形態について説明する。
[1.情報管理システムの概要]
図1は、本発明の情報処理装置を適用したサーバ100を含む情報管理システム1の概略構成を示す図である。図2は、情報管理システム1の要部構成図であり、情報管理システム1を構成する装置の一部について、機能的構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[1. Information management system overview]
FIG. 1 is a diagram showing a schematic configuration of an information management system 1 including a server 100 to which the information processing apparatus of the present invention is applied. FIG. 2 is a configuration diagram of a main part of the information management system 1, and is a block diagram showing a functional configuration of a part of the devices constituting the information management system 1.

情報管理システム1は、サーバ100、および、通信ネットワーク400を介してサーバ100に通信可能に接続される各種装置により構成される。情報管理システム1は、ユーザU1のライフログを収集する装置として、観察装置210、生体情報検知装置220、およびユーザ端末装置230を含む。これら各装置は通信装置300により通信ネットワーク400に接続され、サーバ100と通信可能である。 The information management system 1 is composed of a server 100 and various devices communicably connected to the server 100 via a communication network 400. The information management system 1 includes an observation device 210, a biological information detection device 220, and a user terminal device 230 as devices for collecting the life log of the user U1. Each of these devices is connected to the communication network 400 by the communication device 300 and can communicate with the server 100.

観察装置210は、ユーザU1およびその周辺環境を対象として検知を行う装置である。図1には、ユーザU1の周囲を飛翔するドローンを観察装置210として用いる例を示す。
生体情報検知装置220は、ユーザU1の身体に装着され、ユーザU1の身体に関する計測や検知を行う装置である。図1には、ユーザU1の腕に装着される腕時計型の装置として構成した例を示す。
The observation device 210 is a device that detects the user U1 and its surrounding environment. FIG. 1 shows an example in which a drone flying around the user U1 is used as the observation device 210.
The biological information detection device 220 is a device that is attached to the body of the user U1 and measures and detects the body of the user U1. FIG. 1 shows an example configured as a wristwatch-type device worn on the arm of the user U1.

ユーザ端末装置230は、ユーザU1が使用する端末装置であり、ユーザU1による入力操作、情報の表示等の機能を有する。また、ユーザ端末装置230は、後述するセンサを備え、ユーザU1に関する計測や検知を行う。ユーザ端末装置230は、例えば、ユーザU1が使用するパーソナルコンピュータやスマートフォン等である。 The user terminal device 230 is a terminal device used by the user U1, and has functions such as an input operation by the user U1 and a display of information. Further, the user terminal device 230 includes a sensor described later, and measures and detects the user U1. The user terminal device 230 is, for example, a personal computer, a smartphone, or the like used by the user U1.

情報管理システム1は、通信ネットワーク400によりサーバ100に接続される利用端末装置350を含む。利用端末装置350は、情報利用ユーザU2が使用する端末装置であり、パーソナルコンピュータやスマートフォン等である。 The information management system 1 includes a user terminal device 350 connected to the server 100 by the communication network 400. The user terminal device 350 is a terminal device used by the information user U2, such as a personal computer or a smartphone.

通信ネットワーク400は、公衆回線網、専用線、或いはその他の通信回線を含んで構成される広域ネットワーク、或いは、LAN(Local Area Network)等の構内通信ネットワークである。通信ネットワーク400は、サーバ100と、他の装置とをデータ通信可能に接続する。 The communication network 400 is a wide area network including a public line network, a dedicated line, or other communication line, or a premises communication network such as a LAN (Local Area Network). The communication network 400 connects the server 100 and other devices so that data communication is possible.

本実施形態で、観察装置210、生体情報検知装置220、第1端末装置250、および第2端末装置260は、通信装置300と通信を実行する。
通信装置300は、観察装置210、生体情報検知装置220、第1端末装置250、および第2端末装置260の各装置を通信ネットワーク400に接続する中継機能を有する。通信装置300は、上記各装置との間で、Wi−Fi(登録商標)、Bluetooth(登録商標)等の無線通信を実行する。
In the present embodiment, the observation device 210, the biological information detection device 220, the first terminal device 250, and the second terminal device 260 perform communication with the communication device 300.
The communication device 300 has a relay function for connecting each device of the observation device 210, the biological information detection device 220, the first terminal device 250, and the second terminal device 260 to the communication network 400. The communication device 300 executes wireless communication such as Wi-Fi (registered trademark) and Bluetooth (registered trademark) with each of the above devices.

ユーザ端末装置230は、通信装置300を介さずにモバイル無線通信により通信ネットワーク400に接続して、サーバ100との間でデータ通信を実行する。また、ユーザ端末装置230は、通信装置300と通信を実行することにより、通信装置300を経由してサーバ100と通信を行ってもよい。 The user terminal device 230 connects to the communication network 400 by mobile wireless communication without going through the communication device 300, and executes data communication with the server 100. Further, the user terminal device 230 may communicate with the server 100 via the communication device 300 by executing communication with the communication device 300.

なお、観察装置210および生体情報検知装置220は、それぞれ、通信装置300を介さずにモバイル無線通信により通信ネットワーク400に接続して、サーバ100との間でデータ通信を実行してもよい。
また、観察装置210および生体情報検知装置220は、ユーザ端末装置230と無線通信を実行し、ユーザ端末装置230が、観察装置210および生体情報検知装置220とサーバ100との通信を中継してもよい。ユーザ端末装置230は、観察装置210および生体情報検知装置220が送信するデータを受信して蓄積し、蓄積したデータをサーバ100に送信してもよい。
The observation device 210 and the biometric information detection device 220 may each be connected to the communication network 400 by mobile wireless communication without going through the communication device 300, and may execute data communication with the server 100.
Further, the observation device 210 and the biometric information detection device 220 execute wireless communication with the user terminal device 230, and even if the user terminal device 230 relays the communication between the observation device 210 and the biometric information detection device 220 and the server 100. Good. The user terminal device 230 may receive and store the data transmitted by the observation device 210 and the biometric information detection device 220, and transmit the stored data to the server 100.

サーバ100は、観察装置210、生体情報検知装置220およびユーザ端末装置230から、ユーザU1の生活において検出されるデータを取得し、取得したデータに基づきライフログ情報154を生成し、記憶する。 The server 100 acquires data detected in the life of the user U1 from the observation device 210, the biological information detection device 220, and the user terminal device 230, and generates and stores the life log information 154 based on the acquired data.

ライフログは、対象となる人物の生命活動、生態、および社会的行動の少なくともいずれかに属するデータで構成され、人物の生活の記録として利用可能な情報を指す。本実施形態のライフログ情報154は、対象となる人物であるユーザU1の行動を記録した情報である。サーバ100は、ユーザU1の位置、移動経路、ユーザU1の生体情報等から、ユーザU1の行動を特定し、ユーザU1の行動と日時とを対応づけるライフログ情報154を生成する。例えば、ライフログ情報154は、ユーザU1が食事をした日時、食事をした場所の位置情報、店舗名、食事をした場所の撮像画像データ、食事に要した時間等を含む。 A life log is composed of data belonging to at least one of the life activity, ecology, and social behavior of a target person, and refers to information that can be used as a record of the person's life. The life log information 154 of the present embodiment is information that records the behavior of the user U1 who is the target person. The server 100 identifies the behavior of the user U1 from the position of the user U1, the movement route, the biometric information of the user U1, and the like, and generates the life log information 154 that associates the behavior of the user U1 with the date and time. For example, the life log information 154 includes the date and time when the user U1 ate, the location information of the place where the meal was eaten, the store name, the image data of the place where the meal was eaten, the time required for the meal, and the like.

情報管理システム1は、ユーザU1へのヒアリングを行う第1端末装置250、および第2端末装置260を含む。第1端末装置250および第2端末装置260は、ユーザU1に対して音や音声を出力する対話型のユーザインタフェイス装置であり、ユーザU1と会話を行い、ユーザU1が発する音声を集音する。第1端末装置250および第2端末装置260とユーザU1との会話におけるユーザU1の発話のデータはサーバ100に送信される。以下の説明では、自然言語による音声、および、その他の音を含めて、音声という。第1端末装置250および第2端末装置260はユーザU1と会話を行い、ユーザU1の発言を促す。サーバ100は、ユーザU1が発話した内容を、ヒアリングデータ159として記憶する。 The information management system 1 includes a first terminal device 250 and a second terminal device 260 that conduct hearings with the user U1. The first terminal device 250 and the second terminal device 260 are interactive user interface devices that output sounds and voices to the user U1, have a conversation with the user U1, and collect the sounds emitted by the user U1. .. The data of the utterance of the user U1 in the conversation between the first terminal device 250 and the second terminal device 260 and the user U1 is transmitted to the server 100. In the following description, voice in natural language and other sounds are referred to as voice. The first terminal device 250 and the second terminal device 260 have a conversation with the user U1 and prompt the user U1 to speak. The server 100 stores the content spoken by the user U1 as hearing data 159.

サーバ100は、ライフログ情報154と、ヒアリングデータ159とに基づいて、ユーザ価値情報164を生成する。
ユーザ価値情報164は、ユーザU1が有する経験、スキル、思考方法、ノウハウ等の内在的な情報のうち、他の人と共有することで価値を生じる情報である。例えば、ユーザU1の過去の失敗や成功の経験は、ユーザU1以外の人にとって問題の解決策や示唆を与えることができるので、価値を生じる。ユーザU1の内在的な情報を具現化することで生じる価値を、以下の説明ではユーザU1の真価という。ユーザ価値情報164は、ユーザU1の真価をユーザU1以外の人に伝達可能な形態にした情報である。例えば、ユーザU1の個人的な思い込みは、他の人と共有することが困難であるか、共有しても価値を生じないので、真価を有しないといえる。
The server 100 generates user value information 164 based on the life log information 154 and the hearing data 159.
The user value information 164 is information that is valued by being shared with other people among the intrinsic information such as experience, skill, thinking method, know-how, etc. possessed by the user U1. For example, the experience of user U1's past failures and successes creates value because it can provide solutions and suggestions for problems to anyone other than user U1. The value generated by embodying the intrinsic information of the user U1 is referred to as the true value of the user U1 in the following description. The user value information 164 is information in which the true value of the user U1 can be transmitted to a person other than the user U1. For example, it can be said that the personal belief of the user U1 has no true value because it is difficult to share it with other people or sharing it does not generate value.

サーバ100は、ユーザU1以外の人に対し、ユーザ価値情報164を提供することによってユーザU1の経験、スキル、思考方法、ノウハウ等から価値を享受させる。また、サーバ100は、ユーザU1の真価をユーザ価値情報164として具現化し、ユーザU1の真価に市場性を持たせ、真価を提供することによる対価の獲得を可能とする。 By providing the user value information 164 to a person other than the user U1, the server 100 enjoys the value from the experience, skill, thinking method, know-how, etc. of the user U1. Further, the server 100 embodies the true value of the user U1 as the user value information 164, makes the true value of the user U1 marketable, and makes it possible to obtain the consideration by providing the true value.

情報利用ユーザU2は、利用端末装置350を操作して、サーバ100が有するユーザ価値情報164を利用する。利用端末装置350は、情報利用ユーザU2の操作に従って、サーバ100に対してユーザ価値情報164の提供を要求する。サーバ100は、利用端末装置350の要求に適合するユーザ価値情報164を抽出し、利用端末装置350に送信する。利用端末装置350は、サーバ100から送信されるユーザ価値情報164を受信して表示し、情報利用ユーザU2に提供する。 The information user U2 operates the user terminal device 350 to use the user value information 164 of the server 100. The user terminal device 350 requests the server 100 to provide the user value information 164 according to the operation of the information user U2. The server 100 extracts the user value information 164 that meets the requirements of the user terminal device 350 and transmits it to the user terminal device 350. The user terminal device 350 receives and displays the user value information 164 transmitted from the server 100, and provides it to the information user U2.

また、サーバ100は、情報利用ユーザU2がユーザ価値情報164を利用した場合に、対価の決済を行う。具体的には、情報利用ユーザU2からユーザ価値情報164の対価として支払いを受け、ユーザ価値情報164のもととなる情報を提供したユーザU1に対して対価の支払いを行う。 Further, the server 100 setstles the consideration when the information use user U2 uses the user value information 164. Specifically, it receives payment from the information-using user U2 as consideration for the user value information 164, and pays the consideration to the user U1 who has provided the information that is the source of the user value information 164.

[2.情報管理システムの各部の構成]
図2を参照して、観察装置210、生体情報検知装置220、ユーザ端末装置230、第1端末装置250、および第1端末装置250の構成を説明する。
[2. Configuration of each part of the information management system]
The configurations of the observation device 210, the biological information detection device 220, the user terminal device 230, the first terminal device 250, and the first terminal device 250 will be described with reference to FIG.

観察装置210は、カメラ211および通信部212を備える。観察装置210は、カメラ211によりユーザU1を撮像した撮像画像データを、通信部212によりサーバ100に送信する。 The observation device 210 includes a camera 211 and a communication unit 212. The observation device 210 transmits the captured image data obtained by capturing the user U1 by the camera 211 to the server 100 by the communication unit 212.

生体情報検知装置220は、制御部221、生体センサ222、体動センサ223、および通信部224を備える。制御部221は、CPU(Central Processing Unit)等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、生体情報検知装置220の各部を制御する。 The biological information detection device 220 includes a control unit 221, a biological sensor 222, a body motion sensor 223, and a communication unit 224. The control unit 221 includes a processor such as a CPU (Central Processing Unit), and controls each unit of the biometric information detection device 220 by executing a program stored in a storage unit (not shown).

生体センサ222は、ユーザU1の生体情報を検知するセンサである。具体的には、脈拍、血圧、血中酸素濃度、体温、発汗等を検知する。体動センサ223は、生体情報検知装置220の動きを検知する動きセンサである。例えば、体動センサ223は、加速度センサ、ジャイロセンサ、および、磁気センサからなるコンパス等である。生体情報検知装置220は複数種類の動きセンサを統合した統合センサユニットであってもよい。例えば、6軸センサユニットや9軸センサユニットを体動センサ223として採用できる。
制御部221は、生体センサ222の検知結果、および、体動センサ223の検知結果を通信部224によりサーバ100に送信する。
The biosensor 222 is a sensor that detects the biometric information of the user U1. Specifically, it detects pulse, blood pressure, blood oxygen concentration, body temperature, sweating, and the like. The body motion sensor 223 is a motion sensor that detects the motion of the biological information detection device 220. For example, the body motion sensor 223 is a compass including an acceleration sensor, a gyro sensor, and a magnetic sensor. The biological information detection device 220 may be an integrated sensor unit that integrates a plurality of types of motion sensors. For example, a 6-axis sensor unit or a 9-axis sensor unit can be adopted as the body motion sensor 223.
The control unit 221 transmits the detection result of the biosensor 222 and the detection result of the body motion sensor 223 to the server 100 by the communication unit 224.

ユーザ端末装置230は、制御部231、入力部232、表示部233、9軸センサ234、GPS(Global Positioning System)235、気圧センサ236、および、通信部237を備える。
制御部231は、CPU等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、ユーザ端末装置230の各部を制御する。
The user terminal device 230 includes a control unit 231, an input unit 232, a display unit 233, a 9-axis sensor 234, a GPS (Global Positioning System) 235, a barometric pressure sensor 236, and a communication unit 237.
The control unit 231 includes a processor such as a CPU, and controls each unit of the user terminal device 230 by executing a program stored in a storage unit (not shown).

入力部232は、ユーザU1による入力操作を受け付けて、入力されたデータを制御部231に出力する。表示部233は、液晶表示パネルや有機EL(Electro Luminescence)表示パネルで構成される表示画面を備え、制御部231の制御に従って文字や画像を表示する。 The input unit 232 receives the input operation by the user U1 and outputs the input data to the control unit 231. The display unit 233 includes a display screen composed of a liquid crystal display panel and an organic EL (Electroluminescence) display panel, and displays characters and images under the control of the control unit 231.

ユーザ端末装置230は、動きセンサを備える。本実施形態では、一例として、3軸加速度センサ、3軸角ジャイロセンサ、3軸コンパスを統合した9軸センサ234を備える例を示す。9軸センサ234は、ユーザ端末装置230の動きを検知する。
GPS235は、人工衛星から送信される無線信号を受信することによりユーザ端末装置230の位置を検出する。
気圧センサ236は、ユーザ端末装置230の環境の気圧を検知する。
The user terminal device 230 includes a motion sensor. In this embodiment, as an example, an example including a 3-axis acceleration sensor, a 3-axis angle gyro sensor, and a 9-axis sensor 234 integrated with a 3-axis compass is shown. The 9-axis sensor 234 detects the movement of the user terminal device 230.
The GPS 235 detects the position of the user terminal device 230 by receiving a radio signal transmitted from an artificial satellite.
The barometric pressure sensor 236 detects the barometric pressure in the environment of the user terminal device 230.

通信部237は、制御部231の制御に従って、モバイル無線通信により通信ネットワーク400に接続し、サーバ100との間でデータ通信を実行する。
制御部231は、9軸センサ234、GPS235、および気圧センサ236の検知結果を通信部237によりサーバ100に送信する。
The communication unit 237 connects to the communication network 400 by mobile wireless communication under the control of the control unit 231 and executes data communication with the server 100.
The control unit 231 transmits the detection results of the 9-axis sensor 234, the GPS 235, and the barometric pressure sensor 236 to the server 100 by the communication unit 237.

また、制御部231は、ユーザU1により入力されたデータをサーバ100に送信してもよい。また、制御部231は、サーバ100から受信したデータに基づき、表示部233に文字や画像を表示させる。 Further, the control unit 231 may transmit the data input by the user U1 to the server 100. Further, the control unit 231 causes the display unit 233 to display characters and images based on the data received from the server 100.

カメラ211の撮像画像データはユーザU1の行動および動作を、ユーザU1の周囲とともに記録した情報である。体動センサ223および9軸センサ234の検知結果はユーザU1の動きを示し、GPS235および気圧センサ236の検知結果は、ユーザU1の位置を示す。生体センサ222の検知結果はユーザU1の生命活動を示す。これらのライフログを統合的に処理することにより、ユーザU1の行動の記録を生成できる。 The captured image data of the camera 211 is information that records the actions and actions of the user U1 together with the surroundings of the user U1. The detection results of the body motion sensor 223 and the 9-axis sensor 234 indicate the movement of the user U1, and the detection results of the GPS 235 and the barometric pressure sensor 236 indicate the position of the user U1. The detection result of the biosensor 222 indicates the life activity of the user U1. By processing these life logs in an integrated manner, it is possible to generate a record of the behavior of the user U1.

第1端末装置250は、第1端末制御部251、第1音声出力部252、集音部253、および、通信部254を備える。第1端末制御部251は、CPU等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、第1端末装置250の各部を制御する。 The first terminal device 250 includes a first terminal control unit 251, a first audio output unit 252, a sound collecting unit 253, and a communication unit 254. The first terminal control unit 251 includes a processor such as a CPU, and controls each unit of the first terminal device 250 by executing a program stored in a storage unit (not shown).

第1音声出力部252は、デジタル音声データをアナログ音声信号に変換するD/Aコンバータ、アンプ、スピーカ等を備え、第1端末制御部251から入力されるデジタル音声データに基づき音声を出力する。集音部253は、マイクにより音声を集音してアナログ音声信号またはデジタル音声データを生成し、第1端末制御部251に出力する。 The first audio output unit 252 includes a D / A converter, an amplifier, a speaker, and the like that convert digital audio data into an analog audio signal, and outputs audio based on the digital audio data input from the first terminal control unit 251. The sound collecting unit 253 collects sound by a microphone to generate an analog voice signal or digital voice data, and outputs the sound to the first terminal control unit 251.

第1端末制御部251は、通信部254によりサーバ100との間で通信を実行する。第1端末制御部251は、サーバ100から受信するデジタル音声データに基づく音声を第1音声出力部252から出力させる。また、第1端末制御部251は、集音部253が集音した音声のデジタル音声データをサーバ100に送信する。 The first terminal control unit 251 executes communication with the server 100 by the communication unit 254. The first terminal control unit 251 outputs a voice based on the digital voice data received from the server 100 from the first voice output unit 252. Further, the first terminal control unit 251 transmits the digital voice data of the voice collected by the sound collecting unit 253 to the server 100.

第2端末装置260は、第2端末制御部261、第2音声出力部262、および、通信部263を備える。第2端末制御部261は、CPU等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、第2端末装置260の各部を制御する。 The second terminal device 260 includes a second terminal control unit 261 and a second audio output unit 262, and a communication unit 263. The second terminal control unit 261 includes a processor such as a CPU, and controls each unit of the second terminal device 260 by executing a program stored in a storage unit (not shown).

第2音声出力部262は、デジタル音声データをアナログ音声信号に変換するD/Aコンバータ、アンプ、スピーカ等を備え、第2端末制御部261から入力されるデジタル音声データに基づき音声を出力する。第2端末制御部261は、通信部263によりサーバ100との間で通信を実行し、サーバ100から受信するデジタル音声データに基づく音声を第2音声出力部262から出力させる。 The second audio output unit 262 includes a D / A converter, an amplifier, a speaker, etc. that convert digital audio data into an analog audio signal, and outputs audio based on the digital audio data input from the second terminal control unit 261. The second terminal control unit 261 executes communication with the server 100 by the communication unit 263, and outputs voice based on the digital voice data received from the server 100 from the second voice output unit 262.

第2端末装置260は、通信部263により、第1端末装置250と通信を実行する構成であってもよい。この場合、第2端末制御部261は、第1端末装置250からデジタル音声データを受信し、第2端末制御部261により音声を出力させる。サーバ100が生成するデジタル音声データが第1端末装置250を経由して第2端末装置260に送信されてもよい。或いは、第1端末制御部251が生成するデジタル音声データが第2端末装置260に送信されてもよい。 The second terminal device 260 may be configured to perform communication with the first terminal device 250 by the communication unit 263. In this case, the second terminal control unit 261 receives the digital audio data from the first terminal device 250, and the second terminal control unit 261 outputs the audio. The digital voice data generated by the server 100 may be transmitted to the second terminal device 260 via the first terminal device 250. Alternatively, the digital voice data generated by the first terminal control unit 251 may be transmitted to the second terminal device 260.

図3は、サーバ100の機能的構成を示すブロック図である。
サーバ100は、通信部110、CPU120、およびメモリ150等により構成されたコンピュータである。通信部110は、有線通信回線または無線通信により通信ネットワーク400に接続される。サーバ100は、通信部110により、観察装置210、生体情報検知装置220、ユーザ端末装置230、第1端末装置250、および第2端末装置260との間で通信を行う。
FIG. 3 is a block diagram showing a functional configuration of the server 100.
The server 100 is a computer composed of a communication unit 110, a CPU 120, a memory 150, and the like. The communication unit 110 is connected to the communication network 400 by a wired communication line or wireless communication. The server 100 communicates with the observation device 210, the biological information detection device 220, the user terminal device 230, the first terminal device 250, and the second terminal device 260 by the communication unit 110.

メモリ150は、CPU120により読み取り可能にデータやプログラムを記憶する記憶装置であり、半導体メモリ素子、磁気的記憶媒体、光学的記憶媒体、その他の記憶デバイス等により構成される。メモリ150には、制御用プログラム151が保存されている。 The memory 150 is a storage device that stores data and programs readable by the CPU 120, and is composed of a semiconductor memory element, a magnetic storage medium, an optical storage medium, other storage devices, and the like. The control program 151 is stored in the memory 150.

CPU120は、制御用プログラム151を読み込んで実行することにより、ライフログ情報取得部121、抽出部122、記録部123、ヒアリング処理部130、テキスト評価部136、関連データ収集部140、登録部141、要求受付部142、抽出条件取得部143、ユーザ価値情報出力部144、利用ユーザ評価取得部145、評価統合部146、および、対価処理部147として機能する。ヒアリング処理部130は、入力情報処理部131、ユーザ価値情報生成部132、変換部133、分類部134、および、質問提示部135により構成され、これらの各機能部もCPU120が制御用プログラム151を実行することにより実現される。
CPU120は、マイコン等の他のプロセッサで構成されてもよく、プロセッサとROM(Read Only Memory)、RAM(Random Access Memory)等が統合されたデバイスであってもよい。
By reading and executing the control program 151, the CPU 120 reads and executes the life log information acquisition unit 121, the extraction unit 122, the recording unit 123, the hearing processing unit 130, the text evaluation unit 136, the related data collection unit 140, and the registration unit 141. It functions as a request reception unit 142, an extraction condition acquisition unit 143, a user value information output unit 144, a user evaluation acquisition unit 145, an evaluation integration unit 146, and a consideration processing unit 147. The hearing processing unit 130 is composed of an input information processing unit 131, a user value information generation unit 132, a conversion unit 133, a classification unit 134, and a question presentation unit 135, and the CPU 120 also controls the control program 151 in each of these function units. It is realized by executing.
The CPU 120 may be composed of another processor such as a microcomputer, or may be a device in which a processor, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like are integrated.

メモリ150は、制御用プログラム151のほか、ユーザDB152、辞書データ157、および、価格データ165を記憶する。 The memory 150 stores the user DB 152, the dictionary data 157, and the price data 165 in addition to the control program 151.

メモリ150には、ユーザDB(データベース)152、および、ユーザ価値情報DB163が格納される。これらの各データベースは、メモリ150の記憶領域を利用して実現される。ユーザDB152は、サーバ100を使用するユーザに関するユーザ情報を、各ユーザを識別するユーザ識別情報に対応づけて格納する。ユーザDB152は、例えば、ユーザU1および情報利用ユーザU2に関するユーザ情報を格納する。ユーザ価値情報DB163は、ユーザ価値情報164を格納する。 The user DB (database) 152 and the user value information DB 163 are stored in the memory 150. Each of these databases is realized by utilizing the storage area of the memory 150. The user DB 152 stores user information about a user who uses the server 100 in association with user identification information that identifies each user. The user DB 152 stores, for example, user information regarding the user U1 and the information user U2. The user value information DB 163 stores the user value information 164.

さらに、メモリ150の記憶領域には、ライフログ情報記憶部153、第1ユーザ特性情報記憶部155、ヒアリングデータ記憶部158、関連データ記憶部160、および、第2ユーザ特性情報記憶部161が設けられる。
ライフログ情報記憶部153は、ライフログ情報154を記憶する。第1ユーザ特性情報記憶部155は、第1ユーザ特性情報156を記憶し、ヒアリングデータ記憶部158はヒアリングデータ159を記憶する。また、第2ユーザ特性情報記憶部161は第2ユーザ特性情報162を記憶する。
Further, in the storage area of the memory 150, a life log information storage unit 153, a first user characteristic information storage unit 155, a hearing data storage unit 158, a related data storage unit 160, and a second user characteristic information storage unit 161 are provided. Be done.
The life log information storage unit 153 stores the life log information 154. The first user characteristic information storage unit 155 stores the first user characteristic information 156, and the hearing data storage unit 158 stores the hearing data 159. Further, the second user characteristic information storage unit 161 stores the second user characteristic information 162.

ライフログ情報取得部121は、観察装置210、生体情報検知装置220、およびユーザ端末装置230から送信されるデータを取得して解析することにより、ユーザU1の行動の記録であるライフログ情報154を生成する。ライフログ情報取得部121は、生成したライフログ情報154をライフログ情報記憶部153に記憶させる。 The life log information acquisition unit 121 acquires and analyzes the data transmitted from the observation device 210, the biometric information detection device 220, and the user terminal device 230 to obtain the life log information 154, which is a record of the behavior of the user U1. Generate. The life log information acquisition unit 121 stores the generated life log information 154 in the life log information storage unit 153.

抽出部122は、処理対象の期間に該当する日時を含むライフログ情報154を取得し、ライフログ情報154からユーザU1の真価に関する情報を抽出する。処理対象の期間は、予め設定された期間毎、或いは、ライフログ情報154に含まれるユーザU1の行動の区切り毎である。この期間は、日、月、または年等を単位として指定される。
抽出部122は、ライフログ情報154から情報を抽出し、抽出した情報をもとに第1ユーザ特性情報156を生成する。抽出部122は、第1ユーザ特性情報156に、ライフログ情報154の処理対象の期間を示す情報を付加する。記録部123は、抽出部122が生成した第1ユーザ特性情報記憶部155に記憶させる。
The extraction unit 122 acquires the life log information 154 including the date and time corresponding to the period to be processed, and extracts the information regarding the true value of the user U1 from the life log information 154. The period to be processed is for each preset period or for each action break of the user U1 included in the life log information 154. This period is specified in units of days, months, years, etc.
The extraction unit 122 extracts information from the life log information 154 and generates the first user characteristic information 156 based on the extracted information. The extraction unit 122 adds information indicating the period to be processed of the life log information 154 to the first user characteristic information 156. The recording unit 123 stores the first user characteristic information storage unit 155 generated by the extraction unit 122.

例えば、抽出部122は、ライフログ情報154をもとに、対象期間におけるユーザU1の行動を特定し、ユーザU1の複数の行動の結びつきを特定する。これにより、抽出部122は、複数の行動で構成されるエピソードを生成する。例えば、ユーザU1が駅で迷っている人物Pに声をかけた行動、人物Pを駅の事務室まで案内した行動、別の日時にユーザU1が人物Pに出会って挨拶された行動をライフログ情報154から抽出した場合、これらの行動を1つのエピソードとして結びつける。 For example, the extraction unit 122 identifies the behavior of the user U1 in the target period based on the life log information 154, and identifies the connection between the plurality of behaviors of the user U1. As a result, the extraction unit 122 generates an episode composed of a plurality of actions. For example, the action of the user U1 calling out to the person P who is lost at the station, the action of guiding the person P to the office of the station, and the action of the user U1 meeting the person P and being greeted at another date and time. When extracted from information 154, these actions are combined as one episode.

抽出部122は、ライフログ情報154から抽出する情報、および情報の組み合わせを特定するための学習を行った人工知能(AI:Artificial Intelligence)で構成されてもよい。すなわち、ライフログ情報154から抽出すべき情報と、抽出する情報の種類を示すラベルとを有する学習用データセットを学習したAIを抽出部122として用いてもよい。この場合、抽出部122は、学習済みのAIがサーバ100に実装されたものであってもよい。また、サーバ100に実装された抽出部122が、ライフログ情報154から情報を抽出した結果についてフィードバックを受けて、学習を実行してもよい。 The extraction unit 122 may be composed of information extracted from the life log information 154 and artificial intelligence (AI: Artificial Intelligence) that has been learned to specify a combination of the information. That is, the AI that has learned the learning data set having the information to be extracted from the life log information 154 and the label indicating the type of the information to be extracted may be used as the extraction unit 122. In this case, the extraction unit 122 may have the learned AI implemented on the server 100. Further, the extraction unit 122 mounted on the server 100 may receive feedback on the result of extracting information from the life log information 154 and execute learning.

このように、ライフログ情報取得部121、抽出部122および記録部123は、ユーザU1のライフログ情報154に基づいて、ユーザU1の真価に関する第1ユーザ特性情報156を生成および記録する。 In this way, the life log information acquisition unit 121, the extraction unit 122, and the recording unit 123 generate and record the first user characteristic information 156 regarding the true value of the user U1 based on the life log information 154 of the user U1.

ヒアリング処理部130は、第1端末装置250および第2端末装置260を用いてユーザU1に対するヒアリングを実行し、ヒアリングの結果に基づき第2ユーザ特性情報162を生成する。 The hearing processing unit 130 executes a hearing for the user U1 using the first terminal device 250 and the second terminal device 260, and generates the second user characteristic information 162 based on the result of the hearing.

図4は、ヒアリングの態様を示す説明図である。
ヒアリングでは、第1端末装置250および第2端末装置260がユーザU1に向かって発話する。図4の例では、サーバ100は、第1端末装置250が質問T1を発音させ、ユーザU1の回答を求める。ユーザU1が質問T1に応答して発話T2を行うと、サーバ100は、第2端末装置260により発言T3を発音させる。
FIG. 4 is an explanatory diagram showing a mode of hearing.
In the hearing, the first terminal device 250 and the second terminal device 260 speak to the user U1. In the example of FIG. 4, the server 100 causes the first terminal device 250 to pronounce the question T1 and asks for the answer of the user U1. When the user U1 makes an utterance T2 in response to the question T1, the server 100 causes the second terminal device 260 to pronounce the utterance T3.

サーバ100は、ユーザU1の発話T2の内容に基づき、発話T2に関連する具体的な内容を尋ねる質問T4を第1端末装置250によって発音させる。ユーザU1が質問T4に応答して発話T5を行うと、サーバ100は、第2端末装置260に発言T6を発音させる。さらに、第1端末装置250により、発話T5の内容の背景を尋ねる質問T7を発音させる。 The server 100 causes the first terminal device 250 to pronounce a question T4 asking for specific content related to the utterance T2 based on the content of the utterance T2 of the user U1. When the user U1 makes an utterance T5 in response to the question T4, the server 100 causes the second terminal device 260 to pronounce the utterance T6. Further, the first terminal device 250 causes the question T7 to pronounce the question T7 asking the background of the content of the utterance T5.

この例では、サーバ100は、ユーザU1が発話を行う毎に、ユーザU1の発話の内容に対応する質問を生成して、第1端末装置250により発音させている。このため、ユーザU1が語る内容について、具体的な情報を求めたり、話の続きを求めたり、より詳細な経緯を求めたり、複数の経験を総括させて一般性の高い示唆を出すよう求めたり、することができる。一般性の高い示唆とは、換言すれば、より抽象度が高い表現である。
このように、ユーザU1の発話の内容に対応して質問を生成することによって、ユーザU1から多くの詳細な情報を得ることができる。
In this example, each time the user U1 speaks, the server 100 generates a question corresponding to the content of the user U1's utterance and causes the first terminal device 250 to pronounce it. For this reason, we request specific information about the content that user U1 talks about, ask for the continuation of the story, ask for more detailed background, and ask for a summary of multiple experiences to give highly general suggestions. ,can do. A more general suggestion is, in other words, a more abstract expression.
In this way, by generating a question corresponding to the content of the utterance of the user U1, a lot of detailed information can be obtained from the user U1.

例えば、図4の会話では、第1端末装置250により、ユーザU1が自信を持っていることをユーザU1に語らせるための質問T1を発音した後で、ユーザU1の発話T2に対応して、具体的な内容を求める質問T4を発音させている。さらに、ユーザU1の発話T2に関連する情報を求める質問T7を第1端末装置250に発音させている。これらの会話により、サーバ100は、発話T2に含まれる抽象的な表現や、発話T5に含まれる具体的なエピソードに関する情報を得ることができる。 For example, in the conversation of FIG. 4, the first terminal device 250 pronounces the question T1 for causing the user U1 to say that the user U1 is confident, and then corresponds to the utterance T2 of the user U1. The question T4, which asks for specific content, is pronounced. Further, the first terminal device 250 is made to pronounce the question T7 for requesting information related to the utterance T2 of the user U1. Through these conversations, the server 100 can obtain information about an abstract expression included in the utterance T2 and a specific episode included in the utterance T5.

また、サーバ100は、ヒアリングを行う場合に、第1端末装置250と第2端末装置260とで発話内容を分担させてもよい。図4の例で、第2端末装置260はユーザU1に相槌として認識される発言T3、T6の音声を出力している。第1端末装置250が質問T1、T4、T8の音声を出力していることと対照的である。つまり、質問提示部135は、第1端末装置250から質問の音声を出力させ、第2端末装置260から質問の音声への応答を促す音声を出力させている。 Further, the server 100 may share the utterance content between the first terminal device 250 and the second terminal device 260 when conducting a hearing. In the example of FIG. 4, the second terminal device 260 outputs the voices of the remarks T3 and T6 recognized as the reciprocity by the user U1. This is in contrast to the first terminal device 250 outputting the voices of questions T1, T4, and T8. That is, the question presenting unit 135 outputs the voice of the question from the first terminal device 250, and outputs the voice prompting the response to the voice of the question from the second terminal device 260.

質問T1、T4、T8を利用すればユーザU1から情報を引き出すことが可能であり、発言T3、T6は質問としての意味を持たないが、ユーザU1に対する心理的効果がある。すなわち、第1端末装置250および第2端末装置260が、ユーザU1に対して複数の会話の相手として機能するので、グループ会話を模したヒアリングを実現できる。グループ会話は、1対1の会話形式よりもユーザU1に与える緊張感や閉塞感が小さいため、ユーザU1をリラックスさせる効果を期待できる。このため、ヒアリングによって、より効率よく、多くの情報をユーザU1から得られる。
第1端末装置250および第2端末装置260が発音する内容は、後述する質問提示部135により生成される。
Information can be extracted from the user U1 by using the questions T1, T4, and T8, and the statements T3 and T6 have no meaning as a question, but have a psychological effect on the user U1. That is, since the first terminal device 250 and the second terminal device 260 function as a partner for a plurality of conversations with the user U1, it is possible to realize a hearing imitating a group conversation. Since the group conversation gives less tension and blockage to the user U1 than the one-to-one conversation format, the effect of relaxing the user U1 can be expected. Therefore, a lot of information can be obtained from the user U1 more efficiently by the hearing.
The content pronounced by the first terminal device 250 and the second terminal device 260 is generated by the question presenting unit 135, which will be described later.

入力情報処理部131は、ヒアリングの記録となるヒアリングデータ159を生成し、ヒアリングデータ記憶部158に記憶させる。ヒアリングデータ159は、ユーザU1の発話に関するデータを含み、第1端末装置250および第2端末装置260により発音された質問や発話に関するデータを含んでもよい。ヒアリングデータ159は、例えば、ヒアリング中に集音部253により集音された音声データである。 The input information processing unit 131 generates hearing data 159 to be a record of hearing, and stores it in the hearing data storage unit 158. The hearing data 159 includes data related to the utterance of the user U1, and may include data related to the question or utterance pronounced by the first terminal device 250 and the second terminal device 260. The hearing data 159 is, for example, voice data collected by the sound collecting unit 253 during the hearing.

ユーザ価値情報生成部132は、変換部133および分類部134とともに、ヒアリングデータ159から第2ユーザ特性情報162を生成する処理を実行する。 The user value information generation unit 132, together with the conversion unit 133 and the classification unit 134, executes a process of generating the second user characteristic information 162 from the hearing data 159.

変換部133は、ヒアリングデータ159をテキストデータに変換する。
分類部134は、変換部133が変換したテキストデータを要素に分解し、各々の要素を分類する。例えば、分類部134は、テキストデータの形態素解析を実行し、形態素、または、形態素の組み合わせで構成される要素を抽出する。ここで、要素は、イディオム、句、節、文、文章等、文章を構成するものをいう。分類部134は、ユーザU1の真価との関係に基づき各要素を分類する。分類の詳細については図5を参照して後述する。
ユーザ価値情報生成部132は、分類部134により分類された要素を関連づけることにより、ユーザU1の真価に関する情報を含む第2ユーザ特性情報162を生成する。
The conversion unit 133 converts the hearing data 159 into text data.
The classification unit 134 decomposes the text data converted by the conversion unit 133 into elements and classifies each element. For example, the classification unit 134 executes morphological analysis of text data and extracts an element composed of a morpheme or a combination of morphemes. Here, an element refers to an idiom, a phrase, a clause, a sentence, a sentence, or the like that constitutes a sentence. The classification unit 134 classifies each element based on the relationship with the true value of the user U1. Details of the classification will be described later with reference to FIG.
The user value information generation unit 132 generates the second user characteristic information 162 including information on the true value of the user U1 by associating the elements classified by the classification unit 134.

質問提示部135は、第2ユーザ特性情報162に含まれる要素を参照し、不足している要素についてユーザU1に発話させるための質問を生成する。質問提示部135は、生成した質問を第1端末装置250により発話させるためのデータを生成し、通信部110によって第1端末装置250に送信する。この質問に応答してユーザU1が発話する内容は、ヒアリングデータ159として記録される。変換部133は、ユーザU1の発話をテキストデータに変換し、変換されたテキストデータを分類部134が解析して分類する。 The question presenting unit 135 refers to the elements included in the second user characteristic information 162, and generates a question for the user U1 to speak about the missing element. The question presenting unit 135 generates data for causing the first terminal device 250 to speak the generated question, and transmits the generated question to the first terminal device 250 by the communication unit 110. The content spoken by the user U1 in response to this question is recorded as hearing data 159. The conversion unit 133 converts the utterance of the user U1 into text data, and the classification unit 134 analyzes and classifies the converted text data.

図5は、第2ユーザ特性情報162の構成例を示す模式図である。
図5の例では、分類部134によって、要素が時間的表現、抽象的表現、および具体的表現に分類される。時間的表現の例としては、「過去」や「今」あるいは「現在」などの語が挙げられるが、年月日など具体的な時期を示す語であってもよい。第2ユーザ特性情報162において時間的表現が分類される領域を、スロット162aとする。
抽象的表現は、ユーザU1が、ユーザU1の経験、スキル、思考方法、ノウハウ等を抽象的に表した語や節、句等である。例えば、「自信がある」、「苦しかった」、「幸せ」が挙げられる。また、経験から得られたノウハウに関連する例示としては「他人の立場にたってみる」、「相手の心理を読む」、「相手の目の動きを観察すると良い」、「ここでは継続性が求められる」、「このタイミングでは緊張を緩和しても良い」、「その行動を反復してもよいが、少しパターンを変えるべき」などの表現が、複数の具体的場面に適用可能な抽象的表現の例として挙げられる。
第2ユーザ特性情報162において抽象的表現が分類される領域を、スロット162bとする。
FIG. 5 is a schematic diagram showing a configuration example of the second user characteristic information 162.
In the example of FIG. 5, the classification unit 134 classifies the elements into temporal representations, abstract representations, and concrete representations. Examples of temporal expressions include words such as "past,""now," and "present," but they may also be words that indicate a specific time, such as date. The area in which the temporal representation is classified in the second user characteristic information 162 is defined as slot 162a.
The abstract expression is a word, a clause, a phrase, or the like in which the user U1 abstractly expresses the user U1's experience, skill, thinking method, know-how, and the like. For example, "confident", "painful", and "happiness" can be mentioned. In addition, as examples related to the know-how gained from experience, "try to stand in the position of another person", "read the psychology of the other person", "observe the movement of the other person's eyes", "continuity is required here". Expressions such as "being able to", "you may relax tension at this timing", "you may repeat the action, but you should change the pattern a little" are abstract expressions that can be applied to multiple concrete situations. Is given as an example of.
The area in which the abstract expression is classified in the second user characteristic information 162 is defined as slot 162b.

具体的表現は、ユーザU1の経験、スキル、思考方法、ノウハウ等を具体的に表した語や節、句、文等であり、例えば、「節約」、「投資」、「食事」、「新しい事業」、「収入」が挙げられる。また、いくつかの要素は、他の要素と結びついて1つの具体的表現を構成する。例えば、「投資」と「失敗」が結びついて「投資に失敗した」という具体的なエピソードの表現となっている。また、例えば、「食事」と「困る」が結びついて「食事に困る」という具体的なエピソードの表現となっている。また、具体的表現には、具体性の差がある要素を分類することが許容される。例えば、「食事」に対して「タイ料理」の方が、具体性が高く、「タイ料理」に対して「トムヤンクン」の方が、具体性が高いことは言うまでもない。第2ユーザ特性情報162に含まれる要素の抽象性と具体性は、階層構造のあるオントロジー辞書として管理・評価されているものとする。 Specific expressions are words, clauses, phrases, sentences, etc. that specifically express the experience, skills, thinking methods, know-how, etc. of the user U1, for example, "saving", "investment", "meal", "new". Examples include "business" and "income". In addition, some elements are combined with other elements to form one concrete expression. For example, "investment" and "failure" are combined to form a concrete episode of "investment failure." In addition, for example, "meal" and "trouble" are combined to form a concrete episode expression of "meal trouble". In addition, it is permissible to classify elements with different concreteness in concrete expressions. For example, it goes without saying that "Thai food" is more specific than "meal" and "Tom Yum Kung" is more specific than "Thai food". It is assumed that the abstraction and concreteness of the elements included in the second user characteristic information 162 are managed and evaluated as an ontology dictionary having a hierarchical structure.

第2ユーザ特性情報162において具体的表現が分類される領域を、スロット162cとする。上記のように、スロット162cには、単独で具体的表現となる要素、および、他の要素と結びつくことで具体的表現として機能する要素が分類される。スロット162cには、要素間の結びつきを示す情報も格納される。要素と要素との結びつきは、明示的な結びつき、および、概念的な関連性のいずれであってもよい。 The area in which the specific expression is classified in the second user characteristic information 162 is defined as slot 162c. As described above, the slot 162c is classified into an element that is a concrete expression by itself and an element that functions as a concrete expression by being combined with other elements. Information indicating the connection between the elements is also stored in the slot 162c. The connection between elements may be either an explicit connection or a conceptual relationship.

さらに、分類部134は、スロット162bに格納された要素を、スロット162aの要素、および、スロット162cの要素と結びつける。分類部134は、例えば、ヒアリングデータ159において発話された順序やタイミングに基づき、要素を結びつける。これにより、第2ユーザ特性情報162において、ユーザU1の経験、スキル、思考方法、ノウハウ等を抽象的に表現した要素と、抽象的な表現を裏付ける具体的な内容と、具体的な内容を時間的に位置づける表現とが結合される。 Further, the classification unit 134 connects the elements stored in the slot 162b with the elements of the slot 162a and the elements of the slot 162c. The classification unit 134 connects the elements based on, for example, the order and timing spoken in the hearing data 159. As a result, in the second user characteristic information 162, the elements that abstractly express the experience, skill, thinking method, know-how, etc. of the user U1, the concrete contents that support the abstract expressions, and the concrete contents are timed. The expression that is positioned as a target is combined.

スロット162bに格納された要素のうち、スロット162cの要素と結びつけられないものは、具体的なエピソードによる裏付けがない。つまり、スロット162cの要素が不足している。また、スロット162aの要素と結びつけられていない要素は、時間的に特定されていない要素である。つまり、スロット162aの要素が不足しているといえる。 Of the elements stored in slot 162b, those that cannot be associated with the elements in slot 162c are not supported by a specific episode. That is, the elements of slot 162c are missing. Further, the element that is not associated with the element of slot 162a is an element that is not specified in time. That is, it can be said that the elements of slot 162a are insufficient.

ユーザ価値情報164は、例えば、時間的表現、抽象的表現、および具体的表現に分類される要素の相互の関係をオントロジーの手法により記述したデータとして構成できる。 The user value information 164 can be configured as data that describes, for example, the mutual relationship between elements classified into a temporal expression, an abstract expression, and a concrete expression by an ontological method.

質問提示部135は、第2ユーザ特性情報162において不足している情報をユーザU1から引き出すように、質問を生成する。
例えば、図4に示したヒアリングにおいて、発話T2に含まれる「人に教えること」は抽象的表現であり、スロット162aに分類される。発話T2がされた時点では、「人に教えること」に対応する具体的表現はない。ここで、質問提示部135は、「人に教えること」に結びつく具体的な情報をユーザU1から得るために質問T4を生成する。質問T4を発音したことで、発話T5として、「昔」、「学校の先生」、「生徒から」、「わかりやすい」、「言われた」等の具体的な情報が得られている。「昔」はスロット162aに分類され、「学校の先生」はスロット162cに分類される。また、「わかりやすい」という表現は単独では抽象的表現であるが、「生徒から」、「言われた」という表現と結びついて、具体的なエピソードを表す。このように、発話T5に含まれる「生徒から」、「わかりやすい」、「言われた」等の要素は、互いに結びついてスロット162cに分類される。
このように、ユーザU1に対するヒアリングを重ねることによって、抽象的表現と、具体的表現と、時間的表現とが結びついた第2ユーザ特性情報162を得ることができる。
The question presenting unit 135 generates a question so as to extract the missing information from the user U1 in the second user characteristic information 162.
For example, in the hearing shown in FIG. 4, "teaching a person" included in the utterance T2 is an abstract expression and is classified into slot 162a. At the time of utterance T2, there is no concrete expression corresponding to "teaching a person". Here, the question presentation unit 135 generates a question T4 in order to obtain specific information related to "teaching a person" from the user U1. By pronouncing question T4, specific information such as "old days", "school teacher", "from students", "easy to understand", and "said" is obtained as utterance T5. "Old" is classified in slot 162a and "school teacher" is classified in slot 162c. In addition, the expression "easy to understand" is an abstract expression by itself, but it is combined with the expressions "student" and "said" to represent a concrete episode. In this way, the elements such as "from the student", "easy to understand", and "told" included in the utterance T5 are connected to each other and classified into slot 162c.
By repeating the hearings with the user U1 in this way, it is possible to obtain the second user characteristic information 162 in which the abstract expression, the concrete expression, and the temporal expression are linked.

分類部134は、要素の分類を行う処理に加え、第2ユーザ特性情報162の全体が成功体験か失敗体験かの分類を行ってもよい。この構成によれば、ヒアリングの段階で、ユーザU1が話す内容が成功体験か失敗体験かを判定できる。
この場合、質問提示部135は、分類部134が第2ユーザ特性情報162を成功体験か失敗体験か分類するための質問を生成してもよい。例えば、分類部134が、第2ユーザ特性情報162を分類部134が成功体験か失敗体験かを明確に判定できない場合に、判定を行うための情報を追加的に得るための質問を生成する。この場合、分類部134の判定を補助する情報をユーザU1に発話させるような質問が、第1端末装置250により発音される。
In addition to the process of classifying the elements, the classification unit 134 may classify whether the entire second user characteristic information 162 is a success experience or a failure experience. According to this configuration, it is possible to determine whether the content spoken by the user U1 is a success experience or a failure experience at the hearing stage.
In this case, the question presentation unit 135 may generate a question for the classification unit 134 to classify the second user characteristic information 162 as a success experience or a failure experience. For example, when the classification unit 134 cannot clearly determine whether the second user characteristic information 162 is a success experience or a failure experience, the classification unit 134 generates a question for additionally obtaining information for making the determination. In this case, the first terminal device 250 pronounces a question that causes the user U1 to speak information that assists the determination of the classification unit 134.

分類部134は、要素の分類を行う処理において、スロット162a、162b、162cに分類された要素から、自慢話に該当する要素を検出して分類してもよい。例えば、分類部134は、抽象的表現のうち、ポジティブな表現であって、ネガティブな抽象的表現に結びついていない表現を特定する。そして、特定した抽象的表現、および、この抽象的表現に結びつけられる具体的表現を、自慢話として分類する。 In the process of classifying the elements, the classification unit 134 may detect and classify the elements corresponding to the boastful story from the elements classified into the slots 162a, 162b, and 162c. For example, the classification unit 134 identifies an abstract expression that is a positive expression and is not linked to a negative abstract expression. Then, the specified abstract expression and the concrete expression associated with this abstract expression are classified as boastful stories.

分類部134は、要素に対して成功体験、失敗体験、抽象的表現、具体的表現といった分類を定義する辞書を有し、この辞書を参照して要素を分類してもよい。
また、分類部134は、第2ユーザ特性情報162に含まれる要素および要素の組み合わせを分類するための学習を行った人工知能で構成されてもよい。すなわち、分類部134は、分類すべき要素と、要素の分類を示すラベルとを有する学習用データセットを学習したAIであってもよい。この場合、分類部134は、学習済みのAIがサーバ100に実装されたものであってもよいし、サーバ100に実装された状態で学習を継続するものであってもよい。
質問提示部135は、ユーザU1の発話に基づき質問を生成する人工知能で構成されてもよい。すなわち、質問提示部135は、ユーザU1の発話に含まれる語または要素と、生成する質問に関する条件とを含む学習用データセットを学習したAIであってもよい。質問提示部135は、学習済みのAIがサーバ100に実装されたものであってもよいし、サーバ100に実装された状態で学習を継続するものであってもよい。
The classification unit 134 has a dictionary that defines classifications such as success experience, failure experience, abstract expression, and concrete expression for the element, and the element may be classified with reference to this dictionary.
Further, the classification unit 134 may be configured by artificial intelligence that has been learned to classify the elements and the combinations of the elements included in the second user characteristic information 162. That is, the classification unit 134 may be an AI that has learned a learning data set having elements to be classified and labels indicating the classification of the elements. In this case, the classification unit 134 may be one in which the learned AI is implemented in the server 100, or may be one in which learning is continued in the state of being implemented in the server 100.
The question presenting unit 135 may be composed of artificial intelligence that generates a question based on the utterance of the user U1. That is, the question presenting unit 135 may be an AI that has learned a learning data set including words or elements included in the utterance of the user U1 and conditions related to the question to be generated. The question presentation unit 135 may be one in which the learned AI is implemented in the server 100, or may be one in which learning is continued in the state of being implemented in the server 100.

ユーザ価値情報生成部132は、ヒアリングにより十分な情報が得られた後、或いは、ヒアリングが終了した後に、第1ユーザ特性情報156と第2ユーザ特性情報162との両方を統合して、ユーザ価値情報164を生成する。ユーザ価値情報164は、ユーザU1の特徴、ユーザU1の具体的な経験としての成功談、失敗談、成功談と失敗談の経緯等を含み、例えば、複数の具体的な事象を含むストーリー形式の情報である。 The user value information generation unit 132 integrates both the first user characteristic information 156 and the second user characteristic information 162 after the hearing has obtained sufficient information or after the hearing is completed, and the user value information generation unit 132 integrates both the first user characteristic information 156 and the second user characteristic information 162. Generate information 164. The user value information 164 includes the characteristics of the user U1, success stories, failure stories, success stories and failure stories as specific experiences of the user U1, and is, for example, story-type information including a plurality of specific events. is there.

第1ユーザ特性情報156は、ユーザU1の現実の行動の記録から生成される情報であるため、具体的な行動の裏付けがあり、信頼性が高い情報である。一方、第1ユーザ特性情報156は、ライフログ情報154が取得されていない期間について生成できない。また、ユーザU1の内面的な事象をライフログ情報154に基づき特定することは容易ではない。第2ユーザ特性情報162は、ヒアリングにより得られる情報である。ヒアリングでは、ユーザU1の内面的な事象に関する情報を、ユーザU1が発する言語的表現として得られるので、第2ユーザ特性情報162はユーザU1の真価に強く関連する情報をより多く含んでいる。また、過去の事象に関する情報も含まれる。従って、第1ユーザ特性情報156と第2ユーザ特性情報162の両方を用いることにより、ユーザU1の真価を的確に表現し、信頼性の高いユーザ価値情報164を生成できる。 Since the first user characteristic information 156 is information generated from the record of the actual behavior of the user U1, it is highly reliable information with support for specific behavior. On the other hand, the first user characteristic information 156 cannot be generated for the period during which the life log information 154 has not been acquired. Further, it is not easy to identify the internal event of the user U1 based on the life log information 154. The second user characteristic information 162 is information obtained by hearing. In the hearing, the information about the internal event of the user U1 is obtained as a linguistic expression emitted by the user U1, so that the second user characteristic information 162 includes more information strongly related to the true value of the user U1. It also contains information about past events. Therefore, by using both the first user characteristic information 156 and the second user characteristic information 162, the true value of the user U1 can be accurately expressed and the highly reliable user value information 164 can be generated.

ユーザ価値情報生成部132は、第2ユーザ特性情報162から自慢話に分類された要素を削除した上で、ユーザ価値情報164を生成してもよい。自慢話は、具体的表現により裏付けられていたとしても信頼性に欠ける可能性がある。このため、自慢話の要素を削除した第2ユーザ特性情報162を利用してユーザ価値情報164を生成することにより、ユーザ価値情報164の信頼性を高めることができる。 The user value information generation unit 132 may generate the user value information 164 after deleting the elements classified as boastful stories from the second user characteristic information 162. Bragging stories can be unreliable, even if supported by concrete expressions. Therefore, the reliability of the user value information 164 can be enhanced by generating the user value information 164 by using the second user characteristic information 162 from which the element of the boastful story is deleted.

ユーザ価値情報生成部132は、第1ユーザ特性情報156と第2ユーザ特性情報162とを照合して、第2ユーザ特性情報162に含まれる情報の信頼性を判定してもよい。例えば、ユーザ価値情報生成部132は、第1ユーザ特性情報156に基づきユーザU1の行動特性を求めてもよい。ユーザ価値情報生成部132は、第2ユーザ特性情報162に含まれる情報のうち、ユーザU1の行動特性と矛盾する内容を示す情報を、信頼性の低い情報として判定してもよい。この場合、ユーザ価値情報生成部132は信頼性の低い情報を第2ユーザ特性情報162から除去した上で、ユーザ価値情報164を生成してもよい。これにより、ユーザ価値情報164の信頼性を担保できる。 The user value information generation unit 132 may collate the first user characteristic information 156 and the second user characteristic information 162 to determine the reliability of the information included in the second user characteristic information 162. For example, the user value information generation unit 132 may obtain the behavioral characteristics of the user U1 based on the first user characteristic information 156. The user value information generation unit 132 may determine, among the information included in the second user characteristic information 162, information indicating content that contradicts the behavioral characteristics of the user U1 as unreliable information. In this case, the user value information generation unit 132 may generate the user value information 164 after removing unreliable information from the second user characteristic information 162. As a result, the reliability of the user value information 164 can be guaranteed.

ユーザ価値情報164は、例えば、ユーザU1の真価を表現するストーリーの形を有する。例えば、真価の名称、真価を持つに至るエピソードの背景、失敗談、失敗の原因、失敗を乗り越える視点や乗り越えられた理由、成功談、まとめ又はストーリーの要旨等の情報を含む。ユーザ価値情報生成部132は、ユーザ価値情報164を生成する処理において、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる要素や情報に、情報を追加してもよい。例えば、文章の形式を整える目的、または、設定されたストーリー形式にする目的で情報を補足してもよい。 The user value information 164 has, for example, the form of a story expressing the true value of the user U1. For example, it includes information such as the name of the true value, the background of the episode leading to the true value, the failure story, the cause of the failure, the viewpoint and the reason for overcoming the failure, the success story, the summary or the summary of the story. The user value information generation unit 132 may add information to the elements and information included in the first user characteristic information 156 and the second user characteristic information 162 in the process of generating the user value information 164. For example, the information may be supplemented for the purpose of shaping the text or for the purpose of making it a set story format.

テキスト評価部136は、ヒアリング処理部130が生成したユーザ価値情報164の評価を行う。テキスト評価部136は、第2ユーザ特性情報162に含まれる要素、および要素の結びつきをもとに、第1の評価を行う。第1の評価で、テキスト評価部136は、第2ユーザ特性情報162に含まれる要素を参照し、抽象的表現が一般概念化されているか否かに基づく評価を行う。具体的には、第2ユーザ特性情報162においてスロット162bの抽象的表現に、スロット162cの具体的表現が結びつけられているか否かを評価する。 The text evaluation unit 136 evaluates the user value information 164 generated by the hearing processing unit 130. The text evaluation unit 136 performs the first evaluation based on the elements included in the second user characteristic information 162 and the connection of the elements. In the first evaluation, the text evaluation unit 136 refers to the elements included in the second user characteristic information 162 and makes an evaluation based on whether or not the abstract expression is generalized. Specifically, it is evaluated whether or not the abstract representation of slot 162b is associated with the concrete representation of slot 162c in the second user characteristic information 162.

テキスト評価部136は、ユーザ価値情報164の内容に基づき第2の評価を行う。第2の評価で、テキスト評価部136は、ユーザ価値情報164に含まれる情報から成功体験と失敗体験とを抽出する。テキスト評価部136は、ユーザ価値情報164に成功体験および失敗体験の両方が含まれるか否か、および、成功体験と失敗体験が具体的表現により裏付けられているかを評価する。テキスト評価部136は、成功体験のみを含むユーザ価値情報164を、自慢話の可能性があるとして、評価対象から除外してもよい。また、サーバ100は、テキスト評価部136によって自慢話の可能性を評価したタイミングで、ユーザU1に対して、その成功体験に至るまでに積み重ねたであろう失敗体験を語るように仕掛けるため、ヒアリング処理部130によりヒアリングを行っても良い。例えば、また、テキスト評価部136は、成功体験が少ないユーザ価値情報164を、ユーザU1の真価としての価値が低いと評価する。また、テキスト評価部136は、成功体験および失敗体験の両方が含まれるユーザ価値情報164を、いずれか一方が含まれないユーザ価値情報164よりも高く評価する。成功体験と失敗体験については、分類部134が判定した結果を利用できる。 The text evaluation unit 136 performs a second evaluation based on the content of the user value information 164. In the second evaluation, the text evaluation unit 136 extracts the success experience and the failure experience from the information included in the user value information 164. The text evaluation unit 136 evaluates whether or not the user value information 164 includes both a success experience and a failure experience, and whether the success experience and the failure experience are supported by concrete expressions. The text evaluation unit 136 may exclude the user value information 164 including only the successful experience from the evaluation target because it may be a boastful story. In addition, the server 100 hears the user U1 at the timing when the text evaluation unit 136 evaluates the possibility of the boastful talk in order to talk about the failure experience that would have been accumulated up to the success experience. Hearing may be performed by the processing unit 130. For example, the text evaluation unit 136 also evaluates the user value information 164, which has few successful experiences, as having a low value as the true value of the user U1. In addition, the text evaluation unit 136 evaluates the user value information 164 including both the success experience and the failure experience higher than the user value information 164 not including either one. As for the success experience and the failure experience, the result determined by the classification unit 134 can be used.

テキスト評価部136は、ユーザ価値情報164に含まれる要素に対し、予め成功体験、失敗体験等の分類を定義した辞書を有し、この辞書を参照して評価を行ってもよい。また、単独の要素を評価するだけでなく、文脈、語彙の並び等に基づき評価を行ってもよい。 The text evaluation unit 136 has a dictionary in which classifications such as success experience and failure experience are defined in advance for the elements included in the user value information 164, and evaluation may be performed with reference to this dictionary. Moreover, not only the evaluation of a single element but also the evaluation may be performed based on the context, the arrangement of vocabulary, and the like.

テキスト評価部136は、第1の評価、および、第2の評価の結果を、それぞれ点数化する。さらに、テキスト評価部136は、第1の評価および第2の評価の結果を統合した総合評価を生成し、総合評価の結果をユーザ価値情報164に付加する。 The text evaluation unit 136 scores the results of the first evaluation and the second evaluation, respectively. Further, the text evaluation unit 136 generates a comprehensive evaluation that integrates the results of the first evaluation and the second evaluation, and adds the result of the comprehensive evaluation to the user value information 164.

テキスト評価部136の評価は、上述した第1、第2の評価に限定されない。例えば、ユーザ価値情報164に含まれるストーリーの文章全体について、抽象度および具体性を評価してもよい。例えば、具体性の高い単語を多く含むユーザ価値情報164は、具体性が高いストーリーとして高い評価を付す。また、例えば、テキスト評価部136は、抽象度の高い単語を多く含み具体性の高い単語が少ないユーザ価値情報164を、具体性が低いストーリーとして低く評価する。また、抽象度の高い単語の割合が極端に多いユーザ価値情報164を、特に信頼性が低い情報として、より低く評価する。
さらに、テキスト評価部136は、具体性の高い単語を多く含みつつも、その単語に関連する抽象度の高い単語が適度の割合で含まれているストーリーを最も高く評価する。これは、自分自身の経験を具体的に語れると同時に、その具体的な経験を総括することで、一般化し、抽象的に表現できているからである、と評価する。このタイプのストーリーは、ユーザが経験した具体的な事象だけでなく、まだ経験していない他の事象についても、アナロジーを用いることで応用できる可能性を持っている。
The evaluation of the text evaluation unit 136 is not limited to the first and second evaluations described above. For example, the degree of abstraction and concreteness may be evaluated for the entire story sentence included in the user value information 164. For example, the user value information 164 containing many highly specific words is highly evaluated as a highly specific story. Further, for example, the text evaluation unit 136 evaluates the user value information 164, which contains many words with a high degree of abstraction and few words with high specificity, as a story with low specificity. Further, the user value information 164 having an extremely large proportion of words having a high degree of abstraction is evaluated lower as information having particularly low reliability.
Further, the text evaluation unit 136 highly evaluates a story that contains many highly specific words but contains a moderate proportion of highly abstract words related to the words. I evaluate that this is because I can talk about my own experience concretely, and at the same time, I can generalize and express it abstractly by summarizing the concrete experience. This type of story has the potential to be applied using analogies not only to specific events that the user has experienced, but also to other events that the user has not yet experienced.

また、テキスト評価部136は、第2の評価において、テキストを対象として評価を行う構成に限定されず、例えば、ヒアリングデータ159をテキスト化せず、直接評価するものであってもよい。 Further, the text evaluation unit 136 is not limited to the configuration in which the evaluation is performed on the text in the second evaluation, and for example, the hearing data 159 may be directly evaluated without being converted into a text.

関連データ収集部140は、ヒアリング処理部130の処理対象となっているユーザU1に関する情報を収集する。関連データ収集部140は、例えば、SNS(Social Network Service)により公開されている情報から、ユーザU1に関する情報を収集する。 The related data collection unit 140 collects information about the user U1 to be processed by the hearing processing unit 130. The related data collection unit 140 collects information about the user U1 from, for example, information published by SNS (Social Network Service).

登録部141は、ユーザ価値情報生成部132が生成したユーザ価値情報164を、ユーザ価値情報DB163に登録する。登録部141は、ユーザ価値情報164に、テキスト評価部136が付与した評価、および、関連データ収集部140が収集した情報を対応づけてユーザ価値情報DB163に登録してもよい。 The registration unit 141 registers the user value information 164 generated by the user value information generation unit 132 in the user value information DB 163. The registration unit 141 may register the user value information 164 with the evaluation given by the text evaluation unit 136 and the information collected by the related data collection unit 140 in the user value information DB 163.

要求受付部142、抽出条件取得部143、およびユーザ価値情報出力部144は、情報利用ユーザU2の要求に応じて処理を実行し、情報利用ユーザU2にユーザ価値情報164を提供する。 The request reception unit 142, the extraction condition acquisition unit 143, and the user value information output unit 144 execute processing in response to the request of the information use user U2, and provide the information use user U2 with the user value information 164.

情報利用ユーザU2は、ユーザ価値情報DB163に格納されたユーザ価値情報164を直接検索してもよいし、抽象的な疑問を利用端末装置350に入力し、ユーザ価値情報164による解決を求めてもよい。例えば、情報利用ユーザU2は、自身が解決したい問題や、自身の疑問を自然言語により利用端末装置350に入力してもよい。利用端末装置350は、情報利用ユーザU2による入力内容を、ユーザ価値情報164の閲覧要求としてサーバ100に送信し、要求受付部142は、閲覧要求を取得する。 The information user U2 may directly search the user value information 164 stored in the user value information DB 163, or may input an abstract question into the user terminal device 350 and request a solution by the user value information 164. Good. For example, the information user U2 may input a problem he / she wants to solve or his / her question into the user terminal device 350 in natural language. The user terminal device 350 transmits the input content by the information user U2 to the server 100 as a browsing request of the user value information 164, and the request receiving unit 142 acquires the browsing request.

抽出条件取得部143は、閲覧要求に該当するユーザ価値情報164を抽出するための抽出条件を生成または取得する。抽出条件取得部143は、例えば、利用端末装置350から受信した閲覧要求に含まれる言語を形態素解析し、閲覧要求に含まれる形態素、および/または形態素の組み合わせから、抽出条件を生成する。抽出条件は、閲覧要求に含まれる形態素、および/または形態素の組み合わせだけでなく、これらのシノニムを含んでもよい。つまり、抽出条件取得部143は、閲覧要求に含まれていない情報を含む抽出条件を生成してもよい。 The extraction condition acquisition unit 143 generates or acquires an extraction condition for extracting the user value information 164 corresponding to the browsing request. For example, the extraction condition acquisition unit 143 analyzes the language included in the browsing request received from the user terminal device 350 by morphological analysis, and generates an extraction condition from the combination of the morpheme and / or the morpheme included in the browsing request. The extraction conditions may include these synonyms as well as the morphemes and / or combinations of morphemes contained in the browsing request. That is, the extraction condition acquisition unit 143 may generate an extraction condition including information not included in the browsing request.

ユーザ価値情報出力部144は、抽出条件に基づきユーザ価値情報DB163を検索して、閲覧要求に該当するユーザ価値情報164を抽出する。ユーザ価値情報出力部144は、ユーザ価値情報出力部144が抽出したユーザ価値情報164を閲覧するためのデータを生成し、通信部110により利用端末装置350に送信する。 The user value information output unit 144 searches the user value information DB 163 based on the extraction conditions, and extracts the user value information 164 corresponding to the browsing request. The user value information output unit 144 generates data for viewing the user value information 164 extracted by the user value information output unit 144, and transmits the data to the user terminal device 350 by the communication unit 110.

利用ユーザ評価取得部145は、ユーザ価値情報出力部144により提供されたユーザ価値情報164に対して情報利用ユーザU2が付与する評価を取得する。
情報利用ユーザU2は、ユーザ価値情報164を閲覧した後で、ユーザ価値情報164が疑問や課題の解決に役立ったか否か等に基づき、ユーザ価値情報164の価値を評価する。情報利用ユーザU2による評価の内容は、利用端末装置350によりサーバ100に送信される。利用ユーザ評価取得部145は、利用端末装置350が送信した評価を取得する。
The user evaluation acquisition unit 145 acquires the evaluation given by the information user U2 to the user value information 164 provided by the user value information output unit 144.
After browsing the user value information 164, the information user U2 evaluates the value of the user value information 164 based on whether or not the user value information 164 is useful for solving a question or a problem. The content of the evaluation by the information user U2 is transmitted to the server 100 by the user terminal device 350. The user evaluation acquisition unit 145 acquires the evaluation transmitted by the user terminal device 350.

評価統合部146は、利用ユーザ評価取得部145が取得した評価に基づき、ユーザ価値情報DB163に格納されたユーザ価値情報164の評価を更新する。これにより、ユーザ価値情報164に対する評価は、テキスト評価部136による評価と、利用ユーザ評価取得部145による評価とを統合した評価となる。ユーザ価値情報DB163に格納されるユーザ価値情報164には、複数のパラメータによる評価が与えられる。パラメータは、例えば、自慢話の構成比率、具体性と抽象性の構成比率、失敗談と成功談の全体的な構成比率、現在に近い時期の成功談の構成比率、情報利用ユーザU2による評価等のパラメータである。 The evaluation integration unit 146 updates the evaluation of the user value information 164 stored in the user value information DB 163 based on the evaluation acquired by the user evaluation acquisition unit 145. As a result, the evaluation of the user value information 164 is an evaluation that integrates the evaluation by the text evaluation unit 136 and the evaluation by the user evaluation acquisition unit 145. The user value information 164 stored in the user value information DB 163 is evaluated by a plurality of parameters. The parameters include, for example, the composition ratio of boastful stories, the composition ratio of concreteness and abstraction, the overall composition ratio of failure stories and success stories, the composition ratio of success stories in the near present period, the evaluation by the information user U2, etc. It is a parameter.

評価統合部146は、関連データ収集部140がSNS等から収集した情報に基づく評価を行ってもよい。例えば、SNSにおけるユーザU1の影響力を、ユーザ価値情報164の評価のパラメータとして含んでもよい。 The evaluation integration unit 146 may perform evaluation based on the information collected from the SNS or the like by the related data collection unit 140. For example, the influence of the user U1 on the SNS may be included as a parameter for evaluation of the user value information 164.

対価処理部147は、評価統合部146による評価に基づき、ユーザ価値情報164の提供に係る対価の金額を決定し、価格データ165を生成または更新する。対価処理部147は、評価統合部146による評価が行われる毎に、金額を更新する。 The consideration processing unit 147 determines the amount of consideration related to the provision of the user value information 164 based on the evaluation by the evaluation integration unit 146, and generates or updates the price data 165. The consideration processing unit 147 updates the amount of money each time the evaluation is performed by the evaluation integration unit 146.

対価処理部147は、サーバ100から利用端末装置350にユーザ価値情報164を出力したことに対する対価の処理を行う。具体的には、情報利用ユーザU2からユーザ価値情報164の対価の支払いを受け、ユーザU1に対してユーザ価値情報164の対価を支給する。ユーザ価値情報164の提供に伴う対価、すなわちユーザ価値情報164の価格は、価格データ165として記憶される。 The consideration processing unit 147 processes the consideration for outputting the user value information 164 from the server 100 to the user terminal device 350. Specifically, the user U2 who uses the information pays the consideration for the user value information 164, and the user U1 is paid the consideration for the user value information 164. The consideration associated with the provision of the user value information 164, that is, the price of the user value information 164 is stored as the price data 165.

例えば、サーバ100が、ユーザU1および情報利用ユーザU2を含む複数のユーザについて、価値を有するポイントを付与する構成が挙げられる。この構成では、ユーザDB152に、ユーザごとの保有ポイントを示す情報が格納される。対価処理部147は、情報利用ユーザU2が保有するポイントを減算することにより、情報利用ユーザU2から支払いを受ける。また、対価処理部147は、ユーザU1が保有するポイントを加算することにより、ユーザU1に対価を支給する。 For example, the server 100 may give valuable points to a plurality of users including the user U1 and the information use user U2. In this configuration, the user DB 152 stores information indicating the possessed points for each user. The consideration processing unit 147 receives payment from the information use user U2 by subtracting the points held by the information use user U2. Further, the consideration processing unit 147 pays the consideration to the user U1 by adding the points held by the user U1.

対価処理部147は、通信ネットワーク400を介して、金融機関や決済サービス事業者が運営する決済サーバに接続して、対価の処理を行ってもよい。例えば、対価処理部147は、決済サーバにより、銀行口座からの引き落とし、クレジットカード決済、電子マネーや仮想通貨による決済等を実行させてもよい。 The consideration processing unit 147 may connect to a payment server operated by a financial institution or a payment service provider via the communication network 400 to process the consideration. For example, the consideration processing unit 147 may execute the withdrawal from the bank account, the credit card payment, the payment by electronic money or virtual currency, and the like by the payment server.

[3.情報管理システムの動作]
図6および図7は、情報管理システム1の動作を示すフローチャートである。図6は、サーバ100がユーザ価値情報164を生成する動作を示す。
[3. Information management system operation]
6 and 7 are flowcharts showing the operation of the information management system 1. FIG. 6 shows an operation in which the server 100 generates the user value information 164.

ヒアリング処理部130がユーザU1に対するヒアリングを開始すると(ステップS101)、質問提示部135が発話内容を生成して第1端末装置250および第2端末装置260によって発話させる(ステップS102)。ここで、入力情報処理部131が集音部253により集音した音声のデジタル音声データを取得し(ステップS103)、ヒアリングデータ159をヒアリングデータ記憶部158に記憶させる(ステップS104)。 When the hearing processing unit 130 starts hearing the user U1 (step S101), the question presenting unit 135 generates the utterance content and causes the first terminal device 250 and the second terminal device 260 to speak (step S102). Here, the input information processing unit 131 acquires the digital voice data of the sound collected by the sound collecting unit 253 (step S103), and stores the hearing data 159 in the hearing data storage unit 158 (step S104).

続いて、変換部133がヒアリングデータ159をテキストデータに変換する(ステップS105)。分類部134は、テキストデータを解析して要素に切り分け(ステップS106)、要素を分類する(ステップS107)。ヒアリング処理部130は、分類された要素に基づき第2ユーザ特性情報162を生成する(ステップS108)。 Subsequently, the conversion unit 133 converts the hearing data 159 into text data (step S105). The classification unit 134 analyzes the text data, divides it into elements (step S106), and classifies the elements (step S107). The hearing processing unit 130 generates the second user characteristic information 162 based on the classified elements (step S108).

質問提示部135は、第2ユーザ特性情報162において不足している情報の有無を判定する(ステップS109)。不足している情報がある場合(ステップS109;YES)、質問提示部135は、不足している情報をユーザU1に発話させるため質問を生成し、第1端末装置250に出力する(ステップS110)。第1端末装置250が質問を発音すると(ステップS111)、ヒアリング処理部130はステップS103に戻る。
第2ユーザ特性情報162は、ユーザU1の一連のヒアリングについて生成される。従って、一連のヒアリングでステップS103−S109が繰り返し実行される場合、ステップS108では、その都度、第2ユーザ特性情報162が更新される。
The question presenting unit 135 determines whether or not there is insufficient information in the second user characteristic information 162 (step S109). When there is missing information (step S109; YES), the question presenting unit 135 generates a question in order to make the user U1 speak the missing information, and outputs the question to the first terminal device 250 (step S110). .. When the first terminal device 250 pronounces a question (step S111), the hearing processing unit 130 returns to step S103.
The second user characteristic information 162 is generated for a series of hearings of the user U1. Therefore, when steps S103-S109 are repeatedly executed in a series of hearings, the second user characteristic information 162 is updated each time in step S108.

第2ユーザ特性情報162において不足している情報がない場合(ステップS109;NO)、ヒアリング処理部130は、ヒアリングを終了するか否かを判定する(ステップS11)。ヒアリングを終了する場合とは、例えば、ユーザU1が会話を終えたり、回答しなくなったりした場合、および、第2ユーザ特性情報162の情報量が基準以上となった場合である。ヒアリングを終了しない場合(ステップS112;NO)、ヒアリング処理部130はステップS103に戻る。 When there is no missing information in the second user characteristic information 162 (step S109; NO), the hearing processing unit 130 determines whether or not to end the hearing (step S11). The case of ending the hearing is, for example, the case where the user U1 ends the conversation or stops answering, and the case where the amount of information of the second user characteristic information 162 exceeds the standard. If the hearing is not completed (step S112; NO), the hearing processing unit 130 returns to step S103.

ヒアリングを終了する場合(ステップS112;YES)、ユーザ価値情報生成部132は、第2ユーザ特性情報162から自慢話に分類された情報を削除する(ステップS113)。ユーザ価値情報生成部132は、第2ユーザ特性情報162に含まれる情報の信頼性を判定し(ステップS114)、信頼性の低い情報を第2ユーザ特性情報162から削除する(ステップS115)。ユーザ価値情報生成部132は、第2ユーザ特性情報162から成功体験と失敗体験に該当する情報を抽出して、第1ユーザ特性情報156と統合することにより、ユーザ価値情報164を生成する(ステップS117)。 When the hearing is completed (step S112; YES), the user value information generation unit 132 deletes the information classified as a boastful story from the second user characteristic information 162 (step S113). The user value information generation unit 132 determines the reliability of the information included in the second user characteristic information 162 (step S114), and deletes the unreliable information from the second user characteristic information 162 (step S115). The user value information generation unit 132 generates user value information 164 by extracting information corresponding to the success experience and the failure experience from the second user characteristic information 162 and integrating it with the first user characteristic information 156 (step). S117).

ここで、ユーザ価値情報生成部132は、ユーザU1が公開を許可しない情報の有無を判定する(ステップS118)。ヒアリングにおいてユーザU1が、公開しないことを希望する発言をした場合、この発言に該当する要素の全てを、公開を許可しない情報とする。公開を許可しない情報がある場合(ステップS118;YES)、ユーザ価値情報生成部132は該当する情報をユーザ価値情報164から削除し(ステップS119)、CPU120の動作はステップS120に移行する。また、公開を許可しない情報がある場合(ステップS118;NO)、CPU120の動作はステップS120に移行する。 Here, the user value information generation unit 132 determines whether or not there is information for which the user U1 does not permit disclosure (step S118). When the user U1 makes a statement in the hearing that he / she wishes not to disclose, all the elements corresponding to this statement are regarded as information that is not permitted to be disclosed. When there is information for which disclosure is not permitted (step S118; YES), the user value information generation unit 132 deletes the corresponding information from the user value information 164 (step S119), and the operation of the CPU 120 shifts to step S120. If there is information that is not permitted to be disclosed (step S118; NO), the operation of the CPU 120 shifts to step S120.

ステップS120では、テキスト評価部136がユーザ価値情報164の評価を行い(ステップS120)、評価がユーザ価値情報生成部132に付与される(ステップS121)。さらに、ユーザ価値情報生成部132が、ユーザ価値情報164に確認情報の要否を示す情報を付加する(ステップS122)。ステップS122では、ユーザ価値情報164をユーザU1以外の人に提供する場合に、提供の前にユーザU1に確認を求めることか否かが判定される。例えば、ヒアリングにおいてユーザU1が提供前の確認を求めた場合、ユーザ価値情報生成部132が、確認を要することを示すフラグを付けたユーザ価値情報164を生成する。 In step S120, the text evaluation unit 136 evaluates the user value information 164 (step S120), and the evaluation is given to the user value information generation unit 132 (step S121). Further, the user value information generation unit 132 adds information indicating the necessity of confirmation information to the user value information 164 (step S122). In step S122, when the user value information 164 is provided to a person other than the user U1, it is determined whether or not the user U1 is requested to confirm before the provision. For example, when the user U1 requests confirmation before provision in the hearing, the user value information generation unit 132 generates the user value information 164 with a flag indicating that confirmation is required.

続いて、登録部141がユーザ価値情報164をユーザ価値情報DB163に登録し(ステップS123)、CPU120は本処理を終了する。 Subsequently, the registration unit 141 registers the user value information 164 in the user value information DB 163 (step S123), and the CPU 120 ends this process.

図7は、サーバ100が利用端末装置350にユーザ価値情報164を提供する動作を示す。
要求受付部142は、情報利用ユーザU2の操作に基づき利用端末装置350が送信する閲覧要求を取得し(ステップS141)、抽出条件取得部143が抽出条件を生成する8ステップS142)。ユーザ価値情報出力部144は、抽出条件を取得して(ステップS143)、ユーザ価値情報DB163を検索することにより、ユーザ価値情報164を抽出する(ステップS144)。ユーザ価値情報出力部144は、抽出したユーザ価値情報164を利用端末装置350により表示するための情報を生成する(ステップS145)。
FIG. 7 shows an operation in which the server 100 provides the user value information 164 to the user terminal device 350.
The request receiving unit 142 acquires a browsing request transmitted by the user terminal device 350 based on the operation of the information using user U2 (step S141), and the extraction condition acquisition unit 143 generates an extraction condition in 8 steps S142). The user value information output unit 144 extracts the user value information 164 by acquiring the extraction condition (step S143) and searching the user value information DB 163 (step S144). The user value information output unit 144 generates information for displaying the extracted user value information 164 by the user terminal device 350 (step S145).

図8は、ユーザ価値情報164の表示例を示す図であり、ユーザ価値情報出力部144が生成する情報に基づいて利用端末装置350に表示される態様の例を示す。図8には、複数のユーザ価値情報164に関する情報が、縦方向に並べて配置され、一覧表示される例を示す。 FIG. 8 is a diagram showing a display example of the user value information 164, and shows an example of a mode displayed on the user terminal device 350 based on the information generated by the user value information output unit 144. FIG. 8 shows an example in which information related to a plurality of user value information 164 is arranged side by side in the vertical direction and displayed in a list.

ユーザ価値情報表示部170は、内容表示171、詳細情報表示172、分類表示173、提供時期表示174、価格表示175、評価表示176、コネクティング情報表示177の各表示領域を含む。 The user value information display unit 170 includes each display area of content display 171, detailed information display 172, classification display 173, provision time display 174, price display 175, evaluation display 176, and connecting information display 177.

内容表示171にはユーザ価値情報164の内容を端的に表現する情報が表示される。この情報は、ユーザ価値情報164の種類あるいはカテゴリーということもできる。
詳細情報表示172には、ユーザ価値情報164に関連するユーザU1の情報が表示される。例えば、詳細情報表示172には、ユーザU1を紹介する静止画像や動画像が配置される。また、ユーザU1のプロフィールや得意分野に関する情報を含んでもよい。詳細情報表示172に表示される情報は、例えば、ユーザDB152に登録された情報であるが、関連データ収集部140により収集された情報を含んでもよい。
Information that simply expresses the content of the user value information 164 is displayed on the content display 171. This information can also be referred to as a type or category of user value information 164.
The detailed information display 172 displays the information of the user U1 related to the user value information 164. For example, a still image or a moving image that introduces the user U1 is arranged on the detailed information display 172. It may also include information about the user U1's profile and areas of expertise. The information displayed on the detailed information display 172 is, for example, the information registered in the user DB 152, but may include the information collected by the related data collecting unit 140.

分類表示173はユーザ価値情報164の分類が表示される。提供時期表示174にはユーザ価値情報164の提供時期を示す情報が表示される。価格表示175は、ユーザ価値情報164の提供の対価が表示され、評価表示176にはユーザ価値情報164の評価が表示される。 The classification display 173 displays the classification of the user value information 164. Information indicating the provision time of the user value information 164 is displayed on the provision time display 174. The price display 175 displays the consideration for providing the user value information 164, and the evaluation display 176 displays the evaluation of the user value information 164.

コネクティング情報表示177には、情報利用ユーザU2がユーザU1とのコネクションを形成できるか否かが表示される。コネクションの手段として、面会、電話、SNSによる連絡が挙げられる。 The connecting information display 177 displays whether or not the information using user U2 can form a connection with the user U1. Means of connection include visitation, telephone, and SNS contact.

図7に戻り、ユーザ価値情報出力部144は、ユーザ価値情報表示部170等によって複数のユーザ価値情報164が表示される場合に、ユーザ価値情報164の表示順序を調整する(ステップS146)。ユーザ価値情報出力部144は、例えば、新しい順にユーザ価値情報164を配置してもよく、評価の高い順に配置してもよい。また、ユーザU1の知名度やSNSにおける影響力の順に、ユーザ価値情報164を並べて配置してもよい。 Returning to FIG. 7, the user value information output unit 144 adjusts the display order of the user value information 164 when a plurality of user value information 164 is displayed by the user value information display unit 170 or the like (step S146). The user value information output unit 144 may arrange the user value information 164 in the order of newest, or may arrange the user value information 164 in the order of highest evaluation. Further, the user value information 164 may be arranged side by side in the order of the name recognition of the user U1 and the influence on the SNS.

利用端末装置350に表示されたユーザ価値情報164のいずれかが選択された場合、ユーザ価値情報出力部144は、選択を受け付けて(ステップS147)、選択されたユーザ価値情報164が確認を要するか否かを判定する(ステップS148)。 When any of the user value information 164 displayed on the user terminal device 350 is selected, the user value information output unit 144 accepts the selection (step S147), and does the selected user value information 164 require confirmation? It is determined whether or not (step S148).

確認が必要な場合(ステップS148;YES)、ユーザ価値情報出力部144は、ユーザU1が使用するユーザ端末装置230等に確認の要求を出力する(ステップS149)。確認の要求は、電話、Eメール、SNS等の各種の手段を利用すればよい。ユーザ価値情報出力部144は、ユーザU1による応答を受け付けて(ステップS150)、ユーザU1によりユーザ価値情報164の提供が許可されたか否かを判定する(ステップS151)。 When confirmation is required (step S148; YES), the user value information output unit 144 outputs a confirmation request to the user terminal device 230 or the like used by the user U1 (step S149). The confirmation request may be made by using various means such as telephone, e-mail, and SNS. The user value information output unit 144 receives the response by the user U1 (step S150), and determines whether or not the provision of the user value information 164 is permitted by the user U1 (step S151).

提供が許可されない場合(ステップS151;NO)、ユーザ価値情報出力部144は、利用端末装置350に対して閲覧が不許可であることを通知し(ステップS152)、ステップS147に戻って別のユーザ価値情報164の選択を待機する。ステップS149−S152の動作において、ユーザ価値情報出力部144は、本発明の確認情報出力部および応答受付部の一例に対応する。 When the provision is not permitted (step S151; NO), the user value information output unit 144 notifies the user terminal device 350 that viewing is not permitted (step S152), returns to step S147, and another user. Wait for the selection of value information 164. In the operation of steps S149-S152, the user value information output unit 144 corresponds to an example of the confirmation information output unit and the response reception unit of the present invention.

提供が許可された場合(ステップS151;YES)、および、確認が不要な場合(ステップS148;NO)、ユーザ価値情報出力部144は、選択されたユーザ価値情報164を通信部110によって利用端末装置350に送信する(ステップS153)。 When the provision is permitted (step S151; YES) and when confirmation is not required (step S148; NO), the user value information output unit 144 uses the selected user value information 164 by the communication unit 110. It is transmitted to 350 (step S153).

ユーザ価値情報164の提供後、利用ユーザ評価取得部145は、利用端末装置350により入力される情報利用ユーザU2の評価を取得する(ステップS154)。
続いて、対価処理部147は、ユーザ価値情報164の提供に係る対価の支払い処理を実行し(ステップS155)、情報利用ユーザU2から支払いを受ける。ステップS155で、ユーザU1に対する対価の支払いを行ってもよい。
After providing the user value information 164, the user evaluation acquisition unit 145 acquires the evaluation of the information user U2 input by the user terminal device 350 (step S154).
Subsequently, the consideration processing unit 147 executes the payment process of the consideration related to the provision of the user value information 164 (step S155), and receives the payment from the information use user U2. In step S155, the consideration may be paid to the user U1.

評価統合部146は、ステップS154で取得された評価をユーザ価値情報DB163内のユーザ価値情報164の評価に反映する処理を行う(ステップS156)。これにより、ユーザ価値情報164の評価が更新される。さらに、対価処理部147は、更新後の評価に対応してユーザ価値情報164の提供に伴う価格を変更し、この変更を価格データ165に反映させて(ステップS157)、本処理を終了する。 The evaluation integration unit 146 performs a process of reflecting the evaluation acquired in step S154 in the evaluation of the user value information 164 in the user value information DB 163 (step S156). As a result, the evaluation of the user value information 164 is updated. Further, the consideration processing unit 147 changes the price associated with the provision of the user value information 164 in response to the updated evaluation, reflects this change in the price data 165 (step S157), and ends this processing.

このように、サーバ100は、ユーザU1の生活において検出されるライフログ情報を取得するライフログ情報取得部121と、ライフログ情報をもとに、ユーザU1の経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報156を抽出する抽出部122と、第1ユーザ特性情報156をユーザU1に対応づけて記録する記録部123と、ユーザU1から入力される情報に基づいて、ユーザU1の経験あるいは特徴に関連する第2ユーザ特性情報162を取得する入力情報処理部と、第1ユーザ特性情報156と第2ユーザ特性情報162とに基づいて、ユーザU1以外の人に提供可能なユーザ価値を表現するユーザ価値情報164を生成するユーザ価値情報生成部132と、を有する。 In this way, the server 100 is related to at least one of the experience and features of the user U1 based on the life log information acquisition unit 121 that acquires the life log information detected in the life of the user U1 and the life log information. The experience of the user U1 based on the extraction unit 122 that extracts the first user characteristic information 156, the recording unit 123 that records the first user characteristic information 156 in association with the user U1, and the information input from the user U1. Alternatively, based on the input information processing unit that acquires the second user characteristic information 162 related to the feature and the first user characteristic information 156 and the second user characteristic information 162, the user value that can be provided to a person other than the user U1 is provided. It has a user value information generation unit 132 that generates the user value information 164 to be expressed.

この構成によれば、ユーザU1の経験や特徴の価値を表現したユーザ価値情報164を得ることにより、ユーザU1の内在的な価値を、ユーザU1以外の人にも提供可能な情報にして、利用できる。ユーザ価値情報164は、記録や伝達が可能な情報であるから、ユーザ価値情報164を生成することにより、ユーザU1の経験や特徴を社会的資産として活用可能となる。また、客観性を有するライフログ情報をもとに抽出される第1ユーザ特性情報156と、主観的な特徴を有する第2ユーザ特性情報162とに基づいて、普遍性を有し、利用価値の高いユーザ価値情報164を得ることができる。サーバ100が実行する情報処理方法、および制御用プログラム151による場合にも、同様の作用効果を得ることができる。 According to this configuration, by obtaining the user value information 164 expressing the experience and the value of the feature of the user U1, the intrinsic value of the user U1 is made into information that can be provided to a person other than the user U1 and used. it can. Since the user value information 164 is information that can be recorded and transmitted, by generating the user value information 164, the experience and characteristics of the user U1 can be utilized as a social asset. Further, it has universality and utility value based on the first user characteristic information 156 extracted based on the objective life log information and the second user characteristic information 162 having subjective characteristics. High user value information 164 can be obtained. Similar effects can be obtained even when the information processing method executed by the server 100 and the control program 151 are used.

サーバ100は、ユーザ価値情報生成部132により生成されたユーザ価値情報164を、ユーザ価値データベースに登録する登録部141と、抽出条件の入力を受け付ける抽出条件取得部143と、抽出条件に基づいて、ユーザ価値データベースからユーザ価値情報164を抽出して出力するユーザ価値情報出力部144と、を備える。
この構成によれば、ユーザU1の真価を示すユーザ価値情報164を、情報利用ユーザU2等、ユーザU1以外の人と共有することができる。
The server 100 is based on the registration unit 141 that registers the user value information 164 generated by the user value information generation unit 132 in the user value database, the extraction condition acquisition unit 143 that accepts the input of the extraction condition, and the extraction condition. It includes a user value information output unit 144 that extracts and outputs user value information 164 from the user value database.
According to this configuration, the user value information 164 indicating the true value of the user U1 can be shared with a person other than the user U1 such as the information user U2.

ユーザ価値情報生成部132は、第1ユーザ特性情報156および第2ユーザ特性情報162から、ユーザU1の経験または特徴の価値を表現するために必要な情報を抽出することにより、ユーザ価値情報164を生成する。
この構成によれば、ユーザU1から得た情報から真価を表現するために必要な情報を抽出することで、ユーザU1以外の人にとって価値の高いユーザ価値情報164を生成できる。また、ユーザ価値情報164に不要な情報が含まれにくいので、ユーザ価値情報DB163のデータ容量の利用効率を高めることが期待できる。
The user value information generation unit 132 extracts the user value information 164 from the first user characteristic information 156 and the second user characteristic information 162 by extracting information necessary for expressing the value of the experience or feature of the user U1. Generate.
According to this configuration, by extracting the information necessary for expressing the true value from the information obtained from the user U1, the user value information 164 having high value for a person other than the user U1 can be generated. Further, since it is difficult for the user value information 164 to include unnecessary information, it can be expected that the utilization efficiency of the data capacity of the user value information DB 163 can be improved.

ユーザ価値情報生成部132は、第1ユーザ特性情報156と第2ユーザ特性情報162とを比較し、ユーザに関する情報の信頼性を判定し、設定された水準以上の信頼性を有すると判定した情報に基づきユーザ価値情報164を生成する。
この構成によれば、信頼性の高いユーザ価値情報164を生成し、共有できる。
The user value information generation unit 132 compares the first user characteristic information 156 and the second user characteristic information 162, determines the reliability of the information about the user, and determines that the information has the reliability equal to or higher than the set level. User value information 164 is generated based on.
According to this configuration, highly reliable user value information 164 can be generated and shared.

第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報を設定された属性に分類する分類部134を備え、ユーザ価値情報生成部132は、第1ユーザ特性情報156および第2ユーザ特性情報162から、分類部134により特定の属性に分類された情報を削除して、ユーザ価値情報164を生成する。
例えば、ユーザ価値情報生成部132は、第2ユーザ特性情報162から自慢話に分類される情報を削除して、ユーザ価値情報164を生成する。また、ユーザ価値情報生成部132は、ユーザU1の思い込みに分類される情報を含まないユーザ価値情報164を生成してもよい。
この構成によれば、ユーザU1以外の人にとって価値の高いユーザ価値情報164を生成できうる。
The user value information generation unit 132 includes a classification unit 134 that classifies the information contained in the first user characteristic information 156 and the second user characteristic information 162 into set attributes, and the user value information generation unit 132 includes the first user characteristic information 156 and the second user characteristic. The user value information 164 is generated by deleting the information classified into a specific attribute by the classification unit 134 from the information 162.
For example, the user value information generation unit 132 deletes the information classified as a boastful story from the second user characteristic information 162 and generates the user value information 164. Further, the user value information generation unit 132 may generate the user value information 164 that does not include the information classified into the belief of the user U1.
According to this configuration, user value information 164 having high value for a person other than user U1 can be generated.

第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報をテキスト情報に変換する変換部133と、テキスト情報を評価するテキスト評価部136と、備え、分類部134は、テキスト情報を、自然言語の形態素または形態素の組み合わせからなる要素に切り分けて分類し、テキスト評価部136は、分類部134により分類された各々の要素、および、複数の要素の関係の少なくともいずれかに基づいて、テキスト情報の評価を決定し、決定した評価をユーザ価値情報164に付与する。
この構成によれば、ユーザ価値情報164に対し、テキストに基づく評価を付与することにより、定量的かつ相対的な評価を付与できる。このため、ユーザ価値情報164を利用する情報利用ユーザU2が、ユーザ価値情報164の価値を容易に判断できる。
A conversion unit 133 that converts the information contained in the first user characteristic information 156 and the second user characteristic information 162 into text information, and a text evaluation unit 136 that evaluates the text information are provided, and the classification unit 134 provides the text information. It is divided into elements consisting of natural language morphemes or combinations of morphemes and classified, and the text evaluation unit 136 classifies the text based on each element classified by the classification unit 134 and at least one of the relationships of the plurality of elements. The evaluation of the information is determined, and the determined evaluation is given to the user value information 164.
According to this configuration, the user value information 164 can be given a quantitative and relative evaluation by giving an evaluation based on the text. Therefore, the information user U2 who uses the user value information 164 can easily determine the value of the user value information 164.

分類部134は、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報から、ユーザU1の成功体験に分類される情報と失敗体験に分類される情報とを抽出し、テキスト評価部136は、成功体験に分類される情報と失敗体験に分類される情報との両方を含むユーザ価値情報164に対し、成功体験に分類された情報と失敗体験に分類された情報とのいずれかが含まれないユーザ価値情報164に比べて高い評価を付与する。
この構成によれば、ユーザU1以外の人にとって価値の高いユーザ価値情報164に対し、高い評価を付与できる。例えば、失敗体験の情報を含むユーザ価値情報164は、情報利用ユーザU2等に提供された場合の価値が高く、さらに成功体験の情報が加わることで、成功への参考となる可能性が高い。従って、ユーザ価値情報164の提供を受ける情報利用ユーザU2にとっての価値を基準として、ユーザ価値情報164に適切な評価を与えることができる。
The classification unit 134 extracts information classified as a successful experience and information classified as a failure experience of the user U1 from the information contained in the first user characteristic information 156 and the second user characteristic information 162, and is a text evaluation unit. 136 is a user value information 164 including both information classified as a successful experience and information classified as a failed experience, and one of the information classified as a successful experience and the information classified as a failed experience is used. It gives a higher evaluation than the user value information 164 that is not included.
According to this configuration, a high evaluation can be given to the user value information 164 which is highly valuable to a person other than the user U1. For example, the user value information 164 including the information of the failure experience has a high value when provided to the information user U2 or the like, and further, by adding the information of the success experience, there is a high possibility that it will be a reference for success. Therefore, it is possible to give an appropriate evaluation to the user value information 164 based on the value for the information user U2 who receives the user value information 164.

分類部134は、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報から、抽象的表現に分類される情報と具体的表現に分類される情報とを抽出し、テキスト評価部136は、抽象的表現に分類される情報と具体的表現に分類される情報との両方を含むユーザ価値情報164に対し、抽象的表現に分類される情報と具体的表現に分類される情報とのいずれかが含まれないユーザ価値情報164に比べて高い評価を付与する。
この構成によれば、成功体験と失敗体験との両方に関する情報を含み、内容が充実しているユーザ価値情報164に高い評価を与える。これにより、ユーザ価値情報164の提供を受ける情報利用ユーザU2にとっての価値を基準として、ユーザ価値情報164に適切な評価を与えることができる。
The classification unit 134 extracts information classified into an abstract expression and information classified into a specific expression from the information contained in the first user characteristic information 156 and the second user characteristic information 162, and the text evaluation unit 136. Is the user value information 164 including both the information classified into the abstract expression and the information classified into the concrete expression, and the information classified into the abstract expression and the information classified into the specific expression. A higher evaluation is given as compared with the user value information 164 which does not include any of them.
According to this configuration, the user value information 164, which includes information on both successful and unsuccessful experiences and is rich in content, is highly evaluated. As a result, it is possible to give an appropriate evaluation to the user value information 164 based on the value for the information user U2 who receives the user value information 164.

ユーザU1に対する質問情報を出力する質問提示部135を備え、テキスト評価部136は、ユーザU1の価値を表現するために不足している情報を取得するための質問情報をユーザU1に対して提示する。
この構成によれば、ユーザU1から効率よく情報を得ることができる。
A question presentation unit 135 for outputting question information to the user U1 is provided, and the text evaluation unit 136 presents the question information to the user U1 for acquiring information lacking in order to express the value of the user U1. ..
According to this configuration, information can be efficiently obtained from the user U1.

ユーザ価値情報生成部132は、ユーザU1から入力された情報に、ユーザU1が公開を許可しない情報が含まれる場合に、ユーザU1が公開を許可しない情報を含まないユーザ価値情報164を生成する。
この構成によれば、ユーザU1のプライバシー等に配慮し、ユーザU1の意図に沿ったユーザ価値情報164を生成できる。
When the information input from the user U1 includes information that the user U1 does not permit to be published, the user value information generation unit 132 generates the user value information 164 that does not include the information that the user U1 does not permit to publish.
According to this configuration, the user value information 164 can be generated according to the intention of the user U1 in consideration of the privacy of the user U1 and the like.

サーバ100は、第1音声出力部252と、第1音声出力部252とは別体として構成される第2音声出力部262と、音声を集音する集音部253と、を備え、入力情報処理部131は、第1音声出力部252および第2音声出力部262から出力される音声に応じてユーザU1が発する音声を、集音部253で集音することにより、ユーザU1の音声によって入力される情報を取得し、第1音声出力部252によってユーザに対する質問の音声を出力させ、第2音声出力部262から質問の音声への応答を促す音声を出力させる。
この構成によれば、第1音声出力部252と第2音声出力部262とを用いて、グループ会話を模したヒアリングを行うことができる。これにより、ユーザU1に与える緊張感や警戒感を軽減し、ユーザU1をリラックスさせて、効率よく情報を得ることができる。
The server 100 includes a first audio output unit 252, a second audio output unit 262 configured as a separate body from the first audio output unit 252, and a sound collection unit 253 for collecting audio, and input information. The processing unit 131 inputs the voice emitted by the user U1 in response to the voice output from the first voice output unit 252 and the second voice output unit 262 by the voice of the user U1 by collecting the voice by the sound collecting unit 253. The information is acquired, the first voice output unit 252 outputs the voice of the question to the user, and the second voice output unit 262 outputs the voice prompting the response to the voice of the question.
According to this configuration, the first voice output unit 252 and the second voice output unit 262 can be used to perform a hearing imitating a group conversation. As a result, the tension and alertness given to the user U1 can be reduced, the user U1 can be relaxed, and information can be obtained efficiently.

サーバ100は、情報利用ユーザU2が使用する利用端末装置350から閲覧要求の入力を受け付ける要求受付部142と、情報利用ユーザU2による閲覧要求の入力に対応して、ユーザに確認情報を出力する確認情報出力部としてのユーザ価値情報出力部144と、確認情報に応答してユーザが入力する応答入力を受け付ける応答受付部としてのユーザ価値情報出力部144と、情報利用ユーザU2とユーザとの間で対価を移動する対価取引処理を行う対価処理部147と、を備え、抽出条件取得部143は、閲覧要求の入力に基づいて抽出条件を取得し、ユーザ価値情報出力部144は、応答受付部により受け付けた応答入力に基づいて、抽出条件に基づいて抽出したユーザ価値情報164を利用端末装置350に出力し、対価処理部147は、ユーザ価値情報164の出力に応じて、情報利用ユーザU2から対価を徴収し、ユーザに対価を支払う処理を行う構成としてもよい。
この構成によれば、情報利用ユーザU2が対価を支払ってユーザ価値情報164の提供を受けることができ、ユーザ価値情報164の提供と、ユーザU1および情報利用ユーザU2における対価の流通とを含むプラットフォームを実現できる。
The server 100 has a request reception unit 142 that receives an input of a browsing request from the user terminal device 350 used by the information using user U2, and a confirmation that outputs confirmation information to the user in response to the input of the browsing request by the information using user U2. Between the user value information output unit 144 as the information output unit, the user value information output unit 144 as the response reception unit that receives the response input input by the user in response to the confirmation information, and the information user U2 and the user. The consideration processing unit 147 that performs the consideration transaction processing for moving the consideration is provided, the extraction condition acquisition unit 143 acquires the extraction condition based on the input of the browsing request, and the user value information output unit 144 is provided by the response reception unit. Based on the received response input, the user value information 164 extracted based on the extraction condition is output to the user terminal device 350, and the consideration processing unit 147 receives the consideration from the information use user U2 in response to the output of the user value information 164. May be configured to collect and pay the user.
According to this configuration, the information using user U2 can receive the provision of the user value information 164 by paying the consideration, and the platform including the provision of the user value information 164 and the distribution of the consideration in the user U1 and the information using user U2. Can be realized.

サーバ100は、第1ユーザ特性情報156および第2ユーザ特性情報162に含まれる情報をテキスト情報に変換する変換部133と、テキスト情報を評価するテキスト評価部136と、利用端末装置350からユーザ価値情報164に対する評価を取得する利用ユーザ評価取得部145と、利用ユーザ評価取得部145により取得された評価と、テキスト評価部136による評価との組み合わせに基づきユーザ価値情報164の統合的評価を決定する評価統合部146と、を備え、対価処理部147は、ユーザ価値情報164の統合的評価に基づいてユーザ価値情報164の対価を決定する。
この構成によれば、ユーザ価値情報164に対する多角的な評価を反映して、ユーザ価値情報164の提供に係る対価を設定できる。
The server 100 has a conversion unit 133 that converts the information contained in the first user characteristic information 156 and the second user characteristic information 162 into text information, a text evaluation unit 136 that evaluates the text information, and a user value from the user terminal device 350. The integrated evaluation of the user value information 164 is determined based on the combination of the user evaluation acquisition unit 145 that acquires the evaluation for the information 164, the evaluation acquired by the user evaluation acquisition unit 145, and the evaluation by the text evaluation unit 136. The evaluation integration unit 146 and the consideration processing unit 147 determine the consideration of the user value information 164 based on the integrated evaluation of the user value information 164.
According to this configuration, it is possible to set the consideration for providing the user value information 164 by reflecting the multifaceted evaluation of the user value information 164.

[4.他の実施形態]
上記実施形態では、入力情報処理部131は、ヒアリングにおいて集音部253が集音した音声データを取得し、ヒアリングデータ159として記録する構成とした。入力情報処理部131、ヒアリングの際にカメラ211により撮像された撮像画像データに基づき情報を取得してもよい。すなわち、カメラ211によってヒアリング中のユーザU1を撮像し、ユーザU1のジェスチャを、入力情報として取得してもよい。この構成において、第1端末装置250または第2端末装置260がカメラを搭載し、ヒアリング中のユーザU1を撮像してもよい。これらの場合において、ヒアリングデータ159は、音声データと、撮像画像データとを含むデータであってもよい。
[4. Other embodiments]
In the above embodiment, the input information processing unit 131 acquires the voice data collected by the sound collecting unit 253 in the hearing and records it as the hearing data 159. Information may be acquired based on the captured image data captured by the input information processing unit 131 and the camera 211 at the time of hearing. That is, the user U1 being heard may be imaged by the camera 211, and the gesture of the user U1 may be acquired as input information. In this configuration, the first terminal device 250 or the second terminal device 260 may mount a camera and image the user U1 during the hearing. In these cases, the hearing data 159 may be data including audio data and captured image data.

また、入力情報処理部131は、ユーザ端末装置230により入力されるテキストデータを取得してもよい。例えば、ユーザU1に対するヒアリングを、ユーザ端末装置230を用いたメッセージ交換により行ってもよい。この場合、ヒアリングデータ159は、ユーザ端末装置230とサーバ100とが交換したメッセージのデータであってもよい。 Further, the input information processing unit 131 may acquire the text data input by the user terminal device 230. For example, the hearing with the user U1 may be performed by exchanging messages using the user terminal device 230. In this case, the hearing data 159 may be the data of the message exchanged between the user terminal device 230 and the server 100.

サーバ100は、第1端末装置250および第2端末装置260を利用してヒアリングを行う構成に限らず、例えば、3台以上の装置により音声を出力してもよいし、1台の装置のみにより音声を出力してもよい。
また、ユーザ端末装置230がスピーカを備える構成において、ユーザ端末装置230に、第2端末装置260の機能を実行させてもよい。また、ユーザ端末装置230がマイクおよびスピーカを備える構成において、ユーザ端末装置230に、第1端末装置250の機能を実行させてもよい。
The server 100 is not limited to the configuration in which the first terminal device 250 and the second terminal device 260 are used for hearing, and for example, audio may be output by three or more devices, or only by one device. Audio may be output.
Further, in a configuration in which the user terminal device 230 includes a speaker, the user terminal device 230 may be made to execute the function of the second terminal device 260. Further, in a configuration in which the user terminal device 230 includes a microphone and a speaker, the user terminal device 230 may be made to execute the function of the first terminal device 250.

ユーザU1のライフログを収集する装置は観察装置210等に限らず、例えば、ユーザU1が運転する自動車に搭載されたカメラ、センサ、GPSにより収集される情報、および/または、ユーザU1の住居に設置されたカメラやセンサにより収集される情報を、ライフログ情報取得部121により取得してもよい。 The device for collecting the life log of the user U1 is not limited to the observation device 210 and the like, and for example, the camera, the sensor, the information collected by the GPS mounted on the vehicle driven by the user U1, and / or the residence of the user U1. The information collected by the installed camera or sensor may be acquired by the life log information acquisition unit 121.

また、ユーザ端末装置230が、サーバ100のCPU120の機能の一部または全部を実行してもよい。この場合、サーバ100、或いはサーバ100に変えてメモリ150を備える装置と、ユーザ端末装置230とが、通信ネットワーク400を介して接続された構成とすることができる。ユーザ端末装置230は、例えば、ライフログ情報取得部121、抽出部122、記録部123、ヒアリング処理部130、テキスト評価部136、関連データ収集部140、登録部141、評価統合部146、および対価処理部147として機能してもよい。また、要求受付部142、抽出条件取得部143、ユーザ価値情報出力部144、利用ユーザ評価取得部145、対価処理部147の機能を、ユーザ端末装置230が実行してもよいし、他の装置が実行してもよい。
また、サーバ100とは異なる第2のサーバが、CPU120の機能の一部を実行してもよく、第2のサーバとサーバ100とが協働して図3に示す機能を実行してもよい。
Further, the user terminal device 230 may execute a part or all of the functions of the CPU 120 of the server 100. In this case, the server 100 or a device having a memory 150 instead of the server 100 and the user terminal device 230 can be connected via the communication network 400. The user terminal device 230 includes, for example, a life log information acquisition unit 121, an extraction unit 122, a recording unit 123, a hearing processing unit 130, a text evaluation unit 136, a related data collection unit 140, a registration unit 141, an evaluation integration unit 146, and a consideration. It may function as a processing unit 147. Further, the user terminal device 230 may execute the functions of the request reception unit 142, the extraction condition acquisition unit 143, the user value information output unit 144, the user evaluation acquisition unit 145, and the consideration processing unit 147, or another device. May be executed.
Further, a second server different from the server 100 may execute a part of the functions of the CPU 120, or the second server and the server 100 may cooperate to execute the functions shown in FIG. ..

なお、図3は、本願発明の理解を容易にするために、サーバ100の機能構成を、主な処理内容により区分して示した概略図であり、サーバ100の構成を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、各構成要素の処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。 Note that FIG. 3 is a schematic view showing the functional configuration of the server 100 divided by the main processing contents in order to facilitate the understanding of the present invention, and the configuration of the server 100 is configured by other divisions. You may. Further, the processing of each component may be executed by one hardware unit, or may be executed by a plurality of hardware units. Further, the processing of each component may be executed by one program or may be executed by a plurality of programs.

1…情報管理システム、100…サーバ(情報処理装置)、120…CPU、121…ライフログ情報取得部、122…抽出部、123…記録部、130…ヒアリング処理部、131…入力情報処理部、132…ユーザ価値情報生成部、133…変換部、134…分類部、135…質問提示部、136…テキスト評価部、140…関連データ収集部、141…登録部、142…要求受付部、143…抽出条件取得部、144…ユーザ価値情報出力部(確認情報出力部、応答受付部)、145…利用ユーザ評価取得部、146…評価統合部、147…対価処理部、150…メモリ、151…制御用プログラム、152…ユーザDB、153…ライフログ情報記憶部、154…ライフログ情報、155…第1ユーザ特性情報記憶部、156…第1ユーザ特性情報、157…辞書データ、158…ヒアリングデータ記憶部、159…ヒアリングデータ、160…関連データ記憶部、161…第2ユーザ特性情報記憶部、162…第2ユーザ特性情報、163…ユーザ価値情報DB、164…ユーザ価値情報、165…価格データ、210…観察装置、220…生体情報検知装置、230…ユーザ端末装置、250…第1端末装置、252…第1音声出力部、253…集音部、260…第2端末装置、262…第2音声出力部、350…利用端末装置、400…通信ネットワーク。 1 ... Information management system, 100 ... Server (information processing device), 120 ... CPU, 121 ... Life log information acquisition unit, 122 ... Extraction unit, 123 ... Recording unit, 130 ... Hearing processing unit, 131 ... Input information processing unit, 132 ... User value information generation unit, 133 ... Conversion unit, 134 ... Classification unit, 135 ... Question presentation unit, 136 ... Text evaluation unit, 140 ... Related data collection unit, 141 ... Registration unit, 142 ... Request reception unit, 143 ... Extraction condition acquisition unit 144 ... User value information output unit (confirmation information output unit, response reception unit) 145 ... User evaluation acquisition unit 146 ... Evaluation integration unit 147 ... Consideration processing unit, 150 ... Memory, 151 ... Control Program, 152 ... User DB, 153 ... Life log information storage unit, 154 ... Life log information, 155 ... First user characteristic information storage unit, 156 ... First user characteristic information, 157 ... Dictionary data, 158 ... Hearing data storage Department, 159 ... Hearing data, 160 ... Related data storage unit, 161 ... Second user characteristic information storage unit, 162 ... Second user characteristic information, 163 ... User value information DB, 164 ... User value information, 165 ... Price data, 210 ... Observation device, 220 ... Biological information detection device, 230 ... User terminal device, 250 ... First terminal device, 252 ... First audio output unit, 253 ... Sound collecting unit, 260 ... Second terminal device, 262 ... Second Audio output unit, 350 ... Terminal device used, 400 ... Communication network.

Claims (15)

ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、
前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、
前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、
前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、
前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、を備える
情報処理装置。
A life log information acquisition unit that acquires life log information detected in the user's life,
An extraction unit that extracts first user characteristic information related to at least one of the user's experience and characteristics based on the life log information.
A recording unit that records the first user characteristic information in association with the user,
An input information processing unit that acquires second user characteristic information related to the user's experience or characteristics based on the information input from the user.
An information processing device including a user value information generation unit that generates user value information expressing user value that can be provided to a person other than the user based on the first user characteristic information and the second user characteristic information. ..
前記ユーザ価値情報生成部により生成された前記ユーザ価値情報を、ユーザ価値データベースに登録する登録部と、
抽出条件の入力を受け付ける抽出条件取得部と、
前記抽出条件に基づいて、前記ユーザ価値データベースから前記ユーザ価値情報を抽出して出力するユーザ価値情報出力部と、を備える
請求項1に記載の情報処理装置。
A registration unit that registers the user value information generated by the user value information generation unit in the user value database, and a registration unit.
An extraction condition acquisition unit that accepts input of extraction conditions,
The information processing apparatus according to claim 1, further comprising a user value information output unit that extracts and outputs the user value information from the user value database based on the extraction conditions.
前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記ユーザの経験または特徴の価値を表現するために必要な情報を抽出することにより、前記ユーザ価値情報を生成する
請求項1又は請求項2に記載の情報処理装置。
The user value information generation unit extracts the user value information from the first user characteristic information and the second user characteristic information, thereby extracting information necessary for expressing the value of the user's experience or characteristic. The information processing device according to claim 1 or 2, which is generated.
前記ユーザ価値情報生成部は、前記第1ユーザ特性情報と前記第2ユーザ特性情報とを比較し、
前記ユーザに関する情報の信頼性を判定し、設定された水準以上の信頼性を有すると判定した情報に基づき前記ユーザ価値情報を生成する
請求項1から請求項3のいずれか1項に記載の情報処理装置。
The user value information generation unit compares the first user characteristic information with the second user characteristic information, and compares the first user characteristic information with the second user characteristic information.
The information according to any one of claims 1 to 3, which determines the reliability of information about the user and generates the user value information based on the information determined to have reliability equal to or higher than a set level. Processing equipment.
前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報を設定された属性に分類する分類部を備え、
前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記分類部により特定の属性に分類された情報を削除して、前記ユーザ価値情報を生成する
請求項1から請求項4のいずれか1項に記載の情報処理装置。
A classification unit for classifying the first user characteristic information and the information included in the second user characteristic information into set attributes is provided.
The user value information generation unit generates the user value information by deleting information classified into specific attributes by the classification unit from the first user characteristic information and the second user characteristic information. The information processing apparatus according to any one of claims 4.
前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、
前記テキスト情報を評価するテキスト評価部と、備え、
前記分類部は、前記テキスト情報を、自然言語の形態素または形態素の組み合わせからなる要素に切り分けて分類し、
前記テキスト評価部は、前記分類部により分類された各々の前記要素、および、複数の前記要素の関係の少なくともいずれかに基づいて、前記テキスト情報の評価を決定し、決定した評価を前記ユーザ価値情報に付与する
請求項5に記載の情報処理装置。
A conversion unit that converts the first user characteristic information and the information contained in the second user characteristic information into text information, and
With a text evaluation unit that evaluates the text information,
The classification unit divides and classifies the text information into elements consisting of morphemes or combinations of morphemes in natural language.
The text evaluation unit determines the evaluation of the text information based on at least one of the respective elements classified by the classification unit and the relationship between the plurality of the elements, and the determined evaluation is the user value. The information processing device according to claim 5, which is applied to information.
前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、前記ユーザの成功体験に分類される情報と失敗体験に分類される情報とを抽出し、
前記テキスト評価部は、前記成功体験に分類される情報と前記失敗体験に分類される情報との両方を含む前記ユーザ価値情報に対し、前記成功体験に分類された情報と前記失敗体験に分類された情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する
請求項6に記載の情報処理装置。
The classification unit extracts information classified into the success experience and information classified into the failure experience of the user from the information included in the first user characteristic information and the second user characteristic information.
The text evaluation unit classifies the user value information including both the information classified into the success experience and the information classified into the failure experience into the information classified into the success experience and the failure experience. The information processing device according to claim 6, which gives a higher evaluation than the user value information that does not include any of the information.
前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、抽象的表現に分類される情報と具体的表現に分類される情報とを抽出し、
前記テキスト評価部は、前記抽象的表現に分類される情報と前記具体的表現に分類される情報との両方を含む前記ユーザ価値情報に対し、前記抽象的表現に分類される情報と前記具体的表現に分類される情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する
請求項6又は請求項7に記載の情報処理装置。
The classification unit extracts information classified into an abstract expression and information classified into a specific expression from the information included in the first user characteristic information and the second user characteristic information.
The text evaluation unit sets the information classified into the abstract expression and the specific information with respect to the user value information including both the information classified into the abstract expression and the information classified into the specific expression. The information processing device according to claim 6 or 7, which gives a higher evaluation than the user value information which does not include any of the information classified into the expression.
前記ユーザに対する質問情報を出力する質問提示部を備え、
前記質問提示部は、前記ユーザの価値を表現するために不足している情報を取得するための前記質問情報を前記ユーザに対して提示する
請求項1から請求項8のいずれか1項に記載の情報処理装置。
It is equipped with a question presentation unit that outputs question information for the user.
The question presenting unit according to any one of claims 1 to 8, wherein the question presenting unit presents the question information to the user for acquiring information lacking in order to express the value of the user. Information processing equipment.
前記ユーザ価値情報生成部は、前記ユーザから入力された情報に、前記ユーザが公開を許可しない情報が含まれる場合に、前記ユーザが公開を許可しない情報を含まない前記ユーザ価値情報を生成する
請求項1から請求項9のいずれか1項に記載の情報処理装置。
When the information input by the user includes information that the user does not permit to publish, the user value information generation unit generates the user value information that does not include the information that the user does not permit to publish. The information processing apparatus according to any one of claims 1 to 9.
第1音声出力部と、前記第1音声出力部とは別体として構成される第2音声出力部と、音声を集音する集音部と、を備え、
前記入力情報処理部は、前記第1音声出力部および前記第2音声出力部から出力される音声に応じて前記ユーザが発する音声を、前記集音部で集音することにより、前記ユーザの音声によって入力される情報を取得し、
前記第1音声出力部によって前記ユーザに対する質問の音声を出力させ、前記第2音声出力部から前記質問の音声への応答を促す音声を出力させる
請求項1から請求項10のいずれか1項に記載の情報処理装置。
It is provided with a first audio output unit, a second audio output unit configured as a separate body from the first audio output unit, and a sound collecting unit for collecting sound.
The input information processing unit collects the voice emitted by the user in response to the voice output from the first voice output unit and the second voice output unit, thereby collecting the voice of the user. Get the information entered by
The first voice output unit outputs a voice of a question to the user, and the second voice output unit outputs a voice prompting a response to the voice of the question according to any one of claims 1 to 10. The information processing device described.
情報利用ユーザが使用する利用端末装置から閲覧要求の入力を受け付ける要求受付部と、
前記情報利用ユーザによる閲覧要求の入力に対応して、前記ユーザに確認情報を出力する確認情報出力部と、
前記確認情報に応答して前記ユーザが入力する応答入力を受け付ける応答受付部と、
前記情報利用ユーザと前記ユーザとの間で対価を移動する対価取引処理を行う対価処理部と、を備え、
抽出条件取得部は、前記閲覧要求の入力に基づいて前記抽出条件を取得し、
前記ユーザ価値情報出力部は、前記応答受付部により受け付けた前記応答入力に基づいて、前記抽出条件に基づいて抽出した前記ユーザ価値情報を前記利用端末装置に出力し、
前記対価処理部は、前記ユーザ価値情報の出力に応じて、前記情報利用ユーザから対価を徴収し、前記ユーザに対価を支払う処理を行う
請求項2に記載の情報処理装置。
A request reception unit that accepts input of browsing requests from the terminal device used by the information user,
A confirmation information output unit that outputs confirmation information to the user in response to an input of a browsing request by the information user.
A response receiving unit that receives a response input input by the user in response to the confirmation information,
It is provided with a consideration processing unit that performs consideration transaction processing for moving consideration between the information-using user and the user.
The extraction condition acquisition unit acquires the extraction condition based on the input of the viewing request, and obtains the extraction condition.
The user value information output unit outputs the user value information extracted based on the extraction conditions to the user terminal device based on the response input received by the response reception unit.
The information processing device according to claim 2, wherein the consideration processing unit collects consideration from the information-using user and pays the consideration to the user in response to the output of the user value information.
前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、
前記テキスト情報を評価するテキスト評価部と、
前記利用端末装置から前記ユーザ価値情報に対する評価を取得する利用ユーザ評価取得部と、
前記利用ユーザ評価取得部により取得された評価と、前記テキスト評価部による評価との組み合わせに基づき前記ユーザ価値情報の統合的評価を決定する評価統合部と、を備え、
前記対価処理部は、前記ユーザ価値情報の統合的評価に基づいて前記ユーザ価値情報の対価を決定する
請求項12に記載の情報処理装置。
A conversion unit that converts the first user characteristic information and the information contained in the second user characteristic information into text information, and
A text evaluation unit that evaluates the text information,
A user evaluation acquisition unit that acquires an evaluation of the user value information from the user terminal device,
It is provided with an evaluation integration unit that determines an integrated evaluation of the user value information based on a combination of the evaluation acquired by the user evaluation acquisition unit and the evaluation by the text evaluation unit.
The information processing device according to claim 12, wherein the consideration processing unit determines the consideration for the user value information based on the integrated evaluation of the user value information.
ユーザの生活において検出されるライフログ情報を取得し、
前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出し、
前記第1ユーザ特性情報を前記ユーザに対応づけて記録し、
前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得し、
前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成する
情報処理方法。
Acquires life log information detected in the user's life and
Based on the life log information, first user characteristic information related to at least one of the user's experience and characteristics is extracted.
The first user characteristic information is recorded in association with the user,
Based on the information input from the user, the second user characteristic information related to the user's experience or characteristics is acquired, and the second user characteristic information is acquired.
An information processing method for generating user value information expressing user value that can be provided to a person other than the user, based on the first user characteristic information and the second user characteristic information.
コンピュータを、
ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、
前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、
前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、
前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、
前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、して機能させる
プログラム。
Computer,
A life log information acquisition unit that acquires life log information detected in the user's life,
An extraction unit that extracts first user characteristic information related to at least one of the user's experience and characteristics based on the life log information.
A recording unit that records the first user characteristic information in association with the user,
An input information processing unit that acquires second user characteristic information related to the user's experience or characteristics based on the information input from the user.
A program that functions as a user value information generation unit that generates user value information expressing user value that can be provided to a person other than the user based on the first user characteristic information and the second user characteristic information. ..
JP2019050031A 2019-03-18 2019-03-18 Information processing device, information processing method, and program Active JP7273563B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019050031A JP7273563B2 (en) 2019-03-18 2019-03-18 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019050031A JP7273563B2 (en) 2019-03-18 2019-03-18 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2020154427A true JP2020154427A (en) 2020-09-24
JP7273563B2 JP7273563B2 (en) 2023-05-15

Family

ID=72559010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050031A Active JP7273563B2 (en) 2019-03-18 2019-03-18 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7273563B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023043102A (en) * 2021-09-15 2023-03-28 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP7368578B1 (en) * 2022-10-14 2023-10-24 医療法人社団M-Forest Respiratory and circulatory system measurement data management system and respiratory and circulatory system measurement data management program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219845A (en) * 2016-06-05 2017-12-14 国立大学法人 千葉大学 Speech promotion apparatus and speech promotion program
JP2019020882A (en) * 2017-07-13 2019-02-07 本田技研工業株式会社 Life log utilization system, method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219845A (en) * 2016-06-05 2017-12-14 国立大学法人 千葉大学 Speech promotion apparatus and speech promotion program
JP2019020882A (en) * 2017-07-13 2019-02-07 本田技研工業株式会社 Life log utilization system, method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023043102A (en) * 2021-09-15 2023-03-28 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP7419313B2 (en) 2021-09-15 2024-01-22 Lineヤフー株式会社 Information processing device, information processing method, and information processing program
JP7368578B1 (en) * 2022-10-14 2023-10-24 医療法人社団M-Forest Respiratory and circulatory system measurement data management system and respiratory and circulatory system measurement data management program
WO2024080303A1 (en) * 2022-10-14 2024-04-18 医療法人社団M-Forest Respiratory/cardiovascular system measurement data management system, and respiratory/cardiovascular system measurement data management program

Also Published As

Publication number Publication date
JP7273563B2 (en) 2023-05-15

Similar Documents

Publication Publication Date Title
US20220382990A1 (en) System for minimizing repetition in intelligent virtual assistant conversations
Nguyen et al. Computational sociolinguistics: A survey
Elliott Using narrative in social research: Qualitative and quantitative approaches
CN105792752A (en) Computing technologies for diagnosis and therapy of language-related disorders
US20200183928A1 (en) System and Method for Rule-Based Conversational User Interface
KR20190108523A (en) Server and method for providing feeling analysis based emotional diary service using artificial intelligence based on speech signal
WO2014080585A1 (en) System for supporting correction of distorted cognition, method of eliciting user consciousness information and program therefor
US11756567B2 (en) Autocreation of conversational image representation
CN113035232B (en) Psychological state prediction system, method and device based on voice recognition
WO2022174161A1 (en) Systems and methods for psychotherapy using artificial intelligence
CN115713875A (en) Virtual reality simulation teaching method based on psychological analysis
CN112164459A (en) Information evaluation method for depression symptoms
US11361754B2 (en) Method and system for speech effectiveness evaluation and enhancement
Kavakli et al. Towards the development of a virtual counselor to tackle students' exam stress
JP7273563B2 (en) Information processing device, information processing method, and program
Nguyen Text as social and cultural data: a computational perspective on variation in text
CN113255323B (en) Description data processing method, system, electronic device and medium
US20190304484A1 (en) Word repetition in separate conversations for detecting a sign of cognitive decline
CN114971658B (en) Anti-fraud propaganda method, system, electronic equipment and storage medium
US20220309936A1 (en) Video education content providing method and apparatus based on artificial intelligence natural language processing using characters
JP6951004B1 (en) Information processing system and virtual human resources
CN112381989A (en) Sorting method, device and system and electronic equipment
Nurisnaeni et al. Rhetorical Appeals Found in Rishi Sunak (the United Kingdom Prime Minister) Speech
WO2022180856A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
US20210280280A1 (en) Systems And Methods For Dynamically Providing On-Demand Behavioral Insights

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7273563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150