JP7273563B2 - 情報処理装置、情報処理方法、および、プログラム - Google Patents
情報処理装置、情報処理方法、および、プログラム Download PDFInfo
- Publication number
- JP7273563B2 JP7273563B2 JP2019050031A JP2019050031A JP7273563B2 JP 7273563 B2 JP7273563 B2 JP 7273563B2 JP 2019050031 A JP2019050031 A JP 2019050031A JP 2019050031 A JP2019050031 A JP 2019050031A JP 7273563 B2 JP7273563 B2 JP 7273563B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- unit
- value
- classified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 57
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000011156 evaluation Methods 0.000 claims description 142
- 230000014509 gene expression Effects 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 30
- 239000000284 extract Substances 0.000 claims description 22
- 238000012790 confirmation Methods 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 230000010354 integration Effects 0.000 claims description 11
- 238000000034 method Methods 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 10
- 230000010255 response to auditory stimulus Effects 0.000 claims 1
- 230000013707 sensory perception of sound Effects 0.000 description 62
- 238000004891 communication Methods 0.000 description 54
- 238000001514 detection method Methods 0.000 description 25
- 230000033001 locomotion Effects 0.000 description 14
- 238000007726 management method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000006399 behavior Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000013480 data collection Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 235000012054 meals Nutrition 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は上記背景に鑑みてなされたものであり、ユーザの経験等に基づく価値をユーザ以外の人に提供できる情報処理装置、情報処理方法、および、プログラムを提供することを目的とする。
[1.情報管理システムの概要]
図1は、本発明の情報処理装置を適用したサーバ100を含む情報管理システム1の概略構成を示す図である。図2は、情報管理システム1の要部構成図であり、情報管理システム1を構成する装置の一部について、機能的構成を示すブロック図である。
生体情報検知装置220は、ユーザU1の身体に装着され、ユーザU1の身体に関する計測や検知を行う装置である。図1には、ユーザU1の腕に装着される腕時計型の装置として構成した例を示す。
通信装置300は、観察装置210、生体情報検知装置220、第1端末装置250、および第2端末装置260の各装置を通信ネットワーク400に接続する中継機能を有する。通信装置300は、上記各装置との間で、Wi-Fi(登録商標)、Bluetooth(登録商標)等の無線通信を実行する。
また、観察装置210および生体情報検知装置220は、ユーザ端末装置230と無線通信を実行し、ユーザ端末装置230が、観察装置210および生体情報検知装置220とサーバ100との通信を中継してもよい。ユーザ端末装置230は、観察装置210および生体情報検知装置220が送信するデータを受信して蓄積し、蓄積したデータをサーバ100に送信してもよい。
ユーザ価値情報164は、ユーザU1が有する経験、スキル、思考方法、ノウハウ等の内在的な情報のうち、他の人と共有することで価値を生じる情報である。例えば、ユーザU1の過去の失敗や成功の経験は、ユーザU1以外の人にとって問題の解決策や示唆を与えることができるので、価値を生じる。ユーザU1の内在的な情報を具現化することで生じる価値を、以下の説明ではユーザU1の真価という。ユーザ価値情報164は、ユーザU1の真価をユーザU1以外の人に伝達可能な形態にした情報である。例えば、ユーザU1の個人的な思い込みは、他の人と共有することが困難であるか、共有しても価値を生じないので、真価を有しないといえる。
図2を参照して、観察装置210、生体情報検知装置220、ユーザ端末装置230、第1端末装置250、および第1端末装置250の構成を説明する。
制御部221は、生体センサ222の検知結果、および、体動センサ223の検知結果を通信部224によりサーバ100に送信する。
制御部231は、CPU等のプロセッサを備え、図示しない記憶部に記憶したプログラムを実行することによって、ユーザ端末装置230の各部を制御する。
GPS235は、人工衛星から送信される無線信号を受信することによりユーザ端末装置230の位置を検出する。
気圧センサ236は、ユーザ端末装置230の環境の気圧を検知する。
制御部231は、9軸センサ234、GPS235、および気圧センサ236の検知結果を通信部237によりサーバ100に送信する。
サーバ100は、通信部110、CPU120、およびメモリ150等により構成されたコンピュータである。通信部110は、有線通信回線または無線通信により通信ネットワーク400に接続される。サーバ100は、通信部110により、観察装置210、生体情報検知装置220、ユーザ端末装置230、第1端末装置250、および第2端末装置260との間で通信を行う。
CPU120は、マイコン等の他のプロセッサで構成されてもよく、プロセッサとROM(Read Only Memory)、RAM(Random Access Memory)等が統合されたデバイスであってもよい。
ライフログ情報記憶部153は、ライフログ情報154を記憶する。第1ユーザ特性情報記憶部155は、第1ユーザ特性情報156を記憶し、ヒアリングデータ記憶部158はヒアリングデータ159を記憶する。また、第2ユーザ特性情報記憶部161は第2ユーザ特性情報162を記憶する。
抽出部122は、ライフログ情報154から情報を抽出し、抽出した情報をもとに第1ユーザ特性情報156を生成する。抽出部122は、第1ユーザ特性情報156に、ライフログ情報154の処理対象の期間を示す情報を付加する。記録部123は、抽出部122が生成した第1ユーザ特性情報記憶部155に記憶させる。
ヒアリングでは、第1端末装置250および第2端末装置260がユーザU1に向かって発話する。図4の例では、サーバ100は、第1端末装置250が質問T1を発音させ、ユーザU1の回答を求める。ユーザU1が質問T1に応答して発話T2を行うと、サーバ100は、第2端末装置260により発言T3を発音させる。
このように、ユーザU1の発話の内容に対応して質問を生成することによって、ユーザU1から多くの詳細な情報を得ることができる。
第1端末装置250および第2端末装置260が発音する内容は、後述する質問提示部135により生成される。
分類部134は、変換部133が変換したテキストデータを要素に分解し、各々の要素を分類する。例えば、分類部134は、テキストデータの形態素解析を実行し、形態素、または、形態素の組み合わせで構成される要素を抽出する。ここで、要素は、イディオム、句、節、文、文章等、文章を構成するものをいう。分類部134は、ユーザU1の真価との関係に基づき各要素を分類する。分類の詳細については図5を参照して後述する。
ユーザ価値情報生成部132は、分類部134により分類された要素を関連づけることにより、ユーザU1の真価に関する情報を含む第2ユーザ特性情報162を生成する。
図5の例では、分類部134によって、要素が時間的表現、抽象的表現、および具体的表現に分類される。時間的表現の例としては、「過去」や「今」あるいは「現在」などの語が挙げられるが、年月日など具体的な時期を示す語であってもよい。第2ユーザ特性情報162において時間的表現が分類される領域を、スロット162aとする。
抽象的表現は、ユーザU1が、ユーザU1の経験、スキル、思考方法、ノウハウ等を抽象的に表した語や節、句等である。例えば、「自信がある」、「苦しかった」、「幸せ」が挙げられる。また、経験から得られたノウハウに関連する例示としては「他人の立場にたってみる」、「相手の心理を読む」、「相手の目の動きを観察すると良い」、「ここでは継続性が求められる」、「このタイミングでは緊張を緩和しても良い」、「その行動を反復してもよいが、少しパターンを変えるべき」などの表現が、複数の具体的場面に適用可能な抽象的表現の例として挙げられる。
第2ユーザ特性情報162において抽象的表現が分類される領域を、スロット162bとする。
例えば、図4に示したヒアリングにおいて、発話T2に含まれる「人に教えること」は抽象的表現であり、スロット162aに分類される。発話T2がされた時点では、「人に教えること」に対応する具体的表現はない。ここで、質問提示部135は、「人に教えること」に結びつく具体的な情報をユーザU1から得るために質問T4を生成する。質問T4を発音したことで、発話T5として、「昔」、「学校の先生」、「生徒から」、「わかりやすい」、「言われた」等の具体的な情報が得られている。「昔」はスロット162aに分類され、「学校の先生」はスロット162cに分類される。また、「わかりやすい」という表現は単独では抽象的表現であるが、「生徒から」、「言われた」という表現と結びついて、具体的なエピソードを表す。このように、発話T5に含まれる「生徒から」、「わかりやすい」、「言われた」等の要素は、互いに結びついてスロット162cに分類される。
このように、ユーザU1に対するヒアリングを重ねることによって、抽象的表現と、具体的表現と、時間的表現とが結びついた第2ユーザ特性情報162を得ることができる。
この場合、質問提示部135は、分類部134が第2ユーザ特性情報162を成功体験か失敗体験か分類するための質問を生成してもよい。例えば、分類部134が、第2ユーザ特性情報162を分類部134が成功体験か失敗体験かを明確に判定できない場合に、判定を行うための情報を追加的に得るための質問を生成する。この場合、分類部134の判定を補助する情報をユーザU1に発話させるような質問が、第1端末装置250により発音される。
また、分類部134は、第2ユーザ特性情報162に含まれる要素および要素の組み合わせを分類するための学習を行った人工知能で構成されてもよい。すなわち、分類部134は、分類すべき要素と、要素の分類を示すラベルとを有する学習用データセットを学習したAIであってもよい。この場合、分類部134は、学習済みのAIがサーバ100に実装されたものであってもよいし、サーバ100に実装された状態で学習を継続するものであってもよい。
質問提示部135は、ユーザU1の発話に基づき質問を生成する人工知能で構成されてもよい。すなわち、質問提示部135は、ユーザU1の発話に含まれる語または要素と、生成する質問に関する条件とを含む学習用データセットを学習したAIであってもよい。質問提示部135は、学習済みのAIがサーバ100に実装されたものであってもよいし、サーバ100に実装された状態で学習を継続するものであってもよい。
さらに、テキスト評価部136は、具体性の高い単語を多く含みつつも、その単語に関連する抽象度の高い単語が適度の割合で含まれているストーリーを最も高く評価する。これは、自分自身の経験を具体的に語れると同時に、その具体的な経験を総括することで、一般化し、抽象的に表現できているからである、と評価する。このタイプのストーリーは、ユーザが経験した具体的な事象だけでなく、まだ経験していない他の事象についても、アナロジーを用いることで応用できる可能性を持っている。
情報利用ユーザU2は、ユーザ価値情報164を閲覧した後で、ユーザ価値情報164が疑問や課題の解決に役立ったか否か等に基づき、ユーザ価値情報164の価値を評価する。情報利用ユーザU2による評価の内容は、利用端末装置350によりサーバ100に送信される。利用ユーザ評価取得部145は、利用端末装置350が送信した評価を取得する。
図6および図7は、情報管理システム1の動作を示すフローチャートである。図6は、サーバ100がユーザ価値情報164を生成する動作を示す。
第2ユーザ特性情報162は、ユーザU1の一連のヒアリングについて生成される。従って、一連のヒアリングでステップS103-S109が繰り返し実行される場合、ステップS108では、その都度、第2ユーザ特性情報162が更新される。
要求受付部142は、情報利用ユーザU2の操作に基づき利用端末装置350が送信する閲覧要求を取得し(ステップS141)、抽出条件取得部143が抽出条件を生成する8ステップS142)。ユーザ価値情報出力部144は、抽出条件を取得して(ステップS143)、ユーザ価値情報DB163を検索することにより、ユーザ価値情報164を抽出する(ステップS144)。ユーザ価値情報出力部144は、抽出したユーザ価値情報164を利用端末装置350により表示するための情報を生成する(ステップS145)。
詳細情報表示172には、ユーザ価値情報164に関連するユーザU1の情報が表示される。例えば、詳細情報表示172には、ユーザU1を紹介する静止画像や動画像が配置される。また、ユーザU1のプロフィールや得意分野に関する情報を含んでもよい。詳細情報表示172に表示される情報は、例えば、ユーザDB152に登録された情報であるが、関連データ収集部140により収集された情報を含んでもよい。
続いて、対価処理部147は、ユーザ価値情報164の提供に係る対価の支払い処理を実行し(ステップS155)、情報利用ユーザU2から支払いを受ける。ステップS155で、ユーザU1に対する対価の支払いを行ってもよい。
この構成によれば、ユーザU1の真価を示すユーザ価値情報164を、情報利用ユーザU2等、ユーザU1以外の人と共有することができる。
この構成によれば、ユーザU1から得た情報から真価を表現するために必要な情報を抽出することで、ユーザU1以外の人にとって価値の高いユーザ価値情報164を生成できる。また、ユーザ価値情報164に不要な情報が含まれにくいので、ユーザ価値情報DB163のデータ容量の利用効率を高めることが期待できる。
この構成によれば、信頼性の高いユーザ価値情報164を生成し、共有できる。
例えば、ユーザ価値情報生成部132は、第2ユーザ特性情報162から自慢話に分類される情報を削除して、ユーザ価値情報164を生成する。また、ユーザ価値情報生成部132は、ユーザU1の思い込みに分類される情報を含まないユーザ価値情報164を生成してもよい。
この構成によれば、ユーザU1以外の人にとって価値の高いユーザ価値情報164を生成できうる。
この構成によれば、ユーザ価値情報164に対し、テキストに基づく評価を付与することにより、定量的かつ相対的な評価を付与できる。このため、ユーザ価値情報164を利用する情報利用ユーザU2が、ユーザ価値情報164の価値を容易に判断できる。
この構成によれば、ユーザU1以外の人にとって価値の高いユーザ価値情報164に対し、高い評価を付与できる。例えば、失敗体験の情報を含むユーザ価値情報164は、情報利用ユーザU2等に提供された場合の価値が高く、さらに成功体験の情報が加わることで、成功への参考となる可能性が高い。従って、ユーザ価値情報164の提供を受ける情報利用ユーザU2にとっての価値を基準として、ユーザ価値情報164に適切な評価を与えることができる。
この構成によれば、成功体験と失敗体験との両方に関する情報を含み、内容が充実しているユーザ価値情報164に高い評価を与える。これにより、ユーザ価値情報164の提供を受ける情報利用ユーザU2にとっての価値を基準として、ユーザ価値情報164に適切な評価を与えることができる。
この構成によれば、ユーザU1から効率よく情報を得ることができる。
この構成によれば、ユーザU1のプライバシー等に配慮し、ユーザU1の意図に沿ったユーザ価値情報164を生成できる。
この構成によれば、第1音声出力部252と第2音声出力部262とを用いて、グループ会話を模したヒアリングを行うことができる。これにより、ユーザU1に与える緊張感や警戒感を軽減し、ユーザU1をリラックスさせて、効率よく情報を得ることができる。
この構成によれば、情報利用ユーザU2が対価を支払ってユーザ価値情報164の提供を受けることができ、ユーザ価値情報164の提供と、ユーザU1および情報利用ユーザU2における対価の流通とを含むプラットフォームを実現できる。
この構成によれば、ユーザ価値情報164に対する多角的な評価を反映して、ユーザ価値情報164の提供に係る対価を設定できる。
上記実施形態では、入力情報処理部131は、ヒアリングにおいて集音部253が集音した音声データを取得し、ヒアリングデータ159として記録する構成とした。入力情報処理部131、ヒアリングの際にカメラ211により撮像された撮像画像データに基づき情報を取得してもよい。すなわち、カメラ211によってヒアリング中のユーザU1を撮像し、ユーザU1のジェスチャを、入力情報として取得してもよい。この構成において、第1端末装置250または第2端末装置260がカメラを搭載し、ヒアリング中のユーザU1を撮像してもよい。これらの場合において、ヒアリングデータ159は、音声データと、撮像画像データとを含むデータであってもよい。
また、ユーザ端末装置230がスピーカを備える構成において、ユーザ端末装置230に、第2端末装置260の機能を実行させてもよい。また、ユーザ端末装置230がマイクおよびスピーカを備える構成において、ユーザ端末装置230に、第1端末装置250の機能を実行させてもよい。
また、サーバ100とは異なる第2のサーバが、CPU120の機能の一部を実行してもよく、第2のサーバとサーバ100とが協働して図3に示す機能を実行してもよい。
Claims (14)
- ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、
前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、
前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、
前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、
前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、を備え、
前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行う分類部と、
前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力する質問提示部と、をさらに備え、
前記入力情報処理部は、前記質問提示部が前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、
前記ユーザ価値情報生成部は、前記質問提示部が前記質問情報を出力した後に前記入力情報処理部により取得された前記第2ユーザ特性情報を含む前記第2ユーザ特性情報と、前記第1ユーザ特性情報とに基づいて、前記ユーザ価値情報を生成する
情報処理装置。 - 前記ユーザ価値情報生成部により生成された前記ユーザ価値情報を、ユーザ価値データベースに登録する登録部と、
抽出条件の入力を受け付ける抽出条件取得部と、
前記抽出条件に基づいて、前記ユーザ価値データベースから前記ユーザ価値情報を抽出して出力するユーザ価値情報出力部と、を備える
請求項1に記載の情報処理装置。 - 前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記ユーザの経験または特徴の価値を表現するために必要な情報を抽出することにより、前記ユーザ価値情報を生成する
請求項1又は請求項2に記載の情報処理装置。 - 前記ユーザ価値情報生成部は、前記第1ユーザ特性情報と前記第2ユーザ特性情報とを比較し、
前記ユーザに関する情報の信頼性を判定し、設定された水準以上の信頼性を有すると判定した情報に基づき前記ユーザ価値情報を生成する
請求項1から請求項3のいずれか1項に記載の情報処理装置。 - 前記ユーザ価値情報生成部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報から、前記分類部により特定の属性に分類された情報を削除して、前記ユーザ価値情報を生成する
請求項1から請求項4のいずれか1項に記載の情報処理装置。 - 前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、
前記テキスト情報を評価するテキスト評価部と、備え、
前記分類部は、前記テキスト情報を、自然言語の形態素または形態素の組み合わせからなる要素に切り分けて分類し、
前記テキスト評価部は、前記分類部により分類された各々の前記要素、および、複数の前記要素の関係の少なくともいずれかに基づいて、前記テキスト情報の評価を決定し、決定した評価を前記ユーザ価値情報に付与する
請求項1から請求項5のいずれかに記載の情報処理装置。 - 前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、前記ユーザの成功体験に分類される情報と失敗体験に分類される情報とを抽出し、
前記テキスト評価部は、前記成功体験に分類される情報と前記失敗体験に分類される情報との両方を含む前記ユーザ価値情報に対し、前記成功体験に分類された情報と前記失敗体験に分類された情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する
請求項6に記載の情報処理装置。 - 前記分類部は、前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報から、抽象的表現に分類される情報と具体的表現に分類される情報とを抽出し、
前記テキスト評価部は、前記抽象的表現に分類される情報と前記具体的表現に分類される情報との両方を含む前記ユーザ価値情報に対し、前記抽象的表現に分類される情報と前記具体的表現に分類される情報とのいずれかが含まれない前記ユーザ価値情報に比べて高い評価を付与する
請求項6又は請求項7に記載の情報処理装置。 - 前記ユーザ価値情報生成部は、前記ユーザから入力された情報に、前記ユーザが公開を許可しない情報が含まれる場合に、前記ユーザが公開を許可しない情報を含まない前記ユーザ価値情報を生成する
請求項1から請求項8のいずれか1項に記載の情報処理装置。 - 第1音声出力部と、前記第1音声出力部とは別体として構成される第2音声出力部と、音声を集音する集音部と、を備え、
前記入力情報処理部は、前記第1音声出力部および前記第2音声出力部から出力される音声に応じて前記ユーザが発する音声を、前記集音部で集音することにより、前記ユーザの音声によって入力される情報を取得し、
前記第1音声出力部によって前記ユーザに対する質問の音声を出力させ、前記第2音声出力部から前記質問の音声への応答を促す音声を出力させる
請求項1から請求項9のいずれか1項に記載の情報処理装置。 - 情報利用ユーザが使用する利用端末装置から閲覧要求の入力を受け付ける要求受付部と、
前記情報利用ユーザによる閲覧要求の入力に対応して、前記ユーザに確認情報を出力する確認情報出力部と、
前記確認情報に応答して前記ユーザが入力する応答入力を受け付ける応答受付部と、
前記情報利用ユーザと前記ユーザとの間で対価を移動する対価取引処理を行う対価処理部と、を備え、
抽出条件取得部は、前記閲覧要求の入力に基づいて前記抽出条件を取得し、
前記ユーザ価値情報出力部は、前記応答受付部により受け付けた前記応答入力に基づいて、前記抽出条件に基づいて抽出した前記ユーザ価値情報を前記利用端末装置に出力し、
前記対価処理部は、前記ユーザ価値情報の出力に応じて、前記情報利用ユーザから対価を徴収し、前記ユーザに対価を支払う処理を行う
請求項2に記載の情報処理装置。 - 前記第1ユーザ特性情報および前記第2ユーザ特性情報に含まれる情報をテキスト情報に変換する変換部と、
前記テキスト情報を評価するテキスト評価部と、
前記利用端末装置から前記ユーザ価値情報に対する評価を取得する利用ユーザ評価取得部と、
前記利用ユーザ評価取得部により取得された評価と、前記テキスト評価部による評価との組み合わせに基づき前記ユーザ価値情報の統合的評価を決定する評価統合部と、を備え、
前記対価処理部は、前記ユーザ価値情報の統合的評価に基づいて前記ユーザ価値情報の対価を決定する
請求項11に記載の情報処理装置。 - ユーザが使用する端末装置と通信するコンピュータによって、
前記ユーザの生活において検出されるライフログ情報を取得し、
前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出し、
前記第1ユーザ特性情報を前記ユーザに対応づけて記録し、
前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得し、
前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行い、
前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力し、
前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、
前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成する
情報処理方法。 - コンピュータを、
ユーザの生活において検出されるライフログ情報を取得するライフログ情報取得部と、
前記ライフログ情報をもとに、前記ユーザの経験および特徴の少なくともいずれかに関連する第1ユーザ特性情報を抽出する抽出部と、
前記第1ユーザ特性情報を前記ユーザに対応づけて記録する記録部と、
前記ユーザから入力される情報に基づいて、前記ユーザの経験あるいは特徴に関連する第2ユーザ特性情報を取得する入力情報処理部と、
前記第1ユーザ特性情報と前記第2ユーザ特性情報とに基づいて、前記ユーザ以外の人に提供可能なユーザ価値を表現するユーザ価値情報を生成するユーザ価値情報生成部と、
前記第2ユーザ特性情報に含まれる情報を、時間的表現に分類される第1情報と、抽象的表現に分類される第2情報と、具体的表現に分類される第3情報とに分類し、前記第1情報と前記第2情報と前記第3情報との対応付けを行う分類部と、
前記第1情報および前記第3情報に対応付けられていない前記第2情報について、前記第1情報および前記第3情報のうち不足する情報を前記ユーザから得るための質問情報を生成し、前記質問情報を出力する質問提示部と、して機能させ、
前記入力情報処理部は、前記質問提示部が前記質問情報を出力した後に前記ユーザから入力される情報に基づいて、前記第2ユーザ特性情報を取得し、
前記ユーザ価値情報生成部は、前記質問提示部が前記質問情報を出力した後に前記入力情報処理部により取得された前記第2ユーザ特性情報を含む前記第2ユーザ特性情報と、前記第1ユーザ特性情報とに基づいて、前記ユーザ価値情報を生成する
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050031A JP7273563B2 (ja) | 2019-03-18 | 2019-03-18 | 情報処理装置、情報処理方法、および、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050031A JP7273563B2 (ja) | 2019-03-18 | 2019-03-18 | 情報処理装置、情報処理方法、および、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154427A JP2020154427A (ja) | 2020-09-24 |
JP7273563B2 true JP7273563B2 (ja) | 2023-05-15 |
Family
ID=72559010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019050031A Active JP7273563B2 (ja) | 2019-03-18 | 2019-03-18 | 情報処理装置、情報処理方法、および、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7273563B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7419313B2 (ja) * | 2021-09-15 | 2024-01-22 | Lineヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP7368578B1 (ja) | 2022-10-14 | 2023-10-24 | 医療法人社団M-Forest | 呼吸器循環器系計測データ管理システム及び呼吸器循環器系計測データ管理プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017219845A (ja) | 2016-06-05 | 2017-12-14 | 国立大学法人 千葉大学 | 発話促進装置及び発話促進プログラム |
JP2019020882A (ja) | 2017-07-13 | 2019-02-07 | 本田技研工業株式会社 | ライフログ活用システム、方法及びプログラム |
-
2019
- 2019-03-18 JP JP2019050031A patent/JP7273563B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017219845A (ja) | 2016-06-05 | 2017-12-14 | 国立大学法人 千葉大学 | 発話促進装置及び発話促進プログラム |
JP2019020882A (ja) | 2017-07-13 | 2019-02-07 | 本田技研工業株式会社 | ライフログ活用システム、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020154427A (ja) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220382990A1 (en) | System for minimizing repetition in intelligent virtual assistant conversations | |
Elliott | Using narrative in social research: Qualitative and quantitative approaches | |
US20130144595A1 (en) | Language translation based on speaker-related information | |
US11033216B2 (en) | Augmenting questionnaires | |
US11756567B2 (en) | Autocreation of conversational image representation | |
CN113035232B (zh) | 一种基于语音识别的心理状态预测系统、方法及装置 | |
CN110136721A (zh) | 一种评分生成方法、装置、存储介质及电子设备 | |
JP6649461B1 (ja) | プログラム、情報処理装置及び情報処理方法 | |
KR102100214B1 (ko) | 음성 인식 기반의 세일즈 대화 분석 방법 및 장치 | |
US9525841B2 (en) | Imaging device for associating image data with shooting condition information | |
KR20100126052A (ko) | 일정 관리 시스템 및 방법 | |
JP7273563B2 (ja) | 情報処理装置、情報処理方法、および、プログラム | |
US11361754B2 (en) | Method and system for speech effectiveness evaluation and enhancement | |
US20220309936A1 (en) | Video education content providing method and apparatus based on artificial intelligence natural language processing using characters | |
US12080288B2 (en) | Learning support device, learning support method, and recording medium | |
CN114971658B (zh) | 一种反诈宣传方法、系统、电子设备以及存储介质 | |
WO2022180860A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
CN112381989A (zh) | 排序方法、装置、系统和电子设备 | |
US20200357385A1 (en) | Information processing apparatus and information processing method | |
JP7152825B1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022180856A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022180862A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022180853A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022180858A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022180857A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7273563 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |