JP2019121360A - 機械学習に基づくコンテキスト認識会話型エージェントのためのシステム及び方法、コンテキスト認識ジャーナリングの方法、システム、プログラム、コンピュータ装置 - Google Patents
機械学習に基づくコンテキスト認識会話型エージェントのためのシステム及び方法、コンテキスト認識ジャーナリングの方法、システム、プログラム、コンピュータ装置 Download PDFInfo
- Publication number
- JP2019121360A JP2019121360A JP2018212499A JP2018212499A JP2019121360A JP 2019121360 A JP2019121360 A JP 2019121360A JP 2018212499 A JP2018212499 A JP 2018212499A JP 2018212499 A JP2018212499 A JP 2018212499A JP 2019121360 A JP2019121360 A JP 2019121360A
- Authority
- JP
- Japan
- Prior art keywords
- journaling
- data
- model
- user
- prompt
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000010801 machine learning Methods 0.000 title claims abstract description 19
- 230000000694 effects Effects 0.000 claims abstract description 159
- 230000003993 interaction Effects 0.000 claims description 37
- 230000002996 emotional effect Effects 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- 230000001960 triggered effect Effects 0.000 claims description 4
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 description 49
- 238000004891 communication Methods 0.000 description 43
- 230000004044 response Effects 0.000 description 29
- 230000006399 behavior Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 21
- 238000004458 analytical method Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 230000008451 emotion Effects 0.000 description 13
- 230000007613 environmental effect Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 229940079593 drug Drugs 0.000 description 7
- 239000003814 drug Substances 0.000 description 7
- 230000003542 behavioural effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000002354 daily effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000036541 health Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000011269 treatment regimen Methods 0.000 description 3
- 241001122315 Polites Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000035882 stress Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000020595 eating behavior Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】ジャーナリングモデル(journaling model)に基づいてコンテキスト認識会話型エージェントを提供する。【解決手段】実施例は、自己学習のためのコンテキスト認識会話型エージェントのためのシステム及び方法を対象とする。一実施例では、方法は、ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成することを含む。ジャーナリングモデルは、機械学習を使用して、活動データを使用してコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングする。本方法は、リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供し、プロンプトはジャーナリングモデルに基づいて生成される。ジャーナリングモデルは、追加の関与データに基づいて更新される。【選択図】図3
Description
本開示は、一般に機械学習に関し、より具体的には、機械学習に基づいたコンテキスト認識会話型エージェントを提供するためのシステム及び方法に関する。
ジャーナリング(journaling)及び自己の客観的な振り返り又は内省(self-reflection)は、経験、アイデア、行動、信念、目標についての考えを記録することを指す。ジャーナリングは、個人が過去の活動を探索して進行状況を追跡し、行動を変え、目標を実現するのに役立ち得る。自己追跡又はライフロギング(lifelogging)は、毎日の活動の変化を定量化するために、精神的又は肉体的なインプットの観点から、個人の日常生活の側面に関するデータ収集にテクノロジーを組み込む行為である。基本的な例では、パーソナル・ヘルス・トラッカー(personal health tracker)は、通常、ユーザが1日に歩く歩数をカウントする。従来の自己追跡ツールには、ユーザ関与が低いという欠点があり、このことは収集された情報の量及び/又は品質を低下させる。
関連技術の研究によれば、ユーザは自分の行動について定期的にジャーナル(ユーザの気持ちや、ユーザの活動又は行動などに対する記録)を取るためのモチベーションと規律を維持することが難しいことが示されている。従来の自己追跡チャットベースのエージェントは、通常、単一の通信チャネルを使用して反復的な通知を配信する。チャットベースのエージェントの関連技術では、雇用者が従業員の活動の監視を追跡するのに役立つように、作業者は妨げられるか又は予めプログラムされたプロンプトを受信する。関連技術の個人間通信システムでは、ユーザは、異なる通信チャネル(例えば、テキスト又はオーディオ)を介して互いに対話することができ、通信チャネルの変更によって対話を変更することは想定されていない。
LIAO, Q. V., et al.,What Can You Do? Studying Social-Agent Orientation and Agent Proactive Interactions with an Agent for Employees, DIS 2016, June 4-8, 2016, Brisbane, QLD, Australia,12 pgs.
SCHMANDT, C., Everywhere Messaging, Springer-Verlang Berlin Heidelberg, 1999, HUC '99, LNCS 1707, pp. 22-27.
NOBEL, C., Reflecting on Work Improves Job Performance, Harvard Business School, May 5,2014, 7 pgs., [online] [retrieved 1-9-18] URL:https://hbswk.hbs.edu/item/reflecting-on-work-improves-job-performance
AMABILE, T., et al., The Power of Small Wins, Harvard Business Review, May 2011, 89(5), 21 pgs., [online] [retrieved 1-9-18] URL: <https://hbr.org/2011/05/the-power-of-small-wins>
本開示の技術は、ジャーナリングモデル(journaling model)に基づいてコンテキスト認識会話型エージェントを提供するためのシステム及び方法を提供することを目的とする。
本開示の技術の第1の態様では、方法は、ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成することを含む。ジャーナリングモデルは、機械学習を使用して、活動データを使用してコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングする。本方法は、リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを集めるためのプロンプトを適応的に提供し、プロンプトはジャーナリングモデルに基づいて生成される。ジャーナリングモデルは、追加の関与データに基づいて更新される。
第2の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、前記リアルタイムの活動データを前記コンテキストパターンと比較することに基づいて好ましい対話モードを使用して前記ジャーナリングモデルから選択されたトピックについて前記ユーザからのフィードバックを開始する自律的な対話を含む。
第3の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、チャットボット、オーディオエージェント(audio agent)、及び仮想アバターのうちの少なくとも1つを使用する自律的な対話を含む。
第4の態様では、第1の態様の方法において、前記追加の関与データは、前記1又は複数のタスクに関連付けられた目標に対する自己による内省を含む。
第5の態様では、第1の態様の方法において、前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングすることは、コンテンツトピックと情緒指標とを識別するために前記関与データを分析すること、前記1又は複数のタスクの各々を少なくとも1つのコンテンツトピックに関連付けること、各トピックの情緒指標を追跡すること、及び
前記追加の関与データからの前記情緒指標の変化に少なくとも基づいて各トピックのパフォーマンスをマッピングすること、を含む。
第6の態様では、第1の態様の方法において、前記プロンプトを生成することは、前記ジャーナリングモデルからトピックを選択すること、及び好ましい対話モードに基づいて自然言語プロセッサを使用して質問を決定することを含む。
第7の態様では、第1の態様の方法において、前記追加の関与データに基づく少なくとも1つの追加のプロンプトをさらに含む。
第8の態様では、第1の態様の方法において、関与データは、前記1又は複数のタスクに関連付けられたフィードバックを含み、前記プロンプトは、前記ユーザからの前記フィードバックを開始するための自律的な対話であり、前記プロンプトを適応的に提供することは、前記ユーザの位置から前記リアルタイムの活動データを収集すること、前記コンテキストパターンを前記リアルタイムの活動データと比較することによって好ましい対話モードを決定すること、及び前記好ましい対話モードで前記ユーザとの前記自律的な対話を開始すること、を含む。
第9の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、前記コンテキストパターンを考慮して前記リアルタイムの活動データを評価することに基づいてトリガされる。
第10の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、前記コンテキストパターンを考慮して前記リアルタイムの活動データに基づいて出力デバイスを選択することを含む。
第11の態様では、第1の態様の方法において、活動データは、位置データ、生理学的データ、コンピュータ使用、電話使用、及びセンサデータのうちの1又は複数を含む。
第12の態様では、第1の態様の方法において、前記1又は複数のタスクは、前記ユーザの仕事、フィットネス、及び個人的な目標のうちの少なくとも1つに関連付けられる。
第13の態様では、第1の態様の方法において、前記ジャーナリングモデルは、トレーニングデータ、ユーザの嗜好、及び臨床ガイドラインのうちの1又は複数にさらに関連付けられた機械学習を使用して生成される。
第14の態様のシステムは、メモリ、及び前記メモリに結合されたプロセッサであって、ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成し、前記ジャーナリングモデルは機械学習を使用して、前記活動データに基づいてコンテキストパターンを識別し、少なくとも前記関与データに基づいて前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングし、リアルタイムの活動データを考慮して前記コンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供し、前記プロンプトは前記ジャーナリングモデルに基づいて生成され、前記追加の関与データを受信することに基づいて前記ジャーナリングモデルを更新する、プロセッサを含む。
第15の態様では、第14の態様のシステムにおいて、前記プロンプトを適応的に提供することは、前記ユーザからのフィードバックを開始するための自律的な対話を含み、前記フィードバックは前記ジャーナリングモデルから選択されたトピックに関し、前記自律的な対話は、前記リアルタイムの活動データを前記コンテキストパターンと比較することに基づいて好ましい対話モードを使用し、前記好ましい対話モードはチャットボット、オーディオエージェント、及び仮想アバターのうちの少なくとも1つを含む。
第16の態様では、第14の態様のシステムにおいて、前記プロンプトは、前記ジャーナリングモデルに基づいて生成され、前記リアルタイムの活動データに基づいて前記ジャーナリングモデルからトピックを選択すること、情緒指標を識別するためにトピックに関連する以前に収集された関与データを分析すること、及び前記リアルタイムの活動データ、前記情緒指標、及び好ましい対話モードに基づいてプロンプトを構築すること、をさらに含む。
第17の態様では、第14の態様のシステムにおいて、前記プロンプトを適応的に提供するために、前記プロセッサは、さらに、前記ユーザの位置からの前記リアルタイムの感知データを前記コンテキストパターンと比較して、前記プロンプトの出力様式を決定し、前記出力様式はテキスト、オーディオ、又はビジュアルである。
本開示の技術の第1の態様では、方法は、ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成することを含む。ジャーナリングモデルは、機械学習を使用して、活動データを使用してコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングする。本方法は、リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを集めるためのプロンプトを適応的に提供し、プロンプトはジャーナリングモデルに基づいて生成される。ジャーナリングモデルは、追加の関与データに基づいて更新される。
第2の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、前記リアルタイムの活動データを前記コンテキストパターンと比較することに基づいて好ましい対話モードを使用して前記ジャーナリングモデルから選択されたトピックについて前記ユーザからのフィードバックを開始する自律的な対話を含む。
第3の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、チャットボット、オーディオエージェント(audio agent)、及び仮想アバターのうちの少なくとも1つを使用する自律的な対話を含む。
第4の態様では、第1の態様の方法において、前記追加の関与データは、前記1又は複数のタスクに関連付けられた目標に対する自己による内省を含む。
第5の態様では、第1の態様の方法において、前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングすることは、コンテンツトピックと情緒指標とを識別するために前記関与データを分析すること、前記1又は複数のタスクの各々を少なくとも1つのコンテンツトピックに関連付けること、各トピックの情緒指標を追跡すること、及び
前記追加の関与データからの前記情緒指標の変化に少なくとも基づいて各トピックのパフォーマンスをマッピングすること、を含む。
第6の態様では、第1の態様の方法において、前記プロンプトを生成することは、前記ジャーナリングモデルからトピックを選択すること、及び好ましい対話モードに基づいて自然言語プロセッサを使用して質問を決定することを含む。
第7の態様では、第1の態様の方法において、前記追加の関与データに基づく少なくとも1つの追加のプロンプトをさらに含む。
第8の態様では、第1の態様の方法において、関与データは、前記1又は複数のタスクに関連付けられたフィードバックを含み、前記プロンプトは、前記ユーザからの前記フィードバックを開始するための自律的な対話であり、前記プロンプトを適応的に提供することは、前記ユーザの位置から前記リアルタイムの活動データを収集すること、前記コンテキストパターンを前記リアルタイムの活動データと比較することによって好ましい対話モードを決定すること、及び前記好ましい対話モードで前記ユーザとの前記自律的な対話を開始すること、を含む。
第9の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、前記コンテキストパターンを考慮して前記リアルタイムの活動データを評価することに基づいてトリガされる。
第10の態様では、第1の態様の方法において、前記プロンプトを適応的に提供することは、前記コンテキストパターンを考慮して前記リアルタイムの活動データに基づいて出力デバイスを選択することを含む。
第11の態様では、第1の態様の方法において、活動データは、位置データ、生理学的データ、コンピュータ使用、電話使用、及びセンサデータのうちの1又は複数を含む。
第12の態様では、第1の態様の方法において、前記1又は複数のタスクは、前記ユーザの仕事、フィットネス、及び個人的な目標のうちの少なくとも1つに関連付けられる。
第13の態様では、第1の態様の方法において、前記ジャーナリングモデルは、トレーニングデータ、ユーザの嗜好、及び臨床ガイドラインのうちの1又は複数にさらに関連付けられた機械学習を使用して生成される。
第14の態様のシステムは、メモリ、及び前記メモリに結合されたプロセッサであって、ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成し、前記ジャーナリングモデルは機械学習を使用して、前記活動データに基づいてコンテキストパターンを識別し、少なくとも前記関与データに基づいて前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングし、リアルタイムの活動データを考慮して前記コンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供し、前記プロンプトは前記ジャーナリングモデルに基づいて生成され、前記追加の関与データを受信することに基づいて前記ジャーナリングモデルを更新する、プロセッサを含む。
第15の態様では、第14の態様のシステムにおいて、前記プロンプトを適応的に提供することは、前記ユーザからのフィードバックを開始するための自律的な対話を含み、前記フィードバックは前記ジャーナリングモデルから選択されたトピックに関し、前記自律的な対話は、前記リアルタイムの活動データを前記コンテキストパターンと比較することに基づいて好ましい対話モードを使用し、前記好ましい対話モードはチャットボット、オーディオエージェント、及び仮想アバターのうちの少なくとも1つを含む。
第16の態様では、第14の態様のシステムにおいて、前記プロンプトは、前記ジャーナリングモデルに基づいて生成され、前記リアルタイムの活動データに基づいて前記ジャーナリングモデルからトピックを選択すること、情緒指標を識別するためにトピックに関連する以前に収集された関与データを分析すること、及び前記リアルタイムの活動データ、前記情緒指標、及び好ましい対話モードに基づいてプロンプトを構築すること、をさらに含む。
第17の態様では、第14の態様のシステムにおいて、前記プロンプトを適応的に提供するために、前記プロセッサは、さらに、前記ユーザの位置からの前記リアルタイムの感知データを前記コンテキストパターンと比較して、前記プロンプトの出力様式を決定し、前記出力様式はテキスト、オーディオ、又はビジュアルである。
第18の態様のプログラムは、プロセッサによって実行されると、プロセッサによって実行されるときの方法を適用して、ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成する。ジャーナリングモデルは、機械学習を使用して、活動データに基づいてコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングする。プロセッサは、ジャーナリングモデルに基づいてプロンプトを生成し、リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを収集するプロンプトを適応的に提供し、追加の関与データに基づいてジャーナリングモデルを更新する。
第19の態様では、第18の態様のプログラムにおいて、前記プロンプトは、予め設定されたスケジュールに基づいてトリガされる。
第20の態様では、第18の態様のプログラムにおいて、前記プロンプトは、一連の質問を含み、前記一連の質問は、前記ジャーナリングモデルからのトピックに基づいて生成され、各質問は、前記ジャーナリングモデルからの情緒指標に基づいて生成され、各質問は、出力デバイスのタイプに基づいて適合される。
第19の態様では、第18の態様のプログラムにおいて、前記プロンプトは、予め設定されたスケジュールに基づいてトリガされる。
第20の態様では、第18の態様のプログラムにおいて、前記プロンプトは、一連の質問を含み、前記一連の質問は、前記ジャーナリングモデルからのトピックに基づいて生成され、各質問は、前記ジャーナリングモデルからの情緒指標に基づいて生成され、各質問は、出力デバイスのタイプに基づいて適合される。
本開示の例示的な態様は、ユーザの1又は複数のタスクに関連する活動データ及び関与データに基づいてジャーナリングモデルを生成するように構成されたコンピュータ装置に関する。ジャーナリングモデルは、機械学習を使用して、活動データに基づいてコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングする。プロセッサは、ジャーナリングモデルに基づいてプロンプトを生成し、リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを収集するプロンプトを適応的に提供し、追加の関与データに基づいてジャーナリングモデルを更新する。
実施例はまた、ジャーナリングモデルを生成する手段と、ジャーナリングモデルを記憶するためのメモリと、活動データに基づいてコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングする機械学習手段と、ジャーナリングモデルに基づいてプロンプトを生成する手段と、リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供する手段と、追加の関与データに基づいてジャーナリングモデルを更新する手段とを備えたシステムを含む。
本発明の概念の他の特徴及び利点は、以下の詳細な説明及び添付の図面を検討した後、当業者にはより容易に明らかになるであろう。
実施例の構造及び動作は、以下の詳細な説明及び添付の図面を参照することにより理解され、同様の参照番号は同様の部分を指す。
以下の詳細な説明は、本出願の図及び実施例の更なる詳細を提供する。図の間で重複する要素の参照番号及び説明は、明確にするために省略されている。説明全体を通して使用されている用語は、例として提供されており、限定を意図するものではない。例えば、「自動」という用語の使用は、完全自動又は半自動の実施を含み得、本出願の実施を行う当業者の所望の実施に応じて、ユーザ又はオペレータが実施の特定の態様を制御することを含む。
本明細書では、ユーザの自己知識を改善して目標を達成するためにユーザが長期間にわたってジャーナリングに定期的に関与するのに役立つ自身による客観的な振り返りを行う内省用の会話型ソフトウェアエージェント、クラウドサービス、及びシステムを説明する。会話型エージェントは、機械学習を使用して、ユーザの活動及びジャーナル(ユーザの気持ちや、ユーザの活動又は行動などに対する記録)の入力をモデリングする。パーソナライズされたジャーナリングモデルは、ユーザのパフォーマンスを追跡し、ユーザの環境、活動、及び目標の変化に適応する自律的な対話を生成する。ジャーナリングモデルは、デバイス、センサ、過去のジャーナル入力などから集めた個人情報を使って生成される。会話型エージェントは、ユーザのジャーナル入力の提供を開始又は促すことができる。プロンプトは、ユーザが内省(reflection;ユーザによる、自身の活動や行動に対する客観的な振り返り)又はジャーナルの入力を記録するように開始するか又はユーザを動機付ける自律的な対話の一部である。例えば、プロンプトは、感知したユーザのデジタル活動、スケジュールタスク、追跡した目標、以前の内省の結果などに基づいて生成された質問であり得る。ジャーナリングモデルは、きっかけとなる要素とジャーナルの活動又は対象との間の関連性を強化するか又は弱めるコンテキスト(context;人の行動やできごとの背景にある、人の意識や考え方、取り巻く状況や環境などの事情又は背後関係)の要素を決定するために使用される。
会話型ソフトウェアエージェントは、思考、活動、経験、アイデア、及び/又は私的な自己の振り返りや内省の記録における個々のユーザ関与を改善するように構成される。自律的な対話から、プロンプト(例えば、例えば、活動記録の入力、自分自身による内省、目標の達成状態、フィードバックなど)に対するユーザの応答と好ましいコミュニケーションのパターンを識別するコンテキスト要素とを含む関与データを受信する。ジャーナル入力は、ジャーナリングモデルに入力されるユーザが提供する情報を参照することができる。例えば、ジャーナル入力は、実行されたタスクに関するレポートや、トピック又は次のイベントに関する思考の表現を含み得る。関与データを分析して、トピック、タスクの進捗状況、目標達成及びその他のパフォーマンス測定値でジャーナリングモデルが更新される。いくつかの実施例では、関与データの分析を使用して感情、言語パターン及び嗜好をジャーナリングモデルの一部として追跡することもできる。
ジャーナリングと自己による内省は、過去の経験から学び、複雑な問題を解釈し、生産性を向上させるために人々にとって重要な行為である。職場や個人の環境において、ジャーナリングは、経験を学習に変換するために有用なメカニズムであり、成長とスキルの育成に役立ち、目標達成能力における作業者の自信を構築する。例えば、関連技術の研究では、内省とフィードバックがグラフィックデザインの品質を向上させたり、電子メールベースの作業シミュレーションタスクのパフォーマンスを向上させたりすることが示されている。関連技術の研究ではまた、職場環境にいる従業員が、時間的圧力、環境上の制約、及び効果のないツールによってジャーナルへの動機を特に失うことが示されている。活動の変化を効果的に追跡し、経験についての思考を定期的に記録することで、ユーザは行動と成果の背後にある原因メカニズムの理解を構築することができる。しかしながら、伝統的な反復的チャットボット(chat−bot)は単調であり、生産性を妨げてユーザの麻痺を引き起こす。したがって、ユーザの変化するパターンに適応し、個人の自己知識を改善するための関与機会を最大限にするインテリジェントな自己追跡ツールが必要である。
例示的な態様は、ジャーナリング及び内省における個々のユーザ関与の頻度、品質、生産性、及びユーザの経験を改善することを対象とする。実施例の態様は、会話型エージェントとの対話のためのタイミング、チャネル選択、及び言語使用を改善するために、感知したコンテキストを用いて、作業者が生成した作業ログ及び計画の内容を分析することを対象とする。このシステムは、ユーザの仕事や行動に由来する内容が、ジャーナリングにおけるより効果的な関与に向けたシステムの動作に影響を与えることを可能にする。
例示的な態様によれば、センサ及びデバイスの監視による自己追跡は、個人の行動、習慣、思考などに関する個人の自己知識を改善することができる個人情報を生成するために使用される。コンテキスト認識会話型エージェントはユーザの嗜好を学習して、複数のコミュニケーションのためのチャネル(例えば、テキスト、音声、ビジュアル)を介してコミュニケーションを取り、ユーザの環境、活動、習慣、及び目標に基づいて、コミュニケーションを適応させる。例えば、会話型エージェントは、ユーザの仕事とジャーナリングパターン(journaling pattern)を学習することにより、会議のため移動しているときにテキストメッセージを用いてスマートフォンを介してユーザに関与するか否か、静かな午後にオーディオメッセージを用いてパーソナルアシスタントデバイス(personal assistant device)でユーザに関与するか否か、又はビジュアルアバター(visual avatar)を用いて拡張現実ヘッドセットでユーザに関与するか否か判断することができる。
コンテキスト認識会話型エージェントは、ユーザが、例えば体系的な計画(例えば、食事、治療、投薬など)を管理し、行動習慣を調整し、及び/又は日々のタスクの進捗状況を追跡することを支援するように構成される。例えば、コンテキスト認識会話型エージェントは、服薬の効果について又はレジメンの間に食べた食品について、服薬又は治療レジメンに患者を関与させて、健康目標の管理を支援すると共に普段の行動に影響を与える有用な情報及び洞察を提供することができる。
一実施例によれば、会話型エージェントは、ジャーナリングモデル及びコミュニケーションのためのチャネルのタイプに基づいてカスタムプロンプトを生成して、ユーザ関与と効果的にコミュニケーションをする。例えば、プロンプトには、ユーザが自身を振り返って内省を行ったり又はジャーナル入力を行うように動機付けるリマインダー又は一連の質問を含めることができる。会話型エージェントは、異なるコミュニケーションのためのチャネルに対して異なるプロンプトを生成することができる。例えば、ユーザの電話に配信されるテキストベースのプロンプトは短く簡潔にカスタマイズすることができ、一方でデスクトップコンピュータのメッセージングインターフェースに配信されるテキストベースのプロンプトは細かく、挑発的にカスタマイズすることができる。
一実施例では、プロンプトの言語は、ユーザのパフォーマンス及び/又はコミュニケーションのパターンに基づいて変更することができる。ジャーナリングモデルは、録音、メッセージ、及び監視した活動の内容を分析して、特定の用語、文構造、語調など、ユーザのコミュニケーションの特性に対応する異なるプロンプトを動的に生成する。例えば、プロンプトは、無関心であると認識されるユーザの内省の結果に対するフォローアップとして「なぜ質問」を含めるように変更することができる。
一実施例では、会話型エージェントは、好ましいコミュニケーションのパターンを学習し、プロンプトの提示中に制御可能なデバイス及び/又はデバイスの設定を構成する。すなわち、会話型エージェントは、ユーザがジャーナリング及び内省に関与している間に、例えばモバイルデバイス又はIoT(Internet−of−Things)デバイスの設定を構成して環境設定を改善することができる。実施例では、会話型エージェントは、ユーザの以前の応答、行動、活動、及び/又は環境上の制約を減らすための指示に基づいて、ユーザ環境内のデバイスの音量、照明、画面解像度などを調整する。例えば、会話型エージェントはユーザのスマートフォンを選択して、生成されたプロンプトを特定のフォントサイズ又はオーディオ音量で提示し、スマートフォン上の表示画面の明るさ設定を調整し、歌又は楽譜を再生し、また同時に、ユーザがプロンプトに応答している間に、ワークステーションのコンピュータにモニタを薄暗くし、スクリーンセーバを作動し、通知を遅らせることなどを命令することができる。
ソフトウェアエージェント又はサービスは、ユーザの以前の応答、行動、活動、及び/又は嗜好に適用される機械学習に基づくカスタマイズされたプロンプトを使用することによって会話型である、個々のユーザとの自律的な対話を提供する。会話型エージェントは、職場での組織、生産性、及び自己学習を支援する機能を提供するが、ユーザのニーズは異なる可能性があり、仕事の中断を避けること及び効率が重要である。実施例の態様は、オフィス環境、組立ライン、建設現場、小売りスタンドなどの職場設定に関して説明する。
しかしながら、実施例の範囲は特定の環境に限定されず、本発明の範囲から逸脱することなく、他の環境に置き換えることができる。例えば、限定ではないが、自己実現が個人の役に立つことができる他の環境は、オフィスや職場以外のレクリエーション環境(例えば、ジムなど)、及び治療環境(例えば、病院、理学療法センターなど)を含むことができるが、これらに限定されない。
図1は、一実施例によるシステム100の概要を例示する。システム100は、ジャーナル入力を提供するようにユーザに促すコンテキスト認識会話型エージェントを提供するために、1又は複数のクライアントデバイス105a−105nと通信するように構成されたジャーナリングエンジン110を含む。ジャーナリングエンジン110は、1又は複数の処理デバイス上で(例えば、1又は複数のクライアントデバイス105a〜105d、クラウドサービス105nとして、ネットワーク102を介して遠隔的に、又は当業者に知られている他の構成で)動作するソフトウェアの形式(例えば、非一時的コンピュータ可読媒体上の命令)で実施されてもよい。
「コンピュータ」、「コンピュータプラットフォーム」、処理デバイス、及びクライアントデバイスという用語は、任意のデータ処理デバイスを含むことを意図し、例えば、記録デバイス105a、スマートフォン105b、タブレットコンピュータ、携帯型表示デバイス105c、ウェアラブル又は生理学的に結合されたデバイス105d、デスクトップコンピュータ105e、ラップトップコンピュータ、メインフレームコンピュータ、サーバ、ハンドヘルドデバイス、ポータブルスピーカ、デジタル信号プロセッサ(DSP)、埋め込みプロセッサ、又はデータを処理することができる任意の他のデバイスが含まれる。コンピュータ/コンピュータプラットフォームは、1又は複数の非一時的コンピュータ可読媒体及び1又は複数のネットワークに通信可能に接続された1又は複数のマイクロプロセッサを含むように構成される。
ジャーナリングエンジン110は、データストア103(例えば、RAM、ROM、及び/又は内部ストレージ、磁気、光学、固体ストレージ、及び/又は有機ストレージ)などのメモリを直接又は間接に含み、これらはいずれも情報を通信するための通信機構(又はバス)上に結合することができる。
実施例において、ジャーナリングエンジン110は、クラウドサービス105nによってホストされ、データを送受信するために、ネットワーク102を介してクライアントデバイス105a〜105nに通信可能に接続することができる。「通信可能に接続された」という用語は、データが通信され得る有線又は無線の任意のタイプの接続を含むことを意図している。「通信可能に接続された」という用語は、単一のコンピュータ内の、又はネットワーク102を介したデバイス及び/又は別個のコンピュータ間のデバイス及び/又はプログラム間の接続を含むが、これらに限定されない。「ネットワーク」という用語は、限定されるものではないが、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、TCP/IP(インターネット)などのパケット交換ネットワークを含むことを意図しており、限定されるものではないが、WiFi(登録商標)、Bluetooth(登録商標)(登録商標)、Zigbee(登録商標)、低電力無線エリアネットワーク上のインターネットプロトコルバージョン6(6LowPAN)、電力線通信(PLC)、イーサネット(登録商標)(例えば、10メガバイト(Mb)、100Mb及び/又は1ギガバイト(Gb)イーサネット(登録商標))又は他の通信プロトコルなどの様々な伝達手段を使用することができる。
ユーザ又はユーザの環境に関連するデータは、異なるタイプのクライアントデバイス105a〜105nに由来してもよい。クライアントデバイス105a〜105nは、例えば、記録デバイス105a、モバイルコンピューティングデバイス105b(例えば、スマートフォン、ラップトップ、タブレットなど)、プレゼンテーションシステム105c(例えば、拡張現実ヘッドセット又は仮想現実ヘッドセット、プロジェクタ、ライブウォール(live wall)など)センサシステム105d(例えば、フィットネストラッカー、生理学的センサ、生体センサ、位置センサ、GPSユニット、Bluetooth(登録商標)(登録商標)ビーコン、カメラなどを含むウェアラブル技術)、コンピューティングデバイス105e(例えば、デスクトップ、メインフレーム、ネットワーク機器など)、位置基盤システム105f(例えば、制御システム、建物環境制御デバイス、セキュリティシステム、企業インフラストラクチャなど)、並びにクラウドサービス105n(例えば、遠隔利用可能なプロプライエタリ又は公共のコンピューティングリソース)を含むことができる。
クライアントデバイス105a〜105nは、例えば、様々なチャネルを介してユーザと自律的に対話し、感知データを収集及び/又は格納し、位置を追跡し、外部デバイスとの通信を検出するなどの機能を備えたクライアントサービスを含むことができる。例えば、クライアントデバイス105a〜105nは、ハンドヘルド記録デバイス105aを有するオーディオベースのチャネル、モバイルコンピューティングデバイス105bを有するテキストベースのチャネル、プレゼンテーションシステム105cを有するビジュアルベースのチャネルを提供するためのクライアントサービスを含むことができる。クライアントサービスは、例えば、建物センサ105fを用いて位置情報を検出し、カメラによってユーザを観察し、ウェアラブルセンサシステム105dによって心拍数情報を監視し、企業のメインフレームからの作業割り当て及びデジタル作業を追跡するなど、ユーザの活動データを収集することもできる。実施例では、ジャーナリングエンジン110は、複数のクライアントデバイス105a−105nから情報を受信する。
クライアントデバイス105a〜105nは、1又は複数の他のクライアントデバイス105a〜105nから情報を収集し、収集した情報をジャーナリングエンジン110に提供することもできる。例えば、ハンドヘルド記録デバイス105aなどのクライアントデバイス105a〜105nは、WiFi(登録商標)、Bluetooth(登録商標)(登録商標)、Zigbee(登録商標)、低電力無線エリアネットワーク上のインターネットプロトコルバージョン6(6LowPAN)、電力線通信(PLC)、イーサネット(登録商標)(例えば、10メガバイト(Mb)、100Mb及び/又は1ギガバイト(Gb)イーサネット(登録商標))又は他の通信プロトコルを使用して、他のクライアントデバイスに通信可能に接続することができる。
一実施例では、ユーザは、1又は複数のクライアントデバイス105a〜105nを含むオフィス環境に配置されてもよく、ユーザはクライアントサービスによって監視される作業活動を実行する。ユーザが机上でコンピュータなどのデバイスを操作する、又は倉庫内のアイテムを動かすなどの作業活動を実行している間、クライアントサービスは、ジャーナリングエンジン110に通信しているユーザに関連する様々なタイプの情報を収集する。例えば、位置センサ105fは、オフィス又は倉庫内のユーザの動きを受信し、スケジューリングアプリケーションはユーザの会議スケジュールを提供し、ウェアラブルデバイス105dはユーザの心拍数を取得し、情報はジャーナリングエンジン110に送信される。
ジャーナリングエンジン110は、ユーザが私的な位置に単独でいるか、チャットクライアント又はウェブサイトにログオンしているか、拡張現実ヘッドセットを着用しているか、スマートフォンでテキストメッセージを送信しているかなどを示すリアルタイム活動を検出することができる。実施例によれば、ジャーナリングエンジン110は、ユーザが情報を使用してジャーナル入力を提供可能であることを示すトリガ又はイベントを検出することができる。以下でより詳細に説明するように、実施例では、ジャーナリングエンジン110は、ユーザのパターンを学習することに基づくジャーナリングモデルを生成する。実施例では、ジャーナリングモデルは、トレーニングデータ、ルール、感知した活動、ジャーナル入力、フィードバックなどを使用して生成される。
ジャーナリングエンジン110は、クライアントデバイス105a−105eに関与して、トピックに関連する自身の振り返り、内省及び/又はジャーナリング活動に関与するように、ユーザを適応的に動機付けることができる。ジャーナリングモデルは、関与の時間、チャネル、トピックを決定し、活動データを使用して時間、チャネル、トピックに基づいてカスタムプロンプトを生成することができる。
一例では、ユーザは複数のプロジェクトに取り組んでいる可能性があり、ジャーナリングエンジン110は、収集された予定表情報を使用して次の配信可能期限に関するジャーナリングトピックを識別することができる。
ジャーナリングエンジン110は、ユーザの行動を時間の経過とともにモデル化することによって、適応的にコンテキスト認識関与プロンプトを提供する。ジャーナリングエンジン110は、以前に関与したときのユーザの過去の動作をモデル化し、コミュニケーションに対する嗜好をコンテキストのパターンと共に記録する。次いで、ジャーナリングエンジン110は、ユーザの位置におけるリアルタイムの活動データを監視して、モデルからのコンテキストのパターンと比較されるトリガ又はイベントを検出することができる。トリガ及びモデルに基づいて、ジャーナリングエンジン110は、タイミング、トピック、及び好ましいコミュニケーションに対する嗜好(例えば、スマートフォンを介するテキストメッセージ、スピーカを介する音声メッセージなど)を決定する。
別の実施形態では、ジャーナリングエンジン110は、確率分布による予測分析を使用して、検出されたコンテキストに基づいて、ユーザがジャーナリング活動に関与する可能性が高いと予測することができる。関与データの行動分析は、異なるスケール(例えば、生産性、感情、情緒、トピック、健康など)に基づいてジャーナリングの内容をスコア化することができる。
実施例において、行動分析は、確率分布による予測分析を使用して、検出されたコンテキストに基づいて、ユーザがジャーナリング活動に関与する可能性が高いと予測することができる。例えば、ジャーナリングエンジン110は、ユーザが昼休みの直前にハンドヘルド記録デバイスを介してジャーナリング活動に関与することを決定又は予測することができる。ユーザは、特定の状況における一貫したジャーナルを好む、意図する、又は望むかもしれないが、ユーザは、目標を達成するための体系的な計画を覚えたり、環境上の制約に気付いたりすることが難しいかもしれない。ジャーナリングエンジン110は、特に英国のアクセントによる丁寧な質問を用いた好ましいオーディオチャネルに適応する次の配信可能物について内省するプロンプトを生成することができる。
ユーザが通常昼休みを取る時間枠に近づくと、ジャーナリングエンジン110は、リアルタイムの活動データを監視して、ユーザが昼休みを取る準備ができていることを示すトリガ又はイベントを検出することができる。例えば、コンピュータセッションのロック又は電話の終了を検出して、ユーザに次の期限について振り返るように促すオーディオメッセージを開始することができる。
例えば、コンテキスト認識会話型エージェントは、異なる時刻に異なる質問でジャーナリングに関与するようにユーザを促すことができる。午前10時頃の朝のプロンプトとして、「昨日何を達成しましたか」、「今日は何をするつもりですか?」と問いかけることで成果を記録し、未完了のタスクの想起を引き起こす可能性がある。真昼の午後1:30には、「今日の早いうちに何を達成しましたか?」、「今日の残りは何をするつもりですか?」を含むことができ、ユーザが積極的に時間を管理し、短期目標を特定し、パフォーマンスを測定し、自信を構築することを支援する。その日の終わりに向けて、プロンプトには「今日は何を達成しましたか?」、「明日は何をするつもりですか?」を含むことができ、ユーザがパフォーマンスを自己認識し、未来の活動をオーガナイズすることを支援する。エージェントは、関連する質問に対する応答を比較してフォローアッププロンプトを生成することができる。例えば、「今日は何をするつもりですか?」に対する応答と、「今日は何を達成しましたか?」及び「明日は何をするつもりですか?」に対する応答とを比較して、「<タスク>を達成しましたか?」又は「<タスク>を完了するためにリマインダーをスケジュールしますか?」のプロンプトを生成することができる。
ジャーナリングエンジン110はまた、リアルタイムの活動監視を使用して、プロンプトを適応又は遅延させることができる。例えば、リアルタイムの位置センサは、ユーザの机に訪問者がいることを検出し、モデル化されたユーザの嗜好に基づいて、プロンプトを、特に英国のアクセントによる丁寧な質問を用いたオーディオメッセージではなく、スマートフォンに配信される短いテキストメッセージに適合させることができる。
したがって、ジャーナリングエンジン110は、クライアントデバイス105a−105nと対話して、活動データを収集し、ユーザがジャーナリングに関与するように効果的に促すコンテキスト認識会話型エージェントを提供することができる。ジャーナリングエンジン110は、タイミング、チャネル、及びフォーマットについてユーザの嗜好に適合するコンテキスト認識プロンプトを提供することによって、ユーザのジャーナリングへの長期関与を改善し、それによって自己実現による目標達成を支援することができる。
図2は、実施例によるジャーナリングエンジン210を含む例示的なシステム200を示す。ジャーナリングエンジン210は、1又は複数のI/Oインターフェース212、データコレクタ215、コンテキスト検出器220、自己学習システム230、関与コントローラ240、フィードバックモジュール270、及びダッシュボードモジュール275を含む。ジャーナリングエンジン210は、データ(例えば、情報、モデル、フィードバック、ユーザプロファイルなど)を格納するための1又は複数のデータストア203に結合される。
例示的な実施形態では、I/Oインターフェース212は、活動データ204(例えば、感知データ206、ピンポイントデータ207、及び/又は環境データ208)を受信するために直接又はネットワーク(例えば、図1のネットワーク102)を介してクライアントデバイス(例えば、図1のクライアントデバイス105a〜105n)に関連する異なるタイプの通信チャネル205と通信可能に接続された1又は複数の通信インターフェースを含む。データコレクタ215は、異なるタイプの通信チャネル205、クライアントデバイス、又はクライアントサービスからの活動データ204を要求、監視、及び/又は受信するためにI/Oインターフェース212を使用することができる。さらに、各クライアントデバイスは、複数のタイプのデータ、例えば、感知データ206、ピンポイントデータ207、及び/又は環境データ208を提供することができる。
I/Oインターフェース212は、メッセージングアプリケーション、クラウドサービス、人工知能プラットフォーム、建物自動制御システムなどと接続するためのアプリケーションプログラミングインターフェース(API)を含むことができる。一実施例によれば、ジャーナリングエンジン210は、アドオン又はスキルとして、1又は複数の人工知能プラットフォームに統合又は結合され得る。一実施例では、ジャーナリングエンジン210は、デジタル・パーソナル・アシスタント・プラットフォーム(digital personal assistant platform)にアクセスして、情報にアクセスし、既存のインターフェース及び/又はハードウェアを利用することができる。例えば、遠隔制御のマイクロホン、娯楽システムのスピーカ、警報システムの運動センサなどを使用して、活動データ204を収集し、プロンプトペイロード260を提供し、関与データ265を受信することができる。
データコレクタ215は、ユーザの活動データ204のソースを発見し、接続を確立し、又はデータソースへのアクセスを要求し、更新された活動データ204、並びに自己学習システム230から活動データ204についてのサービスオンデマンド又はアドホック要求を定期的に収集するようにスケジュールすることができる。例えば、データコレクタ215は、デジタル追跡ツール(例えば、クッキー、トレース、フィンガープリンティング、プログラムされたフック、ブラウザプラグインなど)を使用して、ユーザがアクセスしているデバイスを識別し、デバイスから活動データ204にアクセスする権限を要求し、ユーザがデバイスにアクセスしたときに通知を受け取る。データコレクタ215はまた、活動データ204が古くなったり期限切れになったりしないように、時間間隔の後にデバイスから活動データ204を再収集するようにスケジュールすることもできる。
一実施例では、活動データ204は、ユーザの身体活動に関する情報などの感知データ206を含むことができる。例えば、ユーザは、ユーザの動き(例えば、Bluetooth(登録商標)ビーコン)、作業動作、摂食行動などを収集する様々なセンサを備えたモバイルデバイス(例えば、クライアントデバイス及び通信チャネル205)を携行してもよい。ピンポイントデータ207は、ユーザのデジタル活動に関する格納された又は追跡された情報を含むことができる。一実施形態では、監視ソフトウェアは、ユーザのデジタルインタラクション、デバイス使用などに関する情報を収集することができる。
例えば、監視ソフトウェアは、ユーザのコンピュータ使用量、マシンインタラクション(machine interaction)、コミュニケーションパターン、スケジューリング情報などを収集することができる。環境データ208(例えば、周囲データ)は、第1のパターン及び第2のパターンに関連付けられた位置又は組織に関する情報を含むことができる。一実施例では、サービスは、位置の物理的レイアウト、位置における人物間の関係、気象情報、安全性情報、位置ベースのポリシーなどに関する環境データを提供することができる。例えば、オフィスでは、環境データは、オフィスレイアウト、作業者の組織構造、施設及び指定された休憩エリア、並びに雇用者の休憩ポリシーに関する情報を含むことができる。
ジャーナリングエンジン210は、監視データ、アプリケーションデータなどの活動データ204をデータコレクタ215を介して受信し、自己学習システム230を介して情報を分析して、ジャーナリングモデルを構築する。自己学習システム230は、パターンモジュール233と、関与分析器235と、パフォーマンスマッパ(performance mapper)237と、モデルモジュール239とを含む。
パターンモジュール233は、特定の時刻や検出可能な行動など、ユーザがジャーナル入力を提供することを好むことを示す過去の行動からコンテキストのパターンを識別する。例えば、コンピュータセッションをロックするユーザ活動は、ユーザが休憩に移行し、客観的に自分自身を振り返る内省のために関与する準備ができていることを示すトリガ又はイベントとして分類され得る。パターンモジュール233は、コンテキスト検出器220がリアルタイムの活動データ204を監視するための命令又はキューを生成することができる。活動データ204の分類は、パターンを識別し、プロンプトのタイミングを改善するのに役立ち、ユーザがジャーナリング及び内省に積極的に関与し続けるのに役立つように使用することができる。パターンモジュール233は、ユーザの行動からコンテキストのパターンを追跡し、コンテキスト検出器220を用いてリアルタイムの活動データを評価して、ユーザの記録された嗜好と整合する活動を認識する。
一実施例では、自己学習システム230は、ユーザのパターン又は行動のパターンを学習するためのトレーニングプロセスを含む。パターンモジュール233は、特定のユーザに関連付けられた受信した活動データ204(例えば、感知データ206、ピンポイントデータ207、環境データ208など)を分析して、作業活動(例えば、第1のパターン又は状態)及び好ましいジャーナリングパターン(例えば、第2のパターン又は状態)を識別する。パターンモジュール233は、作業状態、好ましいジャーナリング状態、又はジャーナリングモデルに入力される行動のパターンを示す、分析された活動データ204からのコンテキスト要素を決定する。ユーザのコンテキストのパターンはコンテキスト要素を追跡して、例えば、ジャーナリングのタイミング、ブラックアウト時間、時刻別優先チャネル、Do−Not−Disturb状態、検知許可などの状態を識別することができる。パターンモジュール233によって決定されたコンテキスト要素は、活動の状態間の変化を検出し、好ましいジャーナリング状態を検証し、及び/又はスケジュールされた関与を無効にするために使用することができる。一実施例では、パターンモジュール233は、ユーザの活動を様々な活動状態に関連付けて分類することができる。例えば、パターンモジュール233は、異なるイベントをラベル付けし分類し、アクション、メッセージ、及び/又はコマンドを関連付ける。
また、パターンモジュール233はユーザの行動を分析して、ジャーナリング及び/又は内省のための好ましい状態を示す異なる状態又はアクションのセットへの移行を示すトリガ又はイベントを識別する。トリガ又はイベントは、活動又は状態の持続時間、生理学的尺度(例えば、心拍数、血圧、血糖値など)、イベントのシーケンス、又は他の観察可能な行動閾値を含み得る。
モデルモジュール239は、コンテキスト要素及びユーザのジャーナリング活動(例えば、関与データ265)を追跡するためのカスタマイズされたジャーナリングモデルを生成する。一実施例では、自己学習システム230は、環境からの活動データ204を分析して、フィードバックモジュール270からの入力を介してカスタマイズされたベースラインパターン(baseline pattern)及びモジュールを生成する。モデルモジュール239は、関与分析器235及びパフォーマンスマッパ237と協働して、ユーザが経時的にジャーナリングエンジン210と対話するときに、ジャーナリングモデルを反復的に改善する。
関与データ265は、活動の記録や振り返りの状態の間に受け取ったデータであり、プロンプト(例えば、活動記録の入力、自分自身による内省、目標の達成状態、フィードバックなど)に対するユーザーの応答、および好ましいコミュニケーションのパターンを特定するコンテキストの要素を含むことができる。プロンプトに対するユーザの応答やコミュニケーションのパターンの好ましさを識別するコンテキストを含む関与分析器235の出力は、パフォーマンスマッパ237と共に使用されて、新しいトピック、タスクの進捗状況、目標の完了、及び他の検出可能なパフォーマンス測定値でジャーナリングモデルを更新する。
関与分析器235は、活動の記録状態又は内省による振り返りの状態の間にユーザから受信した関与データ265を分析する。例えば、関与分析器235は、テキストベースの応答又はユーザから取り込んだオーディオによる振り返り(内省)の録音から使用されている用語を分析することができる。いくつかの実施例では、関与データを分析することで、ジャーナリングモデルの一部として、感情言語パターン及び嗜好を追跡することもできる。例えば、関与分析器235は、関与データ265の記録されたオーディオに対して、スピーチ感情分析を行うことで、情動のマーカー(例えば、感情、気分及びストレス)として、声の挙動及び非言語の側面を追跡することができる。関与分析器235は、関与データ265からコンテンツトピック(content topic)を識別するために内容分析を実行し、パフォーマンスマッパ237は、各トピックの活動及び/又は思考を追跡する。
パターンモジュール233を有するパフォーマンスマッパ237は、関与データ265から活動、期間、位置などを識別することができ、モデルモジュール239は、ラベル及び/又はカテゴリを割り当てて、ジャーナリングモデル内のトピックに関連付けられた内容因子を更新し維持することができる。パフォーマンスマッパ237は、関与について、記録された活動及び/又は思考をリアルタイムの活動データ204と共に編成して、モデルモジュール239を介してジャーナリングモデルを更新することができる。関与データ265は、自己学習システム230によって処理され、ユーザの行動の変化を含むジャーナリングモデルを維持し、コンテキストの要素でコミュニケーションに対する嗜好を記録し、ジャーナリング及び内省のための更なる機会を識別する。
自己学習システム230は、ジャーナリングモデルを構築及び維持し、関与コントローラ240と相互作用して適応型プロンプトを提供し、関与データ265を受信し、ジャーナリングモデルを更新する。自己学習システム230は、関与コントローラ240を含むか、又は関与コントローラ240に動作可能に結合され得る。本明細書で使用される場合、自己学習システム230への言及は、関与コントローラ240の一部として記載される機能及び態様を含み、逆もまた同様である。ジャーナリングモデルは、ユーザの行動の内容及び分析を使用して、ジャーナリングにおけるより効果的な関与のためにプロンプトペイロード260の配信に影響を及ぼす。
関与コントローラ240は、スケジューラ243と、プロンプト生成器245と、言語モジュール247と、チャネルモジュール(channel module)249とを含む。自己学習システム230による関与分析に基づいて、関与コントローラ240は、感知されたコンテキストを使用してタイミング、チャネル選択、及び言語を改善し、会話型エージェントとの対話を通じてユーザに関与するプロンプトを生成する。関与コントローラ240は、選択された通信チャネル205を介して、プロンプトペイロード260を適応的に提供し、自律的な対話を開始し、関与データ265を受信する。
プロンプト生成器245は、静的又は動的質問を構築して、ユーザが自分自身で客観的に振り返り、内省に関与するように動機付けることができる。プロンプト生成器245は、ユーザの応答性を追跡するために、ジャーナリングモデルと共に使用する静的な予め合成されたプロンプト又はプロンプトテンプレートのライブラリを維持することができる。例えば、プロンプト生成器245は、ジャーナリングモデルによって追跡された関与データ265の有効性に基づいて定期的にスケジュールされるジャーナリング活動のために、「今朝は何を達成しましたか」「今日の残りの計画は何ですか?」という静的なプロンプトを使用することができる。プロンプトテンプレートは、例えば、「最後の<時間>に作業していたことは何ですか?」、「ファイル<ファイル名>は何のプロジェクトですか?このプロジェクトでどのような進歩をしましたか?」など、活動データ204を統合することができる。
プロンプト生成器245は、追跡したユーザの情緒に基づいて自然言語プロセッサを用いて活動データ204を統合した動的質問を構築することができ、例えば、「スタッフ会議を意図して欠席しましたか?」、「<タスク>の援助要請に興味がありますか?」などが挙げられる。いくつかの実施形態では、1日のジャーナル応答の内容分析を使用して、プロンプトの順序付き一覧を生成することができる。例えば、プロンプトの順序は、情緒分析などの側面に基づくことができ、ユーザ関与を改善するプロンプトの新規性を確保することもできる。チャネルの選択は、プロンプトの一覧を並べ替え、言語又は個々のプロンプトを適応させるためにも使用できる。
チャネルモジュール249は、プロンプトペイロード260を配信するためのコミュニケーション手段を選択することができる。過去の対話の分析に基づいて、チャネルモジュール249は、コンテキスト因子を考慮したユーザ応答の品質(例えば、長さ)に対するチャネルの効果を学習する。選択したコミュニケーションチャネルに基づいて生成したプロンプトは変更することができ、又はプロンプトの異なるバージョンを生成することができる。チャネルモジュール249は、コンテキスト検出器220からのリアルタイムの活動データに基づいて選択することができる。
例えば、ユーザが現在オンラインであり、チャットクライアント/サイトにログオンしている場合、チャネルモジュール249は、チャットを介してユーザと対話することを選択することができる。コンテキスト検出器220が、ユーザが私的空間内に単独であると判断した場合、チャネルモジュール249は、スピーカによる音声を使用してユーザに関与するように決定することができる。別の例では、コンテキスト検出器220は、ユーザが自分の仕事場に長期間存在しており、ジャーナリングモデルに基づいてその場を離れることが有益であり得ると判断することができる。チャネルモジュール249は、検出されたコンテキストと一致又は類似するコンテキスト因子を有するユーザの過去の行動に基づいて、コミュニケーションの手段を選択することができる。この例では、チャネルモジュール249は、プロンプトペイロード260を私的モバイルデバイス上の音声で配信することを選択することができる。
いくつかの実施形態では、コンテキスト検出器220は、ジャーナリングエンジン210に含まれ、クライアントデバイス105a〜105nによってホストされてもよく、好ましいジャーナリング又は内省の状態のユーザ位置においてリアルタイムの活動データ204をジャーナリングエンジン210に通知してもよい。一実施例では、コンテキスト検出器220は、ユーザ活動を追跡して、特定の活動レベルにおける変化を識別する。例えば、コンテキスト検出器220は、心拍数センサからのデータを監視し、ユーザの心拍数データを追跡し、閾値、パーセンテージ、偏差などを満たすユーザの心拍数変化に基づいて、ユーザの活動レベルの変化を識別することができる。
言語モジュール247は、関与分析器235と対話して、関与コントローラ240によって生成されたプロンプトを改善する。言語モジュール247は、関与データ265からの用語使用、語調嗜好、及びフォーマットを追跡するためのユーザ定義の語彙を維持することができる。言語モジュール247は、ユーザ関与を改善するために、ユーザが好む言語スタイルに適応するカスタマイズされたプロンプトをプロンプト生成器245に提供することができる。一実施例では、関与分析器235は、特定のプロンプトペイロード260に応答する関与データ265からの情緒又は語調を検出することができ、言語モジュール247は、続いて生成されるプロンプトを変更して、好ましい語調又は情緒で返信することができる。例えば、ユーザは、特定のトピックに対して客観的に自身を振り返ることで、ジャーナリングエンジン210と打ち解けた通信をする嗜好を示すかもしれない。
スケジューラ243は、ジャーナリングモデルからトピックを内部で追跡し、関与の優先順位付け又は順序付けを行うことができる。スケジューラ243は、モデルモジュール239からの特定のトピック、タスク、又は目標についてタイマ(例えば、カウントアップ、カウントダウン、間隔カウンタなど)を設定することができる。スケジューラ243は、コンテキスト検出器220を使用して、ユーザの利用可能な活動データ204を監視することができる。コンテキスト検出器220は、リアルタイムの活動データ204を使用して、パターンモジュール233によって示されるパターン及び/又はトリガと一致するか又は満たすユーザの活動の変化を検出する。コンテキスト検出器220は、活動データ204を検出する状態モニタとして機能して、選択された通信チャネルを変更し、スケジュールされた関与を遅延させ、及び/又はユーザを妨げないようにプロンプトを無効にすることができる。例えば、手首に装着されたセンサは、想定されるストレスレベルに基づいて閾値を超えるユーザの心拍数を検出し、関与コントローラ240をトリガしてジャーナリングを開始することができる。
一実施例によれば、スケジューラ243は、モデルモジュール239に内部フィードバックを提供して、ユーザを妨げることなくジャーナリングモデルを更新することができる。一貫性のない又は散発的なジャーナリング習慣を有するユーザの場合、スケジューラ243はジャーナルトピックのバックログを調停又は管理することができる。ユーザが一定期間ジャーナリングから離脱すると、スケジューラ243は、ユーザを妨げることなく、ジャーナリングモデルからトピックをタイムアウトさせることができる。したがって、ユーザがジャーナリングエンジン210に再び関与するとき、関与コントローラ240は、デジタルハウスキーピング及びクリーンアップに負担を掛けられることなく、現在の目標及びタスクを達成するように効果的にユーザを動機付けることができる。
フィードバックモジュール270は、自己学習システム230の機能を洗練させ改善するために、自己学習システム230に評価情報を戻すように構成される。自己学習システム230が、コンテキスト要素を考慮したトリガイベントが推移と矛盾していることを学ぶと、フィードバックモジュール270は、ユーザからフィードバック情報を収集してコンテキスト検出220を改善する。
ダッシュボードモジュール275は、図4A−図4Bを参照して説明するように、ジャーナリングエンジン210を構成又は調整するためのレポート、ビジュアルフィードバック、及び手動構成へのアクセスをユーザに提供することができる。いくつかの例では、ユーザは、ダッシュボードモジュール275を使用してフィードバック又はエラー訂正を行うために、コンテキストのパターンのコンテキスト要素を修正又は変更してもよい。
図3は、実施例による例示的なジャーナリングプロセスの流れを示す。方法300は、ハードウェア(回路、専用論理など)、ソフトウェア(汎用コンピュータシステム又は専用マシン上で動作するものなど)、又はその両方の組み合わせを含み得る処理論理によって実行される。方法300は、図1のジャーナリングエンジン110によって実行され得る。方法300は、ジャーナリングエンジンによって実行されるものとして以下で説明されるが、方法300は、他の処理論理によって実行されてもよい。
310において、処理デバイスは、ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データを受信する。活動データは、感知したユーザの活動、例えば、位置データ、生理学的データ、コンピュータ使用、電話使用、又はセンサデータを含むことができる。関与データは、1又は複数のタスクに関連付けられた目標についてのジャーナル入力又は内省のためのユーザからの以前の応答を含むことができる。例えば、1又は複数のタスクは、ユーザの関連する仕事、フィットネス、及び個人的な目標とすることができる。
320において、処理デバイスは、機械学習を使用してジャーナリングモデルを生成し、活動データに基づいてコンテキストパターンを識別し、1又は複数のタスクに関連付けられたパフォーマンスをマッピングする。例えば、機械学習では、トレーニングデータ、ユーザの嗜好、臨床ガイドラインを使用してコンテキストパターンを識別することができる。実施例によれば、1又は複数のタスクに関連付けられたパフォーマンスをマッピングすることは、コンテンツトピック及び情緒指標を識別するために関与データを分析すること、1又は複数のタスクの各々を少なくとも1つのコンテンツトピックに関連付けること、各トピックについて情緒指標を追跡すること、及び追加の関与データからの情緒指標の変化に基づいて各トピックのパフォーマンスをマッピングすることを含むことができる。
330において、処理デバイスは、ジャーナリングモデルに基づいて追加の関与データを収集するためのプロンプトを生成する。例えば、ジャーナリングモデルからトピックを選択することができ、プロンプトは、自然言語プロセッサによって生成されたトピックに関する質問となり得る。いくつかの実施形態では、質問の形式又はタイプは、好ましい対話モードに基づいて修正することができる。例えば、異なる対話モードを選択して、チャットボットを介したテキスト、スピーカを介したオーディオ、或いはディスプレイ又はヘッドセットを介した仮想アバターを提供することができる。
340において、処理デバイスは、リアルタイムの活動データを収集し、350において、リアルタイムの活動データを考慮してコンテキストパターンに基づいてプロンプトを適応的に提供する。対話モードは、コンテキストパターン内の好ましい対話状態に一致するか又は満たすリアルタイムの活動データ中のコンテキスト要素を検出することに基づいて選択することができる。
360において、ユーザは、客観的に自己を振り返る内省又はジャーナリング情報でプロンプトに応答することができる。370において、処理デバイスは、追加の関与データに基づいてジャーナリングモデルを更新する。
いくつかの実施例では、方法300は、異なる、より少ない、又はより多くのブロックで実施されてもよい。実施例では、ブロック310−320は、ブロック330−370とは独立して実施されてもよい。例えば、ブロック310−320は、モデルを生成するために、デバイスによるトレーニングフェーズの一部として実施することができ、ブロック330−370は、モデルを適用するために、別のデバイスによる関与フェーズの一部として繰り返し実施することができる。いくつかの実施例では、プロセスは、ブロック310〜320のうちの1つに周期的に戻って、図2及び図6を参照してより詳細に説明するようにフィードバックを組み込んでモデルを更新することができる。方法300は、コンピュータ実行可能命令として実施されてもよく、この命令は、媒体に格納され、1又は複数のコンピューティングデバイスの1又は複数のプロセッサにロードされ、コンピュータ実施方法として実行されてもよい。
図4A〜図4Bは、実施例による会話型エージェントのための例示的なインターフェースを示す。図4Aは、実施例による会話型エージェントのための例示的なインターフェースを示す。スマートフォンで動作するモバイルアプリケーションなどのジャーナリングアプリケーションは、ユーザがジャーナリングエンジンを管理するために使用することができる。例えば、410及び430において、「何を達成しましたか?」についてユーザがジャーナルするためのプロンプトの後に、「明日は何をするつもりですか?」という未来の目標についての別のプロンプトを続けることができる。420及び440において、例示的なジャーナリングプロンプトは、「今日の活動があなたの目標に貢献していると感じていますか?なぜそう感じますか?又はなぜそう感じませんか?」を含み得る。動的プロンプトには、「取り組んだ<タスク>について考えましょう。このタスクについてあなたには何が大切でしたか?」を含み得る。
他の例示的なインターフェースは、グラフィカル要素(例えば、アバター)、オーディオチャネルなどを含み得る。ユーザは、分析された行動パターン及び嗜好に基づいて複数のインターフェースを介してプロンプトを受信し、対話することができる。例えば、テキストベースのインターフェースからのプロンプトによって、ユーザは、プロンプトを読むことを受動的に数分間遅らせる、プロンプトを再読する、送信前に応答を編集又は確認することが可能になる。音声ベースのインターフェースからのプロンプトは、サウンドキューを使用して、ユーザに対して入力タイミングを調整したり、入力のきっかけをあたえて、テキストベースのインターフェースとは異なる応答を促すことができる。
ユーザは、私的なコンテキストではオーディオインターフェースを介して対話し、公的又は職場のコンテキストではビジュアルインターフェースを使用することを好むかもしれない。会話型エージェントは、電話機で、又は内蔵のスピーカとマイクロホンを備えたハンドヘルドのクラウド接続デバイスを通じて、ユーザに電話をかけることができる。会話型エージェントは、複数のインターフェース及び異なるタイプ(例えば、テキスト、音声、ビジュアルなど)のインターフェースを介した自律的な対話のサポートを組み合わせる。
会話型エージェントは、単一の一意のユーザと対話するように構成されている。いくつかの実施形態では、会話型エージェントは、プロンプトを提供する前に、アクティブ及びパッシブ認証プロセス(例えば、パスワード、トークン、顔認識など)を含むことができる。例えば、パッシブ認証は、検出されたコンテキスト要素(例えば、銀行ウェブサイトへのログイン、スマートフォンのロック解除、従業員のバッジ又はクレジットカードからのRFID信号、顔認識、音声認識など)を使用して、対話エージェントとの直接認証を要求するのではなく、監視された活動を通してユーザを認証することができる。
図4Bは、実施例による会話型エージェントのための例示的なインターフェースを示す。4Bのダッシュボードインターフェースは、ある期間中のパターン、行動、及びパフォーマンスに関する情報をユーザに提供することができる。例えば、460において、ダッシュボードは、内省の活動を表す指標を提供することができる。470において、ユーザは、応答のログを含む履歴データにアクセスして、自分の関与データを見ることができる。
例えば、ダッシュボードでは印を使用して毎日を表現し、継続的な参加を奨励することができる。進捗のための電球の使用は、個人的なジャーナリングと自己学習の意図された使用を強調する役割を果たす。緑色の円の上の点灯する電球は、ユーザがジャーナル入力を完了した日を表す。追加の薄緑色の輪は、ユーザが内省のための質問に応答したことを示す。ジャーナル入力と内省がない日は、灰色の円の上の灰色の電球で表される。特定の日のジャーナル入力と内省の内容を確認するには、電球をクリックし、尋ねられた質問の詳細とユーザの応答の詳細を有するポップアップをクリックすることによって表示することができる。
図5は、実施例によるジャーナリングモデルの関与流れ図を示す。501において、エージェントは、ユーザのジャーナリングモデルからの活動パターンに基づいて、ジャーナリング関与をスケジュールする。例えば、エージェントは、ユーザによって選択された予め設定されたタイミング(朝のログ、真昼のログ、又は1日の終わりのログ)に基づいて、ユーザを促すようにスケジュールしてもよい。エージェントは、感知した存在(例えば、ユーザが自分の机に戻ったときなど)に基づいてユーザを促してもよい。
505において、エージェントは、ジャーナリングモデルを使用して好ましいチャネルを決定する。いくつかの実施例では、エージェントは、タイミング及び感知データに基づいて、ユーザに対話のチャネルを提示することができる。例えば、ユーザが現在オンラインでチャットクライアント/サイトにログオンしている場合、システムはチャットを介してユーザに関与することを選択することができる。
510において、プロセスは、チャネル及び言語の嗜好を考慮して、1又は複数のトピックのプロンプトを生成する。エージェントは、プロンプトのカテゴリを管理し、ユーザ情報でカスタマイズされたプロンプトテンプレートを開発することができる。タスクに関連するタイプのプロンプトには、タスクや活動について尋ねる質問、タスクや活動の側面が学習にどのように役立つのかといった質問が含まれ得る。例えば、「今日計画している活動をもっと楽しくするにはどのようにしたらよいですか?」などが挙げられる。計画及び組織タイプのプロンプトには、パフォーマンスに影響する因子の理解に焦点を当てた質問や、1日及び1週間の範囲内で仕事をオーガナイズしたことから学習したポイントが含まれ得る。例えば、「今日仕事をどのようにオーガナイズしたかについてどの程度満足していますか?何か学んだことはありますか?」などが挙げられる。短期及び長期の活動及び目標タイプのプロンプトには、活動と目標の関係の実現、目標達成の障壁、又は長期目標を持つ価値の探索に焦点を当てた質問が含まれ得る。例えば、「今日の活動が目標に貢献したと感じますか?」などが挙げられる。仕事の動機付け及び満足度タイプのプロンプトには、仕事での肯定的な感情及び否定的な感情又は満足した瞬間の源泉の探究を引き起こす質問が含まれ得る。例えば、「今週仕事で最も満足した瞬間はどのようなときでしたか?それはなぜですか?」などが挙げられる。
プロンプトの各タイプは、プロンプトを強化するために、ユーザのジャーナル入力、活動データ、イベントなどから抽出された動的要素を含むようにパーソナライズすることができる。例えば、「<タスク>は未来に価値のあるものを学ぶのに役立ちましたか?何を学びましたか?」などが含まれる。関連プロンプトに対する以前に記録された応答の分析に基づいてパーソナライズされたプロンプトを生成して、ユーザの行動の様々な側面に対してより強化したり、再び注意を払わせたりすることもできる。一実施例では、服薬又は治療レジメンにおける患者に服薬の効果又は食べた食品について入力を促して、健康管理を支援すると共に有用な情報及び洞察を提供する。
1日のジャーナルの内容分析に基づいて、ジャーナルプロンプトの順序付き一覧が生成される。ジャーナリングとして自己の活動を記録するためのプロンプトと内省のための自分を振り返るためのプロンプトは、静的な(予め合成された)プロンプト及び/又は動的に合成されたプロンプトで生成することができる。プロンプトの順序付けは、情緒分析などの側面に基づくことができ、プロンプトの新規性を確保することもできる。チャネルの選択は、プロンプトの一覧を並べ替えたり、言語又は個々のプロンプトを適応させるために使用できる。
515において、エージェントはスケジュールに基づいてリアルタイムの活動データを収集する。520において、エージェントは、リアルタイムの活動データが好ましいチャネルに当てはまるか否かを判断する。リアルタイムの活動データがプロンプトを生成するために使用されるコンテキスト要素を満たさないと判断したことに応答して、エージェントはリアルタイムの活動データで識別されたコンテキスト要素を使用してプロンプトを修正又は再生成するプロセスを繰り返すことができる。様々なチャネルによって様々なタイプの関与が得られる。例えば、チャットシステムで配信されるテキストプロンプトは長く、いくつかの質問が1つのプロンプトに組み合わされている場合がある。音声チャネルは、以前の応答又はユーザの行動の分析に基づく、より短い応答、又はより短い要素に分割された質問を含み得る。例えば、以前の応答の分析によって、応答の頻度、数、及び/又は品質を改善するために、長い合成されたプロンプトを短い要素に分割する必要があると判断できる。
525において、エージェントは、選択された通信チャネルを介してプロンプトを配信する。530において、エージェントは、プロンプトに応じてユーザ関与データを受信し、535でジャーナリングモデルを更新する。535の後、エージェントは501に戻ることができる。エージェントは、フォローアップ要素を提示すべきか否かをユーザの応答に基づいて決定することもできる。フォローアップの関与やプロンプトは、例えば、パフォーマンスの向上に積極的に関与している仕事の振り返り、つまり内省を促進する場合などに有用であり得る。エージェントは、ジャーナルと内省の内容分析に基づいてユーザに関与することができ、ユーザの選択に基づいて、更なる関与のためにプロンプトをさらに適合させる。
図6は、実施例による応答に基づいてジャーナリングモデルを更新するための流れ図を示す。605において、プロセスは、会話型エージェントを介してユーザの内省(例えば、ジャーナル入力)を受信する。ユーザの内省は、610で始まる客観的感知因子を分析すること、及び640で始まる内省による振り返りの内容を分析することによってジャーナリングモデルを改善することができる。例えば、応答の有無や長さは、関与と遵守の大まかな測定基準として使用できる。プロセスは、高いユーザ関与をもたらす条件(タイミング、活動、位置、及びチャネル)の組み合わせによって、時間の経過とともに反復的に学習する。
プロセスは、610において、関与データから受信した通信チャネルを識別し、615において、リアルタイムの活動データから1又は複数のコンテキスト要素を識別する。620において、プロセスは、コンテキスト要素に基づいて、660でジャーナリングモデルに組み込まれるコンテキスト要素のための好ましい通信チャネルを作成する。
640において、プロセスは、内省で論じられたトピックを識別する。645において、プロセスは、情緒指標について内容を解析する。ジャーナル入力で表現された情緒を識別することにより、ジャーナリングモデルは未来の対話を特定のチャネルに向けるか、又は内省に対して特定の活動に焦点を当てることができる。例えば、検出された否定的な情緒は、ユーザが自分の仕事から離れる必要があるという音声対話によってより良く役立つことがある。
650において、プロセスは、トピックの状態更新を記録して進捗及びパフォーマンスを追跡する。ジャーナリングモデルは、繰り返し起こる計画と活動を経時的に検出することによって、繰り返し起こる活動の言及を集約して、進行中であるか否か、又はどのような障害が存在するかについてユーザに入力を促す。660において、ジャーナリングモデルは、ユーザ関与を改善するために、客観的感知因子を検出された実質的トピックと関連付けるように更新される。665において、プロセスは、ユーザの目標達成を支援するために、トピックの次の内省又はジャーナル入力をスケジュールすることができる。
図7は、いくつかの実施例で使用するための、外部ホストに関連付けられた例示的なコンピューティングデバイスの例示的なコンピューティング環境を示す。コンピューティング環境700内のコンピューティングデバイス705は、1又は複数の処理ユニット、コア、又はプロセッサ710、メモリ715(例えば、RAM、及び/又はROMなど)、内部ストレージ720(例えば、磁気、光学、固体ストレージ、及び/又は有機ストレージ)、及び/又はI/Oインターフェース725を含むことができ、これらのうちの任意のものは、通信機構又はバス730上で結合されて、情報を通信するか、又はコンピューティングデバイス705に埋め込むことができる。
コンピューティングデバイス705は、入力/ユーザインターフェース735及び出力デバイス/インターフェース740に通信可能に結合することができる。入力/ユーザインターフェース735及び出力デバイス/インターフェース740の一方又は両方は、有線又は無線インターフェースであってもよく、取り外し可能であってもよい。入力/ユーザインターフェース735は、入力(例えば、ボタン、タッチスクリーンインターフェース、キーボード、ポインティング/カーソル制御、マイクロホン、カメラ、点字、モーションセンサ、光学式リーダなど)を提供するために使用することができる任意のデバイス、コンポーネント、センサ、又はインターフェース、フィジカル又はバーチャルを含んでいてもよい。
出力デバイス/インターフェース740は、ディスプレイ、テレビ、モニタ、プリンタ、スピーカ、点字などを含んでいてもよい。いくつかの実施例では、入力/ユーザインターフェース735及び出力デバイス/インターフェース740は、コンピューティングデバイス705に埋め込まれるか、又は物理的に結合され得る。他の実施例では、他のコンピューティングデバイスは、コンピューティングデバイス705のための入力/ユーザインターフェース735及び出力デバイス/インターフェース740として機能するか、又は機能を提供することができる。
コンピューティングデバイス705の例には、限定されるものではないが、高度モバイルデバイス(例えば、スマートフォン、車両及び他の機械のデバイス、人間及び動物が携行するデバイスなど)、モバイルデバイス(例えば、タブレット、ノートブック、ラップトップ、パーソナルコンピュータ、ポータブルテレビ、ラジオなど)、及び携帯用に設計されていないデバイス(例えば、デスクトップコンピュータ、他のコンピュータ、情報キオスク、1又は複数のプロセッサが埋め込まれた及び/又は結合されたテレビ、ラジオなど)が含まれてもよい。
コンピューティングデバイス705は、外部ストレージ745及びネットワーク750に(例えば、I/Oインターフェース725を介して)通信可能に結合され、同じ構成又は異なる構成の1又は複数のコンピューティングデバイスを含む、任意の数のネットワークされたコンポーネント、デバイス、及びシステムと通信することができる。コンピューティングデバイス705又は任意の接続されたコンピューティングデバイスは、サーバ、クライアント、シンサーバ、一般機械、特殊用途の機械、又は別のラベルとして機能するか、これらのサービスを提供するか、又はこれらとして見なされることができる。
I/Oインターフェース725は、音声及び/又はデータネットワークを介した無線通信を容易にする無線通信コンポーネント(図示せず)を含んでもよい。無線通信コンポーネントは、1又は複数のアンテナを有するアンテナシステム、無線システム、ベースバンドシステム、又はそれらの任意の組み合わせを含んでもよい。無線周波数(RF)信号は、無線システムの管理下で、アンテナシステムによって空気を介して送受信されてもよい。
I/Oインターフェース725は、コンピューティング環境700内の少なくとも全ての接続されたコンポーネント、デバイス、ネットワーク間で情報を通信するために、限定されるものではないが任意の通信又はI/Oプロトコル又は規格(例えば、イーサネット(登録商標)、802.11x、ユニバーサルシステムバス、WiMAX、モデム、セルラネットワークプロトコルなど)を使用する有線及び/又は無線インターフェースを含むことができる。ネットワーク750は、任意のネットワーク又はネットワークの組み合わせ(例えば、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、電話ネットワーク、セルラネットワーク、衛星ネットワークなど)であり得る。
コンピューティングデバイス705は、一時的な媒体及び非一時的な媒体を含むコンピュータ使用可能媒体又はコンピュータ可読媒体を使用及び/又は使用して通信することができる。一時的な媒体には、伝送媒体(例えば、金属ケーブル、光ファイバ)、信号、搬送波などが含まれる。非一時的な媒体には、磁気媒体(例えば、ディスク及びテープ)、光媒体(例えば、CD‐ROM、デジタルビデオディスク、ブルーレイディスク)、固体媒体(例えば、RAM、ROM、フラッシュメモリ、固体ストレージ)、及び他の不揮発性ストレージ又はメモリが含まれる。
コンピューティングデバイス705は、いくつかの例示的なコンピューティング環境では、技法、方法、アプリケーション、プロセス、又はコンピュータ実行可能命令を実施するために使用できる。コンピュータ実行可能命令は、一時的な媒体から取り出して、非一時的な媒体に記憶し、非一時的な媒体から取り出すことができる。実行可能命令は、任意のプログラミング、スクリプティング及び機械言語(例えば、C、C++、C#、Java(登録商標)、Visual Basic、Python、Perl、JavaScript(登録商標)など)の1又は複数に由来することができる。
プロセッサ710は、ネイティブ環境又はバーチャル環境において、任意のオペレーティングシステム(OS)(図示せず)の下で実行することができる。論理ユニット755、アプリケーションプログラミングインターフェース(API)ユニット760、入力ユニット765、出力ユニット770、ジャーナリングエンジン775、コンテキスト検出器780、ジャーナリングモジュール785、及び関与モジュール790を含む1又は複数のアプリケーションを配備することができる。
例えば、入力ユニット765、ジャーナリングエンジン775、コンテキスト検出器780、ジャーナリングモジュール785、及び関与モジュール790は、図3−図6に示す1又は複数のプロセスを実施することができる。一実施例では、ジャーナリングモジュール785は、服薬又は治療レジメンにおける患者の活動を理解するために使用される。関与モジュール790は、コンテキスト検出器780を使用して、服薬に対する患者の応答について又は食べた食品についてユーザに入力を促して、健康管理を支援すると共に有用な情報及び洞察を提供する。説明したユニット及び要素は、設計、機能、構成、又は実施において変更可能であり、提供された説明に限定されない。
いくつかの実施例では、情報又は実行命令は、APIユニット760によって受信されると、1又は複数の他のユニット(例えば、論理ユニット755、出力ユニット770、入力ユニット765、ジャーナリングエンジン775、コンテキスト検出器780、ジャーナリングモジュール785、及び関与モジュール790)に通信されてもよい。
入力ユニット765は、APIユニット760を介して、ジャーナリングエンジン775及びコンテキスト検出器780と対話して、活動に関連付けられた入力情報を提供してもよい。APIユニット760を使用して、ジャーナリングモジュール785は、情報を分析して、行動パターンを識別し、適応的に内省の入力を促し関与データを返信するユーザのジャーナリングモデルを生成することができる。関与モジュール790は、例えば、ジャーナリングモデルを更新するために関与データをカスタマイズして処理することができる。
いくつかの例では、論理ユニット755は、上述のいくつかの実施例において、ユニット間の情報の流れを制御し、APIユニット760、入力ユニット765、出力ユニット770、入力ユニット765、ジャーナリングエンジン775、コンテキスト検出器780、ジャーナリングモジュール785、及び関与モジュール790によって提供されるサービスを方向付けるように構成されてもよい。例えば、1又は複数のプロセス又は実施形態の流れは、論理ユニット755のみによって、又はAPIユニット760と連携して制御されてもよい。
図8は、いくつかの実施例に適した例示的な環境を示す。環境800は、デバイス805〜850を含み、各々は、例えば、ネットワーク860を介して(例えば、有線及び/又は無線接続によって)少なくとも1つの他のデバイスに通信可能に接続される。いくつかのデバイスは、1又は複数のストレージデバイス830及び845に通信可能に接続されてもよい。
1又は複数のデバイス805〜850の一例は、図7に関してそれぞれ説明したコンピューティングデバイス705であってもよい。デバイス805−850は、限定されるものではないが、ディスプレイと、上で説明したような関連するウェブカメラとを有するコンピュータ805(例えば、ラップトップコンピューティングデバイス)、モバイルデバイス810(例えば、スマートフォン又はタブレット)、テレビ815、車両820に関連するデバイス、サーバコンピュータ825、コンピューティングデバイス835〜840、ストレージデバイス830、845を含み得る。上で説明したように、ユーザの会議環境は様々であり、オフィス環境に限定されない。
いくつかの実施形態では、デバイス805−820,850は、企業のユーザに関連付けられたユーザデバイスと見なしてもよい。デバイス825〜850は、クライアントサービスに関連する(例えば、図1〜図2に関して上述したようなサービスを提供するためにユーザ又は管理者によって使用され、及び/又は感知データ、ピンポイントデータ、環境データ、ウェブページ、テキスト、テキスト部分、画像、画像部分、オーディオ、オーディオセグメント、ビデオ、ビデオセグメント、及び/又はその周辺情報を記憶する)デバイスであってもよい。
詳細な説明のいくつかの部分は、コンピュータ内の動作のアルゴリズム及び記号表現に関して提示される。これらのアルゴリズム記述及び記号表現は、データ処理技術の熟練者が技術革新の本質を他の当業者に伝えるために使用する手段である。アルゴリズムとは、所望の終了状態又は結果に至る一連の定義された動作である。実施例では、実行される動作は、具体的な結果を達成するための有形の量の物理的操作を必要とする。
特に明記しない限り、説明から明らかなように、「生成」、「識別」、「マッピング」、「提供」、「更新」、「分析」、「追跡」、「決定」などの用語を利用する説明は、コンピュータシステムのレジスタ及びメモリ内の物理(電子)量として表されるデータを、コンピュータシステムのメモリ又はレジスタ、又は他の情報ストレージデバイス、伝送デバイス又は表示デバイス内で同様に物理量として表される他のデータに操作及び変換するコンピュータシステム又は他の情報処理デバイスの動作及びプロセスを含むことができると理解される。
実施例は、本明細書の動作を実行するための装置に関連してもよい。この装置は、必要な目的のために特別に構成されてもよく、又は1又は複数のコンピュータプログラムによって選択的に起動又は再構成される1又は複数の汎用コンピュータを含んでもよい。そのようなコンピュータプログラムは、コンピュータ可読記憶媒体又はコンピュータ可読信号媒体などのコンピュータ可読媒体に格納されてもよい。
コンピュータ可読記憶媒体は、限定されるものではないが、電子情報を格納するのに適した光ディスク、磁気ディスク、読み出し専用メモリ、ランダムアクセスメモリ、固体デバイス及びドライブ、又は任意の他のタイプの有形の又は非一時的な媒体などの有形の媒体を含み得る。コンピュータ可読信号媒体は、搬送波などの媒体を含むことができる。本明細書で提示されるアルゴリズム及びディスプレイは、任意の特定のコンピュータ又は他の装置に本質的に関連するものではない。コンピュータプログラムは、所望の実施形態の動作を実行する命令を含む純粋なソフトウェアの実施を含むことができる。
様々な汎用システムが、本明細書の例によるプログラム及びモジュールと共に使用されてもよく、又は所望の方法動作を実行するためのより特化した装置を構築することが好都合であることがわかるかもしれない。さらに、実施例は、任意の特定のプログラミング言語を参照して説明されていない。本明細書に記載されている実施例の教示を実施するために、様々なプログラミング言語が使用され得ることが理解されよう。プログラミング言語の命令は、1又は複数の処理デバイス、例えば、中央処理装置(CPU)、プロセッサ、又はコントローラによって実行されてもよい。
当技術分野で知られているように、上述の動作は、ハードウェア、ソフトウェア、又はソフトウェアとハードウェアの何らかの組み合わせによって実行することができる。実施例の様々な態様は、回路及び論理デバイス(ハードウェア)を使用して実施されてもよく、他の態様は、プロセッサによって実行された場合に本出願の実施を実行する方法をプロセッサに実行させる、機械可読媒体(ソフトウェア)に格納された命令を使用して実施されてもよい。
さらに、本出願のいくつかの実施例は、ハードウェアでのみ実行されてもよく、他の実施例は、ソフトウェアでのみ実行されてもよい。さらに、説明した様々な機能は、単一のユニットで実行されてもよいし、任意の数の方法で複数のコンポーネントにわたって分散されてもよい。ソフトウェアによって実行される場合、方法は、コンピュータ可読媒体に記憶された命令に基づいて、汎用コンピュータなどのプロセッサによって実行されてもよい。必要に応じて、命令は、圧縮及び/又は暗号化されたフォーマットで媒体に格納することができる。
実施例は、関連技術に対して様々な相違点及び利点を有し得る。例えば、限定するものではないが、従来技術に関して上で説明したようなJavaScript(登録商標)を有するウェブページを装備するのではなく、テキスト及びマウス(例えば、ポインティング)動作をビデオ文書で検出及び分析することができる。
さらに、本出願の他の実施形態は、本明細書の考察及び本出願の教示の実施から当業者には明らかであろう。説明した実施例の様々な態様及び/又は構成要素は、単独で、又は任意の組み合わせで使用され得る。本明細書及び実施形態は、単なる例として考えられるものであり、本出願の真の範囲及び精神は、添付の特許請求の範囲によって示される。
Claims (22)
- ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成することであって、
前記ジャーナリングモデルは機械学習を使用して、
前記活動データに基づいてコンテキストパターンを識別し、且つ
少なくとも前記関与データに基づいて前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングする、
ことを特徴とする前記生成すること、
リアルタイムの活動データを考慮して前記コンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供することであって、前記プロンプトが前記ジャーナリングモデルに基づいて生成される、提供すること、及び
前記追加の関与データを受信することに基づいて前記ジャーナリングモデルを更新すること、
を含むコンテキスト認識ジャーナリングの方法。 - 前記プロンプトを適応的に提供することは、前記リアルタイムの活動データを前記コンテキストパターンと比較することに基づいて好ましい対話モードを使用して前記ジャーナリングモデルから選択されたトピックについて前記ユーザからのフィードバックを開始する自律的な対話を含む、請求項1に記載の方法。
- 前記プロンプトを適応的に提供することは、チャットボット、オーディオエージェント(audio agent)、及び仮想アバターのうちの少なくとも1つを使用する自律的な対話を含む、請求項1に記載の方法。
- 前記追加の関与データは、前記1又は複数のタスクに関連付けられた目標に対する自己による内省を含む、請求項1に記載の方法。
- 前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングすることは、
コンテンツトピックと情緒指標とを識別するために前記関与データを分析すること、
前記1又は複数のタスクの各々を少なくとも1つのコンテンツトピックに関連付けること、
各トピックの情緒指標を追跡すること、及び
前記追加の関与データからの前記情緒指標の変化に少なくとも基づいて各トピックのパフォーマンスをマッピングすること、
を含む、請求項1に記載の方法。 - 前記プロンプトを生成することは、
前記ジャーナリングモデルからトピックを選択すること、及び
好ましい対話モードに基づいて自然言語プロセッサを使用して質問を決定すること
を含む、請求項1に記載の方法。 - 前記追加の関与データに基づく少なくとも1つの追加のプロンプトをさらに含む、請求項1に記載の方法。
- 関与データは、前記1又は複数のタスクに関連付けられたフィードバックを含み、前記プロンプトは、前記ユーザからの前記フィードバックを開始するための自律的な対話であり、前記プロンプトを適応的に提供することは、
前記ユーザの位置から前記リアルタイムの活動データを収集すること、
前記コンテキストパターンを前記リアルタイムの活動データと比較することによって好ましい対話モードを決定すること、及び
前記好ましい対話モードで前記ユーザとの前記自律的な対話を開始すること、
を含む、請求項1に記載の方法。 - 前記プロンプトを適応的に提供することは、前記コンテキストパターンを考慮して前記リアルタイムの活動データを評価することに基づいてトリガされる、請求項1に記載の方法。
- 前記プロンプトを適応的に提供することは、前記コンテキストパターンを考慮して前記リアルタイムの活動データに基づいて出力デバイスを選択することを含む、請求項1に記載の方法。
- 活動データは、位置データ、生理学的データ、コンピュータ使用、電話使用、及びセンサデータのうちの1又は複数を含む、請求項1に記載の方法。
- 前記1又は複数のタスクは、前記ユーザの仕事、フィットネス、及び個人的な目標のうちの少なくとも1つに関連付けられる、請求項1に記載の方法。
- 前記ジャーナリングモデルは、トレーニングデータ、ユーザの嗜好、及び臨床ガイドラインのうちの1又は複数にさらに関連付けられた機械学習を使用して生成される、請求項1に記載の方法。
- メモリ、及び
前記メモリに結合されたプロセッサであって、
ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成し、前記ジャーナリングモデルは機械学習を使用して、
前記活動データに基づいてコンテキストパターンを識別し、
少なくとも前記関与データに基づいて前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングし、
リアルタイムの活動データを考慮して前記コンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供し、前記プロンプトは前記ジャーナリングモデルに基づいて生成され、
前記追加の関与データを受信することに基づいて前記ジャーナリングモデルを更新する、プロセッサ
を含むシステム。 - 前記プロンプトを適応的に提供することは、前記ユーザからのフィードバックを開始するための自律的な対話を含み、前記フィードバックは前記ジャーナリングモデルから選択されたトピックに関し、前記自律的な対話は、前記リアルタイムの活動データを前記コンテキストパターンと比較することに基づいて好ましい対話モードを使用し、前記好ましい対話モードはチャットボット、オーディオエージェント、及び仮想アバターのうちの少なくとも1つを含む、請求項14に記載のシステム。
- 前記プロンプトは、前記ジャーナリングモデルに基づいて生成され、
前記リアルタイムの活動データに基づいて前記ジャーナリングモデルからトピックを選択すること、
情緒指標を識別するためにトピックに関連する以前に収集された関与データを分析すること、及び
前記リアルタイムの活動データ、前記情緒指標、及び好ましい対話モードに基づいてプロンプトを構築すること、
をさらに含む、請求項14に記載のシステム。 - 前記プロンプトを適応的に提供するために、前記プロセッサは、さらに、前記ユーザの位置からの前記リアルタイムの感知データを前記コンテキストパターンと比較して、前記プロンプトの出力様式を決定し、前記出力様式はテキスト、オーディオ、又はビジュアルである、請求項14に記載のシステム。
- プロセッサによって実行されたときに、
ユーザの1又は複数のタスクに関連付けられた活動データ及び関与データに基づいてジャーナリングモデルを生成し、前記ジャーナリングモデルは機械学習を使用して、
前記活動データに基づいてコンテキストパターンを識別し、
少なくとも前記関与データに基づいて前記1又は複数のタスクに関連付けられたパフォーマンスをマッピングし、
リアルタイムの活動データを考慮して前記コンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供し、前記プロンプトは前記ジャーナリングモデルに基づいて生成され、
前記追加の関与データを受信することに基づいて前記ジャーナリングモデルを更新する
プログラム。 - 前記プロンプトは、予め設定されたスケジュールに基づいてトリガされる、請求項18に記載のプログラム。
- 前記プロンプトは、一連の質問を含み、前記一連の質問は、前記ジャーナリングモデルからのトピックに基づいて生成され、各質問は、前記ジャーナリングモデルからの情緒指標に基づいて生成され、各質問は、出力デバイスのタイプに基づいて適合される、請求項18に記載のプログラム。
- ユーザの1又は複数のタスクに関連する活動データ及び関与データに基づいてジャーナリングモデルを生成するように構成されたプロセッサを備えたコンピュータ装置であって、
前記ジャーナリングモデルは、機械学習を使用して、活動データに基づいてコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングし、
前記プロセッサは、
ジャーナリングモデルに基づいてプロンプトを生成し、
リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを収集するプロンプトを適応的に提供し、
追加の関与データに基づいてジャーナリングモデルを更新する、
コンピュータ装置。 - ジャーナリングモデルを生成する手段と、
ジャーナリングモデルを記憶するためのメモリと、
活動データに基づいてコンテキストパターンを識別し、少なくとも関与データに基づいて1又は複数のタスクに関連付けられたパフォーマンスをマッピングする機械学習手段と、
ジャーナリングモデルに基づいてプロンプトを生成する手段と、
リアルタイムの活動データを考慮してコンテキストパターンに基づいて追加の関与データを収集するためのプロンプトを適応的に提供する手段と、
追加の関与データに基づいてジャーナリングモデルを更新する手段と、
を備えたシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/866,269 US11120326B2 (en) | 2018-01-09 | 2018-01-09 | Systems and methods for a context aware conversational agent for journaling based on machine learning |
US15/866,269 | 2018-01-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019121360A true JP2019121360A (ja) | 2019-07-22 |
Family
ID=67139847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018212499A Pending JP2019121360A (ja) | 2018-01-09 | 2018-11-12 | 機械学習に基づくコンテキスト認識会話型エージェントのためのシステム及び方法、コンテキスト認識ジャーナリングの方法、システム、プログラム、コンピュータ装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11120326B2 (ja) |
JP (1) | JP2019121360A (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11269591B2 (en) * | 2019-06-19 | 2022-03-08 | International Business Machines Corporation | Artificial intelligence based response to a user based on engagement level |
WO2021025668A1 (en) * | 2019-08-02 | 2021-02-11 | Google Llc | Systems and methods for generating and providing suggested actions |
US11302323B2 (en) * | 2019-11-21 | 2022-04-12 | International Business Machines Corporation | Voice response delivery with acceptable interference and attention |
US11561775B2 (en) | 2020-03-30 | 2023-01-24 | Nuance Communications, Inc. | Development system and method |
US11102304B1 (en) | 2020-05-22 | 2021-08-24 | Vignet Incorporated | Delivering information and value to participants in digital clinical trials |
US11967338B2 (en) * | 2020-10-27 | 2024-04-23 | Dish Network Technologies India Private Limited | Systems and methods for a computerized interactive voice companion |
US11748559B2 (en) | 2021-03-24 | 2023-09-05 | International Business Machines Corporation | Auto generation of conversational artifacts from specifications |
US11909662B2 (en) | 2021-07-29 | 2024-02-20 | Zoom Video Communications, Inc. | Reservation-based resource configuration for dynamic workspaces |
US11922347B2 (en) * | 2021-07-29 | 2024-03-05 | Zoom Video Communications, Inc. | Future presence signaling for dynamic workspaces |
WO2023019256A1 (en) * | 2021-08-12 | 2023-02-16 | Yohana Llc | Representative task generation and curation |
CN116595153B (zh) * | 2023-07-11 | 2023-11-24 | 安徽淘云科技股份有限公司 | 智能交互设备的交互方法、装置、电子设备和存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100822029B1 (ko) * | 2007-01-11 | 2008-04-15 | 삼성전자주식회사 | 모바일 단말기에서의 사용자 히스토리를 이용한 개인화서비스 방법 및 그 시스템 |
US20140279050A1 (en) * | 2008-05-21 | 2014-09-18 | The Delfin Project, Inc. | Dynamic chatbot |
KR102070196B1 (ko) * | 2012-09-20 | 2020-01-30 | 삼성전자 주식회사 | 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치 |
US9310957B2 (en) * | 2013-03-07 | 2016-04-12 | Tencent Technology (Shenzhen) Company Limited | Method and device for switching current information providing mode |
US20150095771A1 (en) * | 2013-09-30 | 2015-04-02 | Lenovo (Singapore) Pte. Ltd. | Journal launch based on context |
US20170039480A1 (en) * | 2015-08-06 | 2017-02-09 | Microsoft Technology Licensing, Llc | Workout Pattern Detection |
EP3361420A1 (en) * | 2017-02-10 | 2018-08-15 | Koninklijke Philips N.V. | Avatar relationships |
KR20190004495A (ko) * | 2017-07-04 | 2019-01-14 | 삼성에스디에스 주식회사 | 챗봇을 이용한 태스크 처리 방법, 장치 및 시스템 |
US10909321B2 (en) * | 2017-11-14 | 2021-02-02 | Microsoft Technology Licensing, Llc | Automated travel diary generation |
US10540971B2 (en) * | 2017-12-15 | 2020-01-21 | Blue Jeans Network, Inc. | System and methods for in-meeting group assistance using a virtual assistant |
-
2018
- 2018-01-09 US US15/866,269 patent/US11120326B2/en active Active
- 2018-11-12 JP JP2018212499A patent/JP2019121360A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20190213465A1 (en) | 2019-07-11 |
US11120326B2 (en) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019121360A (ja) | 機械学習に基づくコンテキスト認識会話型エージェントのためのシステム及び方法、コンテキスト認識ジャーナリングの方法、システム、プログラム、コンピュータ装置 | |
Vaizman et al. | Extrasensory app: Data collection in-the-wild with rich user interface to self-report behavior | |
US10565894B1 (en) | Systems and methods for personalized digital goal setting and intervention | |
US10846484B2 (en) | Personalized communications to improve user engagement | |
US10878226B2 (en) | Sentiment analysis in a video conference | |
US10810532B2 (en) | Systems and methods for access control based on machine-learning | |
US20210098110A1 (en) | Digital Health Wellbeing | |
US11416756B2 (en) | Systems and methods for physiological sensing for purposes of detecting persons affective focus state for optimizing productivity and work quality | |
US20180353108A1 (en) | System and method for monitoring personal activity | |
US8804915B2 (en) | Remote virtual supervision system | |
CN105917349A (zh) | 对请求的用户数据的隐私过滤以及上下文激活的隐私模式 | |
US11568369B2 (en) | Systems and methods for context aware redirection based on machine-learning | |
Maguire et al. | Shaping the future of digital technology in health and social care | |
CN112152903A (zh) | 通过即时通信应用进行的信息提供方法及系统 | |
US20240185362A1 (en) | Systems and methods of generating consciousness affects | |
WO2019116339A1 (en) | Communication model for cognitive systems | |
US11823591B2 (en) | Emotional management system | |
US20230367448A1 (en) | Systems and methods of generating consciousness affects using one or more non-biological inputs | |
US20230325944A1 (en) | Adaptive wellness collaborative media system | |
US20200234827A1 (en) | Methods and systems for diagnosing and treating disorders | |
WO2022043980A2 (ja) | プログラム、方法、及びシステム | |
US20230307134A1 (en) | System and method for automated assessment of emotional state of an employee using artificial intelligence | |
US20230038852A1 (en) | Automated tracking system | |
US20240177380A1 (en) | Information analysis system, information analysis method, and non-transitory recording medium | |
CA3013120A1 (en) | Mental wellbeing tracking system and method |