JP7310901B2 - 学習装置、推定装置、それらの方法、およびプログラム - Google Patents
学習装置、推定装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- JP7310901B2 JP7310901B2 JP2021546163A JP2021546163A JP7310901B2 JP 7310901 B2 JP7310901 B2 JP 7310901B2 JP 2021546163 A JP2021546163 A JP 2021546163A JP 2021546163 A JP2021546163 A JP 2021546163A JP 7310901 B2 JP7310901 B2 JP 7310901B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- learning
- psychological state
- surrounding environment
- fixed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 11
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000014509 gene expression Effects 0.000 claims description 209
- 230000035945 sensitivity Effects 0.000 claims description 64
- 230000006996 mental state Effects 0.000 claims description 35
- 230000002996 emotional effect Effects 0.000 claims description 25
- 230000036651 mood Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000004048 modification Effects 0.000 description 35
- 238000012986 modification Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 22
- 238000012549 training Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000015096 spirit Nutrition 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
図1は第一実施形態に係る推定システムの構成例を示す。
図2は第一実施形態に係る学習装置100の機能ブロック図を、図3はその処理フローを示す。
心理状態感性表現語・非固定周囲環境情報取得部120は、ユーザ(データ取得の対象者)から入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)WL(t1),WL(t2),…と、そのときの非固定周囲環境に関連する情報(学習用の非固定周囲環境情報)qL(t1),qL(t2),…との入力を受け付け(S120)、記憶部130に格納する。よって、記憶部130には、学習用の心理状態感性表現語WL(t1),WL(t2),…と、学習用の非固定周囲環境情報qL(t1),qL(t2),…とが記憶される。図4は、記憶部130に格納されたデータの例を示す。なお、データはユーザからの入力順(すなわち、ユーザが入力した時刻順)に格納されるものとする。別の言い方をすると、データは、心理状態感性表現語・非固定周囲環境情報取得部120が受け付けた順に格納されるものとする。図4の例では、ユーザからの入力順序(心理状態感性表現語・非固定周囲環境情報取得部120の受付順序)を示すインデックスtiが一緒に記憶されているが、記憶される配置等からユーザからの入力順序(心理状態感性表現語・非固定周囲環境情報取得部120の受付順序)が分かる場合にはインデックスtiを記憶しなくともよい。
学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、それに対応する学習用の非固定周囲環境情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。
ある時刻までの時刻順の2つ以上のオノマトペ(文字列)とその時刻よりも後の非固定周囲環境情報とを対応付けたもの(例えば、テーブルやリスト)を推定モデルとして用いる。テーブルやリスト中の各非固定周囲環境情報は、例えば、学習用データ中のあるオノマトペに対して各人が付与した非固定周囲環境情報の代表値(平均値や中央値等)を用いる。
この例では、推定モデルは、学習用のある時刻までの時刻順の2つ以上のオノマトペとその時刻よりも後の学習用の非固定周囲環境情報とに基づきニューラルネットワーク等の機械学習により学習されたモデルである。例えば、ある時刻までの時刻順の2つ以上のオノマトペ(文字列)を入力とし、その時刻よりも後の非固定周囲環境情報を出力するようなニューラルネットワークを推定モデルとして用いる。この場合は、予め適当な初期値を設定したニューラルネットワークに、学習用データ中のある時刻までの時刻順の2つ以上のオノマトペ(文字列)を入力して得られる非固定周囲環境情報の推定結果が、学習用データ中のその時刻よりも後の非固定周囲環境情報に近づくように、ニューラルネットワークのパラメータを繰り返し更新することにより、推定モデルを学習させる。なお、1つのオノマトペに対して複数の非固定周囲環境情報(気温、湿度、雨量等)を入力した学習用データを用いる場合は、推定モデルの出力も複数の非固定周囲環境情報のリスト(組)として、学習をさせてもよい。
図6は第一実施形態に係る推定装置200の機能ブロック図を、図7はその処理フローを示す。
心理状態感性表現語取得部220は、推定装置200の利用者から複数の時刻time(t'1), time(t'2),…の対象者の状態を表現するオノマトペの文字列(心理状態感性表現語)W(t'1),W(t'2),…の入力を受け付け(S220)、一時記憶部230に格納する。なお、推定装置200の利用者(非固定周囲環境を推定するもの)と、対象者(非固定周囲環境を推定されるもの)とは、同じ人物であってもよいし(自分で自分の非固定周囲環境を推定する)、異なる人物であってもよい。一時記憶部230は心理状態感性表現語を記憶し、図8は一時記憶部230に格納されたデータの例を示す。図8Aは2つの時刻の心理状態感性表現語W(t'1),W(t'2)の入力を受け付けた場合の例であり、図8Bは5つの時刻の心理状態感性表現語W(t'1),…,W(t'5)の入力を受け付けた場合の例である。なお、データは利用者からの入力順、すなわち、心理状態感性表現語取得部220が受け付けた順に格納されるものとする。なお、図8の例では、入力順序(受付順序)を示すインデックスt'iが一緒に記憶されているが、記憶される配置等から入力順序(受付順序)が分かる場合にはインデックスt'iを記憶しなくともよい。
推定モデル記憶部211には、学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定部210は、一時記憶部230から2つ以上の心理状態感性表現語を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の対象者の心理状態感性表現語とその入力順序(受付順序)とから対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。なお、推定部210は、推定モデルにおいて未来の非固定周囲環境を推定するために必要な心理状態感性表現語を一時記憶部230から取り出せばよく、必要な心理状態感性表現語は推定モデルの学習方法によって特定される。
このような構成により、現在までの心理状態感性表現語に基づき、未来の非固定周囲環境を推定できる。
第一実施形態と異なる部分を中心に説明する。
学習装置100の心理状態感性表現語・非固定周囲環境情報取得部120は、ユーザから入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)WL(t1),WL(t2),…と、そのときの非固定周囲環境に関連する情報(学習用の非固定周囲環境情報)qL(t1),qL(t2),…との入力を受け付け(S120)、対応する時刻timeL(t1),timeL(t2),…を取得し、これらの組合せを記憶部130に格納する(図2参照)。なお、対応する時刻から入力順序が分かるため、入力順序を示すインデックスtiを記憶部130に記憶する必要はないが、入力順序を示すインデックスtiを記憶部130に記憶してもよい。
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する時刻と、対応する学習用の非固定周囲環境情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。なお、対応する時刻timeL(t1),timeL(t2),…をそのまま用いて推定モデルを学習してもよい。また、時刻timeL(t1),timeL(t2),…から前の心理状態感性表現語が発されてからの経過時間(例えば、timeL(t2)-timeL(t1),timeL(t3)-timeL(t2),…)を求め、前の心理状態感性表現語が入力されてからの経過時間を用いて推定モデルを学習してもよい。
例えば、学習装置100は、ある時刻timeL(t)までの2つ以上の心理状態感性表現語WL(t),WL(t-1),…と、対応する時刻timeL(t),timeL(t-1),…またはその差(timeL(t)-timeL(t-1)),…と、時刻timeL(t)よりも後の非固定周囲環境情報qL(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
または例えば、学習装置100は、ある時刻timeL(t)までの2つ以上の心理状態感性表現語WL(t),WL(t-1),…と、入力順序(受付順序)t,t-1,…と、時間間隔|timeL(t)-timeL(t-1)|,…と、時刻timeL(t)よりも後の非固定周囲環境情報qL(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
推定装置200の心理状態感性表現語取得部220は、複数の時刻の対象者の状態を表現するオノマトペの文字列(心理状態感性表現語)W(t'1),W(t'2),…の入力を受け付け(S220)、対応する時刻time(t'1),time(t'2),…を取得し、これらの組合せを一時記憶部230に格納する。よって、一時記憶部230には、心理状態感性表現語と対応する時刻time(t'1),time(t'2),…とが記憶される。なお、対応する時刻から入力順序(受付順序)が分かるため、入力順序(受付順序)を示すインデックスt'iを一時記憶部230に記憶する必要はないが、入力順序を示すインデックスt'iを一時記憶部230に記憶してもよい。なお、心理状態感性表現語取得部220が時刻を取得する構成は、心理状態感性表現語・非固定周囲環境情報取得部120と同様である。
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から2つ以上の心理状態感性表現語と、心理状態感性表現語に対応する時刻を取り出す。
本変形例の学習例1の推定モデルを用いる場合には、推定装置200の推定部210は、必要に応じて対応する時刻から時刻差を求め、推定モデル記憶部211に予め記憶した学習済みの学習例1の推定モデルを用いて、2つ以上の対象者の心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻またはそれらの時刻差とから、対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
本変形例の学習例2の推定モデルを用いる場合には、推定装置200の推定部210は、対応する時刻から入力順序(受付順序)と時間間隔とを求め、推定モデル記憶部211に予め記憶した学習済みの学習例2の推定モデルを用いて、2つ以上の対象者の心理状態感性表現語と、それぞれの心理状態感性表現語の入力順序(受付順序)とそれらの心理状態感性表現語に対応する時刻の時間間隔とから、対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
変形例1と異なる部分を中心に説明する。
学習装置100の心理状態感性表現語・非固定周囲環境情報取得部120は、複数のユーザから、入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)と、そのときの非固定周囲環境に関連する情報(学習用の非固定周囲環境情報)との入力を受け付け(S120)、対応する時刻を取得し、これらの組合せを記憶部130に格納する(図2参照)。対応する時刻は、ユーザ間での時刻のずれが少ないほうがよいので、NTPサーバ等から取得するようにすればよい。また、心理状態感性表現語と非固定周囲環境情報と時刻の組合せは、入力したユーザを区別することなく記憶部130に格納してよく、全てのユーザにおける入力順序を示すインデックスをtiとすると、例えば、心理状態感性表現語WL(ti)と非固定周囲環境情報qL(ti)と時刻timeL(ti)との組合せを、{WL(t1), qL(t1), timeL(t1)}, {WL(t2), qL(t2), timeL(t2)},…のように記憶部130に格納すればよい。位置が同じであれば同じになる非固定周囲環境(気象情報等)を対象とする場合には、心理状態感性表現語・非固定周囲環境情報取得部120は、所定の同じ位置にいる複数のユーザから心理状態感性表現語と非固定周囲環境情報の入力を受け付けるか、入力を受け付けた複数のユーザのうちの所定の同じ位置にいる複数のユーザから入力を受け付けた心理状態感性表現語と非固定周囲環境情報と対応する時刻との組合せを記憶部130に格納すればよい。なお、入力順序を示すインデックスtiを記憶部130に記憶する必要はないが、入力順序を示すインデックスtiを記憶部130に記憶してもよい。本変形例の場合には、複数のユーザによる同時刻の入力が発生することもあるが、インデックスti自体に技術的な意味があるわけではないので、同時刻の入力については記憶部130に格納する順をインデックスtiとすればよい。
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する時刻と、対応する学習用の非固定周囲環境情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。なお、対応する時刻timeL(t1),timeL(t2),…をそのまま用いて推定モデルを学習してもよい。また、時刻timeL(t1),timeL(t2),…から所定の時刻timeL(t0)からの経過時間(例えば、timeL(t1)-timeL(t0),timeL(t2)-timeL(t0),timeL(t3)-timeL(t0),…)を求め、所定の時刻からの経過時間を用いて推定モデルを学習してもよい。
例えば、学習装置100は、複数のユーザが発した、ある時刻timeL(t)までの心理状態感性表現語WL(t),WL(t-1),…と、対応する時刻timeL(t),timeL(t-1),…または所定の時刻からの経過時間(timeL(t)-timeL(t0)), (timeL(t-1)-timeL(t0)),…と、時刻timeL(t)よりも後の非固定周囲環境情報qL(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から多数の心理状態感性表現語と、心理状態感性表現語に対応する時刻を取り出す。
本変形例の学習例の推定モデルを用いる場合には、推定装置200の推定部210は、必要に応じて対応する時刻から所定の時刻からの経過時間を求め、推定モデル記憶部211に予め記憶した学習済みの学習例の推定モデルを用いて、多数の対象者が発した多数の心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻または所定の時刻からの経過時間とから、対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
変形例1と異なる部分を中心に説明する。
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する学習用の非固定周囲環境情報と、学習用の心理状態感性表現語に対応する時刻と学習用の非固定周囲環境情報に対応する時刻とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。例えば、学習装置100は、時刻timeL(t)までの時刻順の2つ以上の心理状態感性表現語と、時刻timeL(t)よりも後の時刻である時刻timeL(t+1)の非固定周囲環境と、時刻timeL(t)と時刻timeL(t+1)またはその差timeL(t+1)-timeL(t)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から2つ以上の心理状態感性表現語W(t'),W(t'-1),…と、対応する時刻time(t')を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の対象者の心理状態感性表現語から対象者の未来の非固定周囲環境とその非固定周囲環境に対応する時刻を推定し(S210)、推定結果を出力する。すなわち、どの程度未来の非固定周囲環境であるかを、非固定周囲環境の推定結果と合わせて出力する。または、推定部210に図示しない入力手段を備えて、未来の時刻の入力、すなわち、どの程度未来の非固定周囲環境の推定結果を得たいかの指定を受け付けるようにして、推定装置200がどの程度未来の非固定周囲環境の推定結果を得るかを推定装置200の利用者が指定して、推定部210が指定内容に合う未来の非固定周囲環境を推定してもよい。
なお、変形例1と変形例3とを組合せてもよい。変形例1と変形例3との組合せの推定モデルは、例えば以下のようなモデルとなる。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語に対応する時刻またはそれらの時間差と、を入力とし、時刻time(t')よりも後の非固定周囲環境とその後の非固定周囲環境に対応する時刻を推定するモデルである。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語に対応する時刻またはそれらの時間差と、未来の時刻と、を入力とし、未来の時刻における非固定周囲環境を推定するモデル、である。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語の入力順序(受付順序)と、それらの心理状態感性表現語に対応する時刻の間隔(時間間隔)と、を入力とし、時刻time(t')よりも後の非固定周囲環境とその後の非固定周囲環境に対応する時刻を推定するモデルである。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語の入力順序(受付順序)と、それらの心理状態感性表現語に対応する時刻の間隔(時間間隔)と、未来の時刻と、を入力とし、未来の時刻における非固定周囲環境を推定するモデル、である。
なお、変形例2と変形例3とを組合せてもよい。変形例2と変形例3との組合せの推定モデルは、例えば以下のようなモデルとなる。
推定モデルは、時刻time(t')までの複数の対象者が発した心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を入力とし、時刻time(t')よりも後の非固定周囲環境とその後の非固定周囲環境に対応する時刻を推定するモデルである。
推定モデルは、時刻time(t')までの複数の対象者が発した心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、未来の時刻と、を入力とし、未来の時刻における非固定周囲環境を推定するモデル、である。
ある時刻までの2つ以上の心理状態感性表現語に加えて、ある時刻までの他の情報を考慮することで、ある時刻よりも後の非固定周囲環境の推定精度を高めることができる。例えば、他の情報として、固定周囲環境情報、不定周囲環境情報、体験情報、生体情報、その他の気分に影響を与える情報が考えられる。2つ以上の心理状態感性表現語と非固定周囲環境情報に加えて、これらの情報を与えて推定モデルを学習し、この学習で得た推定モデルを用いて、2つ以上の心理状態感性表現語にこれらの情報を与えて非固定周囲環境を推定する。
学習装置100は、学習部110と、心理状態感性表現語・非固定周囲環境情報取得部120と、記憶部130に加えて、固定周囲環境取得部141と、不定周囲環境取得部142と、体験情報取得部150と、生体情報取得部170との少なくとも何れかを含む(図2参照)。
推定装置200は、推定部210と、心理状態感性表現語取得部220と、一時記憶部230に加えて、固定周囲環境取得部241と、不定周囲環境取得部242と、体験情報取得部250と、生体情報取得部270との少なくとも何れかを含む(図6参照)。
固定周囲環境取得部141は、固定周囲環境に関連する情報pL(t)を取得し(S141)、記憶部130に格納する。
不定周囲環境取得部142は、不定周囲環境に関連する情報(学習用の不定周囲環境情報)q'L(t1),q'L(t2),…を取得し(S142)、記憶部130に格納する。なお、不定周囲環境情報q'とは、非固定周囲環境情報qとは異なる非固定周囲環境情報である。例えば、非固定周囲環境情報qを雨量とする場合には、不定周囲環境情報q'を気温とするなどとしてもよい。
体験情報取得部150は、ユーザの体験に関連する体験情報EL(t)を取得し(S150)、記憶部130に格納する。
生体情報取得部170は、ユーザの生体情報BL(t)を取得し(S170)、記憶部130に格納する。
学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と、以下の(i)~(iv)とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、それに対応する学習用の非固定周囲環境情報と、(i)~(iv)とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。
(ii)心理状態感性表現語の入力時の入力者の、場所によって一意に定まらない周囲環境、すなわち、時間の変化に応じて変化する周囲環境、に関連する情報であり、非固定周囲環境情報以外の情報
(iii)心理状態感性表現語の入力時の入力者の体験に関連する体験情報
(iv)心理状態感性表現語の入力時の入力者の生体情報
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定部210は、一時記憶部230から2つ以上の心理状態感性表現語と、上述の学習部110で学習に利用した(i)~(iv)の少なくとも1つ以上と、を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の心理状態感性表現語と(i)~(iv)の少なくとも1つ以上とから未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
このような構成により、第一実施形態と同様の効果を得ることができる。さらに、(i)~(iv)の少なくとも1つ以上を考慮することでより正確に非固定周囲環境を推定できる。なお、本変形例と変形例1~3とを組合せてもよい。
第一実施形態では、学習装置100のユーザ、推定装置200の利用者がオノマトペの文字列を入力することとして説明をしたが、文字列そのものを入力することに限られるものではない。
本発明は上記の実施形態及び変形例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
上述の各種の処理は、図9に示すコンピュータの記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
Claims (6)
- 同じ場所にいる複数人から発せられた学習用の心理状態感性表現語WL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの学習用の時刻timeL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である学習用の非固定周囲環境情報qL(ti)と、を少なくとも記憶する記憶部と、
同じ場所にいる複数人から発せられた時刻timeL(t)までの複数の学習用の心理状態感性表現語WL(t),WL(t-1),…と、それぞれの学習用の当該心理状態感性表現語WL(t),WL(t-1),…に対応する学習用の時刻timeL(t),timeL(t-1),…または所定の時刻timeL(t0)からの経過時間(timeL(t)-timeL(t0)), (timeL(t-1)-timeL(t0)),…と、前記時刻timeL(t)よりも後の非固定周囲環境を示す学習用の非固定周囲環境情報qL(t+1)とを少なくとも含む組合せを1つの学習データとして、複数の学習データを用いて、同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の非固定周囲環境を推定する推定モデルを学習する学習部とを含み、
前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
学習装置。 - 同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である非固定周囲環境を推定する推定モデルを用いて、同じ場所にいる複数人から発せられた複数の心理状態感性表現語W(t'),W(t'-1),…と、それぞれの当該心理状態感性表現語W(t'),W(t'-1),…に対応する時刻time(t'),time(t'-1),…または所定の時刻time(t'0)からの経過時間(time(t')-time(t'0)), (time(t'-1)-time(t'0)),…と、に少なくとも基づいて、未来の非固定周囲環境q(t'+1)を推定する推定部を含み、
前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
推定装置。 - 記憶部には、同じ場所にいる複数人から発せられた学習用の心理状態感性表現語WL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの学習用の時刻timeL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である学習用の非固定周囲環境情報qL(ti)と、が少なくとも記憶されるものとし、
同じ場所にいる複数人から発せられた時刻timeL(t)までの複数の学習用の心理状態感性表現語WL(t),WL(t-1),…と、それぞれの学習用の当該心理状態感性表現語WL(t),WL(t-1),…に対応する学習用の時刻timeL(t),timeL(t-1),…または所定の時刻timeL(t0)からの経過時間(timeL(t)-timeL(t0)), (timeL(t-1)-timeL(t0)),…と、前記時刻timeL(t)よりも後の非固定周囲環境を示す学習用の非固定周囲環境情報qL(t+1)とを少なくとも含む組合せを1つの学習データとして、複数の学習データを用いて、同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の非固定周囲環境を推定する推定モデルを学習する学習ステップを含み、
前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
学習方法。 - 同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である非固定周囲環境を推定する推定モデルを用いて、同じ場所にいる複数人から発せられた複数の心理状態感性表現語W(t'),W(t'-1),…と、それぞれの当該心理状態感性表現語W(t'),W(t'-1),…に対応する時刻time(t'),time(t'-1),…または所定の時刻time(t'0)からの経過時間(time(t')-time(t'0)), (time(t'-1)-time(t'0)),…と、に少なくとも基づいて、未来の非固定周囲環境を推定する推定ステップを含み、
前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
推定方法。 - 請求項1の学習装置としてコンピュータを機能させるためのプログラム。
- 請求項2の推定装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/037059 WO2021053823A1 (ja) | 2019-09-20 | 2019-09-20 | 学習装置、推定装置、それらの方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021053823A1 JPWO2021053823A1 (ja) | 2021-03-25 |
JP7310901B2 true JP7310901B2 (ja) | 2023-07-19 |
Family
ID=74884443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021546163A Active JP7310901B2 (ja) | 2019-09-20 | 2019-09-20 | 学習装置、推定装置、それらの方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230342549A1 (ja) |
JP (1) | JP7310901B2 (ja) |
WO (1) | WO2021053823A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005049773A (ja) | 2003-07-31 | 2005-02-24 | Denso Corp | 音楽再生装置 |
-
2019
- 2019-09-20 US US17/761,950 patent/US20230342549A1/en active Pending
- 2019-09-20 JP JP2021546163A patent/JP7310901B2/ja active Active
- 2019-09-20 WO PCT/JP2019/037059 patent/WO2021053823A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005049773A (ja) | 2003-07-31 | 2005-02-24 | Denso Corp | 音楽再生装置 |
Non-Patent Citations (2)
Title |
---|
坂本 真樹 Maki SAKAMOTO,オノマトペによる感性の定量化 -‘もの’と感性をつなぐ技術へ-,電子情報通信学会誌,日本,一般社団法人電子情報通信学会,2017年11月01日,第100巻 第11号,pp.1193-1198 |
馬賀 嵩士 外3名,気象情報とTweetデータの統合的分析による体感気温の定量化とその需要予測への利用に関する一考察,第39回情報理論とその応用シンポジウム予稿集 [CD-ROM],日本,電子情報通信学会基礎・境界ソサイエティ 情報理論とその応用サブソサイエティ,2016年12月16日,pp.567-572,CSNJ201710019102 |
Also Published As
Publication number | Publication date |
---|---|
WO2021053823A1 (ja) | 2021-03-25 |
US20230342549A1 (en) | 2023-10-26 |
JPWO2021053823A1 (ja) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10977452B2 (en) | Multi-lingual virtual personal assistant | |
US10762892B2 (en) | Rapid deployment of dialogue system | |
CN112119454B (zh) | 适应多个年龄组和/或词汇水平的自动助理 | |
US10884503B2 (en) | VPA with integrated object recognition and facial expression recognition | |
US20200097814A1 (en) | Method and system for enabling interactive dialogue session between user and virtual medical assistant | |
CN110998725B (zh) | 在对话中生成响应 | |
US20170148430A1 (en) | Method and device for recognition and method and device for constructing recognition model | |
KR20190125153A (ko) | 텍스트 기반 사용자심리상태예측 및 콘텐츠추천 장치 및 그 방법 | |
US20200104670A1 (en) | Electronic device and method of obtaining emotion information | |
CN114391143A (zh) | 用于提供对话服务的电子设备和方法 | |
EP3820369B1 (en) | Electronic device and method of obtaining emotion information | |
US20210217409A1 (en) | Electronic device and control method therefor | |
US20200020327A1 (en) | Method and apparatus for recognizing a voice | |
US20200183928A1 (en) | System and Method for Rule-Based Conversational User Interface | |
US20200143809A1 (en) | Electronic apparatus and control method thereof | |
Al-Dujaili et al. | Speech emotion recognition: a comprehensive survey | |
US11657237B2 (en) | Electronic device and natural language generation method thereof | |
US11514894B2 (en) | Adaptively modifying dialog output by an artificial intelligence engine during a conversation with a customer based on changing the customer's negative emotional state to a positive one | |
US11763690B2 (en) | Electronic apparatus and controlling method thereof | |
US20220059088A1 (en) | Electronic device and control method therefor | |
CN106951433A (zh) | 一种检索方法及装置 | |
CN111949773A (zh) | 一种阅读设备、服务器以及数据处理的方法 | |
JP7310901B2 (ja) | 学習装置、推定装置、それらの方法、およびプログラム | |
JP7188601B2 (ja) | 学習装置、推定装置、それらの方法、およびプログラム | |
WO2022190257A1 (ja) | 学習装置、推定装置、それらの方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7310901 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |