JP7310901B2 - 学習装置、推定装置、それらの方法、およびプログラム - Google Patents

学習装置、推定装置、それらの方法、およびプログラム Download PDF

Info

Publication number
JP7310901B2
JP7310901B2 JP2021546163A JP2021546163A JP7310901B2 JP 7310901 B2 JP7310901 B2 JP 7310901B2 JP 2021546163 A JP2021546163 A JP 2021546163A JP 2021546163 A JP2021546163 A JP 2021546163A JP 7310901 B2 JP7310901 B2 JP 7310901B2
Authority
JP
Japan
Prior art keywords
time
learning
psychological state
surrounding environment
fixed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021546163A
Other languages
English (en)
Other versions
JPWO2021053823A1 (ja
Inventor
淳司 渡邊
藍子 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021053823A1 publication Critical patent/JPWO2021053823A1/ja
Application granted granted Critical
Publication of JP7310901B2 publication Critical patent/JP7310901B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、オノマトペを含む心理状態感性表現語から気象情報等の周囲環境を推定する技術に関する。
非特許文献1では、オノマトペを構成する子音・母音の種類、濁音の有無などの音韻上の要素からオノマトペの印象を予測するモデルによって、オノマトペ全体の印象を定量化する。
清水祐一郎,土斐崎龍一,坂本真樹、「オノマトペごとの微細な印象を推定するシステム」、人工知能学会論文誌、29巻、1号、p.41-52、2014年.
従来技術では、オノマトペが喚起する印象を推定するが、オノマトペを使用する使用者の周囲環境を推定するものではない。
本発明は、現在までの心理状態感性表現語に基づき、未来の非固定周囲環境を推定する推定装置、非固定周囲環境を推定する際に用いるモデルを学習する学習装置、それらの方法、およびプログラムを提供することを目的とする。
なお、心理状態感性表現語は、ある時点における対象者の心理状態を表すものであり、例えば、オノマトペと感嘆詞の少なくとも何れかにカテゴライズされる語の総称である。また、オノマトペは、例えば、擬音語、擬態語、擬情語の少なくとも何れかにカテゴライズされる語の総称である。ここで、擬音語は実際の音を言語音で表現したものであり、擬態語は音ではない感覚を言語音で表現したものであり、擬情語は心理状態を言語音で表現したものである。なお、感嘆詞は感動詞と呼ばれることもある。以下では、心理状態感性表現語がオノマトペである場合について説明するが、感嘆詞である場合についても同様に処理可能である。
また、ここでの「非固定周囲環境」は、周囲環境について「固定周囲環境」と区別して用いる文言である。「固定周囲環境」は、対象者の周囲環境であって、場所によって一意に定まる環境のことである。例えば、「飲食施設」「遊戯施設」「○○遊園地」「××動物園」等は「固定周囲環境」である。これに対し、「非固定周囲環境」は、対象者の周囲環境であって、場所によって一意に定まらない環境、すなわち、時間の変化に応じて変化する環境であり、例えば、気温、湿度、雨量、地震等の気象情報等である。例えば、前述の気象情報等は、同じ場所であっても時間の変化に応じて変化するので、場所によって一意に定まらない周囲環境であり、すなわち、「非固定周囲環境」であると言える。
上記の課題を解決するために、本発明の一態様によれば、学習装置は、学習用の心理状態感性表現語と、学習用の当該心理状態感性表現語を発したときの、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である学習用の非固定周囲環境情報とを少なくとも記憶する記憶部と、時刻time(t)までの2つ以上の学習用の心理状態感性表現語による時系列と、時刻time(t)よりも後の非固定周囲環境を示す学習用の非固定周囲環境情報とを少なくとも含む組合せを1つの学習データとして、複数の学習データを用いて、ある時刻までの2つ以上の心理状態感性表現語による時系列を少なくとも入力とし、当該ある時刻よりも後の非固定周囲環境を推定する推定モデルを学習する学習部とを含む。
上記の課題を解決するために、本発明の他の態様によれば、推定装置は、ある時刻までの2つ以上の心理状態感性表現語の時系列を少なくとも入力とし、当該ある時刻よりも後の、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である非固定周囲環境を推定する推定モデルを用いて、入力された2つ以上の心理状態感性表現語とその入力順序とに少なくとも基づいて、未来の非固定周囲環境を推定する推定部を含む。
上記の課題を解決するために、本発明の他の態様によれば、学習装置は、同じ場所にいる複数人から発せられた学習用の心理状態感性表現語と、学習用の当該心理状態感性表現語を発したときの学習用の時刻と、学習用の当該心理状態感性表現語を発したときの、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である学習用の非固定周囲環境情報と、を少なくとも記憶する記憶部と、同じ場所にいる複数人から発せられた時刻time(t)までの複数の学習用の心理状態感性表現語と、それぞれの学習用の当該心理状態感性表現語に対応する学習用の時刻または所定の時刻からの経過時間と、時刻time(t)よりも後の非固定周囲環境を示す学習用の非固定周囲環境情報とを少なくとも含む組合せを1つの学習データとして、複数の学習データを用いて、同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、ある時刻よりも後の非固定周囲環境を推定する推定モデルを学習する学習部を含む。
上記の課題を解決するために、本発明の他の態様によれば、推定装置は、同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、ある時刻よりも後の、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である非固定周囲環境を推定する推定モデルを用いて、同じ場所にいる複数人から発せられた複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、に少なくとも基づいて、未来の非固定周囲環境を推定する推定部を含む。
本発明によれば、現在までの心理状態感性表現語に基づき、未来の非固定周囲環境を推定できるという効果を奏する。
第一実施形態に係る推定システムの構成例を示す図。 第一実施形態に係る学習装置の機能ブロック図。 第一実施形態に係る学習装置の処理フローの例を示す図。 記憶部に格納されたデータの例を示す図。 推定モデルを説明するための図。 第一実施形態に係る推定装置の機能ブロック図。 第一実施形態に係る推定装置の処理フローの例を示す図。 一時記憶部に格納されたデータの例を示す図。 学習装置、推定装置として機能するコンピュータの構成例を示す図。
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。以下の説明において、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。
<第一実施形態>
図1は第一実施形態に係る推定システムの構成例を示す。
本実施形態の推定システムは、学習装置100と推定装置200とを含む。
学習装置100は、学習用の心理状態感性表現語WL(t1),WL(t2),…と、学習用の非固定周囲環境に関連する情報(以下、「非固定周囲環境情報」ともいう)qL(t1),qL(t2),…とを入力とし、推定モデルを学習して、学習済みの推定モデルを出力する。
推定装置200は、推定に先立ち、学習装置100が出力した学習済みの推定モデルを受け取っておく。推定装置200は、推定対象の心理状態感性表現語の時系列W(t1),W(t2),…を入力とし、推定モデルを用いて、未来の非固定周囲環境を推定し、推定結果を出力する。なお、t1,t2,…は入力順序を示すインデックスであり、例えばW(ti)はi番目に入力された心理状態感性表現語を意味する。
本実施形態では、人をセンサと考え、センサの出力値に代えて人が発した心理状態感性表現語を用いて、未来の非固定周囲環境を推定する。人をセンサと考えるのは、人は五感に代表される様々な感覚を有し、意識的にまたは無意識に、様々な周囲環境や、その変化を知覚するためである。ここで、心理状態感性表現語は、論理的または物理的に表現することが難しい心理状態を表すものであり、感覚的または感性的な表現である。したがって、ある時点で発せられた心理状態感性表現語には、意識的にまたは無意識に知覚したその時点の周囲環境と関連性がある情報が含まれていることがあると考えられる。本実施形態は、非固定周囲環境は過去の状態と関連性をもちながら時間変化するものであり、かつ、ある時点で発せられた心理状態感性表現語にはその時点の非固定周囲環境と関連性がある情報が含まれていることがあるため、これらの関連性を利用することで、ある時刻までに入力された心理状態感性表現語の時系列からその時刻よりも後の非固定周囲環境を推定するものである。
学習装置および推定装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。学習装置および推定装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。学習装置および推定装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。学習装置および推定装置の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。学習装置および推定装置が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。ただし、各記憶部は、必ずしも学習装置および推定装置がその内部に備える必要はなく、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置により構成し、学習装置および推定装置の外部に備える構成としてもよい。
まず、学習装置について説明する。
<学習装置100>
図2は第一実施形態に係る学習装置100の機能ブロック図を、図3はその処理フローを示す。
学習装置100は、学習部110と、心理状態感性表現語・非固定周囲環境情報取得部120と、記憶部130とを含む。
<心理状態感性表現語・非固定周囲環境情報取得部120および記憶部130>
心理状態感性表現語・非固定周囲環境情報取得部120は、ユーザ(データ取得の対象者)から入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)WL(t1),WL(t2),…と、そのときの非固定周囲環境に関連する情報(学習用の非固定周囲環境情報)qL(t1),qL(t2),…との入力を受け付け(S120)、記憶部130に格納する。よって、記憶部130には、学習用の心理状態感性表現語WL(t1),WL(t2),…と、学習用の非固定周囲環境情報qL(t1),qL(t2),…とが記憶される。図4は、記憶部130に格納されたデータの例を示す。なお、データはユーザからの入力順(すなわち、ユーザが入力した時刻順)に格納されるものとする。別の言い方をすると、データは、心理状態感性表現語・非固定周囲環境情報取得部120が受け付けた順に格納されるものとする。図4の例では、ユーザからの入力順序(心理状態感性表現語・非固定周囲環境情報取得部120の受付順序)を示すインデックスtiが一緒に記憶されているが、記憶される配置等からユーザからの入力順序(心理状態感性表現語・非固定周囲環境情報取得部120の受付順序)が分かる場合にはインデックスtiを記憶しなくともよい。
非固定周囲環境とは、例えば、大雨である状態を4とし、雨が降っていない状態を0とする、5段階で雨量の度合いを表したもの等、予め設定した尺度を複数の段階で表したものである。非固定周囲環境は1つであってもよいし、複数としてもよい。
例えば、携帯端末やタブレット端末等のディスプレイにオノマトペの文字列の入力欄と、非固定周囲環境情報の入力欄を表示し、タッチパネル等の入力部を介して、ユーザがオノマトペの文字列と非固定周囲環境情報とを入力する。
なお、入力欄は、所定の種類のオノマトペの文字列や予め設定した複数の段階で表された非固定周囲環境情報を表示して選択する構成としてもよいし、自由にユーザが入力する構成としてもよい。
学習用のデータの入力のタイミングは、例えば、所定時間毎にタッチパネル等の表示部を介して、ユーザに対して、オノマトペの文字列と非固定周囲環境情報との入力を促すメッセージを表示して、そのメッセージに従ってユーザが入力してもよいし、ユーザが任意のタイミングでオノマトペの文字列と非固定周囲環境情報との入力を受け付けるアプリケーションを開き、入力してもよい。
また、例えば、ユーザは、オノマトペの文字列のみを入力し、心理状態感性表現語・非固定周囲環境情報取得部120は、ユーザ(データ取得の対象者)から入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)WL(t1),WL(t2),…のみを受け付ける構成としてもよい。この場合、心理状態感性表現語・非固定周囲環境情報取得部120が、非固定周囲環境情報に対応する図示しない取得手段を用いて、非固定周囲環境情報を取得すればよい。例えば、心理状態感性表現語・非固定周囲環境情報取得部120は、GPS部と、インターネットに接続された情報収集部とを備え、学習用の心理状態感性表現語の入力を受け付けると、GPS部が位置情報を得、情報収集部が位置情報に対応する雨量、気温、湿度等の気象情報等の非固定周囲環境情報を例えば気象台等のウェブサイトから取得すればよい。また、例えば、心理状態感性表現語・非固定周囲環境情報取得部120が、気温、湿度等の気象情報等を取得するセンサを含み、センサが気象情報等の非固定周囲環境情報を取得してもよい。
<学習部110>
学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、それに対応する学習用の非固定周囲環境情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。
なお、推定モデルは、時刻time(t)までの時刻順の2つ以上の心理状態感性表現語を入力とし、時刻time(t)よりも後の非固定周囲環境を推定するモデルである。なお、時刻time(t)はt番目の心理状態感性表現語が入力された時刻を表す。本実施形態では、入力時刻(受付時刻)を取得しないが、入力順序(受付順序)が特定されるため、t番目の心理状態感性表現語が入力された時刻time(t)までに入力された心理状態感性表現語か否か、時刻time(t)よりも後の非固定周囲環境情報か否かを特定することができる。
例えば、推定モデルは、図5の場合、t-1番目の心理状態感性表現語W(t-1)「ぬふぅ」、t番目の心理状態感性表現語W(t)「あうー」を入力とし、t+1番目の非固定周囲環境情報q(t+1)を推定するモデルである。そこで、学習装置100は、時刻time(t)までの時刻順の2つ以上の心理状態感性表現語と、時刻time(t)よりも後の非固定周囲環境を示す学習用の非固定周囲環境情報との組合せを1組の学習用データとし(例えば、図4の破線で囲んだ部分)、大量の学習用データを用いて推定モデルを学習する。
なお、本実施形態の推定モデルは、時刻time(t)までのある対象者が発した時刻順の2つ以上の心理状態感性表現語を入力とし、時刻time(t)よりも後のその対象者の非固定周囲環境を推定する。心理状態感性表現語・非固定周囲環境情報取得部120において、複数のユーザから心理状態感性表現語と非固定周囲環境情報を取得する場合には、それぞれのユーザから取得した心理状態感性表現語と非固定周囲環境情報をユーザ毎の識別子と一緒に記憶部130に記憶し、学習時には、ユーザ毎の心理状態感性表現語と非固定周囲環境情報の時系列を利用して学習を行う。なお、心理状態感性表現語を「発する」とは、心理状態感性表現語を何からの手段で外部に表すことを意味し、タッチパネル等の入力部を介して心理状態感性表現語を「入力する」ことや、心理状態感性表現語を「発話する」ことなどを含む概念である。なお、心理状態感性表現語を「発話する」場合の処理に関しては、後述する。
なお、学習用データは一人のユーザから取得してもよい。しかし、不特定多数の対象者を推定対象とする場合には、不特定多数の対象者に対応できるように、かつ、十分な量の学習用データを取得するために、複数のユーザから学習用データを取得することが望ましい。つまり、複数のユーザの心理状態感性表現語とその心理状態感性表現語を発したときの非固定周囲環境情報の組合せを大量に準備し、ユーザ毎の心理状態感性表現語と非固定周囲環境情報の時系列とし、学習用データとするとよい。このような学習用データを用いて学習した推定モデルを第一推定モデルともいう。さらに、推定装置200の推定対象となる対象者を新たなユーザ(データ取得の対象者)とし、新たなユーザから取得した学習用データを用いて第一推定モデルを再学習し、再学習後の推定モデルを推定装置200で用いるモデルとして出力してもよい。このような構成とすることで、十分な量の学習用データを取得しつつ、推定対象の特徴を考慮した推定モデルを学習することができる。
図4は、学習データからなるテーブルの例を示す。この例では、雨量の度合いは、大雨である状態を4とし、雨が降っていない状態を0とする5段階の数値で表している。
(推定モデルの例1)
ある時刻までの時刻順の2つ以上のオノマトペ(文字列)とその時刻よりも後の非固定周囲環境情報とを対応付けたもの(例えば、テーブルやリスト)を推定モデルとして用いる。テーブルやリスト中の各非固定周囲環境情報は、例えば、学習用データ中のあるオノマトペに対して各人が付与した非固定周囲環境情報の代表値(平均値や中央値等)を用いる。
(推定モデルの例2)
この例では、推定モデルは、学習用のある時刻までの時刻順の2つ以上のオノマトペとその時刻よりも後の学習用の非固定周囲環境情報とに基づきニューラルネットワーク等の機械学習により学習されたモデルである。例えば、ある時刻までの時刻順の2つ以上のオノマトペ(文字列)を入力とし、その時刻よりも後の非固定周囲環境情報を出力するようなニューラルネットワークを推定モデルとして用いる。この場合は、予め適当な初期値を設定したニューラルネットワークに、学習用データ中のある時刻までの時刻順の2つ以上のオノマトペ(文字列)を入力して得られる非固定周囲環境情報の推定結果が、学習用データ中のその時刻よりも後の非固定周囲環境情報に近づくように、ニューラルネットワークのパラメータを繰り返し更新することにより、推定モデルを学習させる。なお、1つのオノマトペに対して複数の非固定周囲環境情報(気温、湿度、雨量等)を入力した学習用データを用いる場合は、推定モデルの出力も複数の非固定周囲環境情報のリスト(組)として、学習をさせてもよい。
このようにして、推定モデルを学習する。次に、推定装置について説明する。
<推定装置200>
図6は第一実施形態に係る推定装置200の機能ブロック図を、図7はその処理フローを示す。
推定装置200は、推定部210と、推定モデル記憶部211と、心理状態感性表現語取得部220と、一時記憶部230とを含む。
<心理状態感性表現語取得部220と一時記憶部230>
心理状態感性表現語取得部220は、推定装置200の利用者から複数の時刻time(t'1), time(t'2),…の対象者の状態を表現するオノマトペの文字列(心理状態感性表現語)W(t'1),W(t'2),…の入力を受け付け(S220)、一時記憶部230に格納する。なお、推定装置200の利用者(非固定周囲環境を推定するもの)と、対象者(非固定周囲環境を推定されるもの)とは、同じ人物であってもよいし(自分で自分の非固定周囲環境を推定する)、異なる人物であってもよい。一時記憶部230は心理状態感性表現語を記憶し、図8は一時記憶部230に格納されたデータの例を示す。図8Aは2つの時刻の心理状態感性表現語W(t'1),W(t'2)の入力を受け付けた場合の例であり、図8Bは5つの時刻の心理状態感性表現語W(t'1),…,W(t'5)の入力を受け付けた場合の例である。なお、データは利用者からの入力順、すなわち、心理状態感性表現語取得部220が受け付けた順に格納されるものとする。なお、図8の例では、入力順序(受付順序)を示すインデックスt'iが一緒に記憶されているが、記憶される配置等から入力順序(受付順序)が分かる場合にはインデックスt'iを記憶しなくともよい。
<推定部210,推定モデル記憶部211>
推定モデル記憶部211には、学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定部210は、一時記憶部230から2つ以上の心理状態感性表現語を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の対象者の心理状態感性表現語とその入力順序(受付順序)とから対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。なお、推定部210は、推定モデルにおいて未来の非固定周囲環境を推定するために必要な心理状態感性表現語を一時記憶部230から取り出せばよく、必要な心理状態感性表現語は推定モデルの学習方法によって特定される。
また、推定部210は、どの非固定周囲環境情報を推定したいかという目的次第で、必要な推定モデルを使う構成としてもよい。例えば、(i)「気温」を推定する学習済みの推定モデル、(ii)「雨量」を推定する学習済みの推定モデル、(iii)「気温」と「雨量」の2つを推定する学習済みの推定モデル、などを推定モデル記憶部211に用意しておき、推定部210は、目的に応じて必要な推定モデルを選択してもよい。
なお、推定装置200は、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語を入力とし、時刻time(t')よりも後の非固定周囲環境を推定するものであればよく、学習装置100が学習して推定装置200の推定モデル記憶部211に記憶しておく推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語を入力とし、時刻time(t')よりも後の非固定周囲環境を推定するモデルであればよい。例えば、推定装置200が用いる時刻time(t')までの時刻順の心理状態感性表現語は、必ずしも2つでなくてもよく、2つ以上であればよく、また、対象者が発した順番が連続している必要はなく、同様に、学習装置100が用いる時刻timeL(t)までの時刻順の心理状態感性表現語は、必ずしも2つでなくてもよく、2つ以上であればよく、また、ユーザが発した順番が連続している必要はない。例えば、推定装置200は、t'-3番目,t'-1番目,t'番目の心理状態感性表現語を用いて、時刻time(t')よりも後の非固定周囲環境を推定してもよく、この場合には、学習装置100が学習する推定モデルは、t-3番目,t-1番目,t番目の心理状態感性表現語を用いて、時刻time(t)よりも後の非固定周囲環境を推定するモデルであればよい。また、推定装置200が推定する非固定周囲環境はt'番目の心理状態感性表現語に対応する時刻time(t')よりも後の非固定周囲環境であればよく、例えば、学習装置100が学習する推定モデルは、t+2番目以降の心理状態感性表現語に対応する非固定周囲環境を推定するモデルであってもよい。また、推定装置200は、時刻time(t')よりも後の2つ以上の非固定周囲環境を推定してもよく、この場合には、学習装置100が学習する推定モデルは、時刻time(t)よりも後の2つ以上の非固定周囲環境を推定するモデルであればよい。例えば、推定装置200は、t'-1番目,t'番目の心理状態感性表現語を用いて、t'+1番目、t'+2番目の非固定周囲環境を推定してもよく、この場合には、学習装置100が学習する推定モデルは、t-1番目,t番目の心理状態感性表現語を用いて、t+1番目、t+2番目の非固定周囲環境を推定するモデルであればよい。これらの推定モデルは学習次第で実現可能であり、推定装置200の利用目的やコストや推定精度を考慮して推定モデルの入力と出力とを設定すればよい。
<効果>
このような構成により、現在までの心理状態感性表現語に基づき、未来の非固定周囲環境を推定できる。
<変形例1:時刻>
第一実施形態と異なる部分を中心に説明する。
本変形例は、非固定周囲環境は過去の状態と関連性をもちながら時間変化するものであり、かつ、ある時点で発せられた心理状態感性表現語にはその時点の非固定周囲環境と関連性がある情報が含まれていることがあるため、これらの関連性を利用することで、ある時刻までに時間情報を伴って入力された心理状態感性表現語の時系列からその時刻よりも後のある時刻の非固定周囲環境を推定する。本変形例では、2つ以上の心理状態感性表現語に対応する時刻を入力として利用して推定モデルを学習し、この学習で得た推定モデルを用いて、2つ以上の心理状態感性表現語に対応する時刻を入力として利用して未来の非固定周囲環境を推定する。
<心理状態感性表現語・非固定周囲環境情報取得部120,記憶部130>
学習装置100の心理状態感性表現語・非固定周囲環境情報取得部120は、ユーザから入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)WL(t1),WL(t2),…と、そのときの非固定周囲環境に関連する情報(学習用の非固定周囲環境情報)qL(t1),qL(t2),…との入力を受け付け(S120)、対応する時刻timeL(t1),timeL(t2),…を取得し、これらの組合せを記憶部130に格納する(図2参照)。なお、対応する時刻から入力順序が分かるため、入力順序を示すインデックスtiを記憶部130に記憶する必要はないが、入力順序を示すインデックスtiを記憶部130に記憶してもよい。
対応する時刻は、ユーザがタッチパネル等の入力部を介してオノマトペの文字列と非固定周囲環境情報とを入力した時刻(入力時刻)であってもよいし、心理状態感性表現語・非固定周囲環境情報取得部120がオノマトペの文字列と非固定周囲環境情報とを受け付けた時刻(受付時刻)であってもよい。入力時刻の場合にはタッチパネル等の入力部が内蔵時計やNTPサーバ等から時刻を取得して心理状態感性表現語・非固定周囲環境情報取得部120に出力する構成とし、受付時刻の場合には例えば内蔵時計やNTPサーバ等から心理状態感性表現語・非固定周囲環境情報取得部120が受付時刻を取得する構成としてもよい。
なお、心理状態感性表現語・非固定周囲環境情報取得部120は、予め定めた時刻timeL(t1),timeL(t2),…にタッチパネル等の表示部がオノマトペの文字列と非固定周囲環境情報との入力を促すメッセージを表示して、表示したときそれぞれで、オノマトペの文字列WL(t1)とそのときの非固定周囲環境情報qL(t1)の入力を受け付けて対応する時刻timeL(t1)との組合せを記憶部130に格納する、オノマトペの文字列WL(t2)とそのときの非固定周囲環境情報qL(t2)の入力を受け付けて対応する時刻timeL(t2)との組合せを記憶部130に格納する、…という構成としてもよい。
<学習部110>
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する時刻と、対応する学習用の非固定周囲環境情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。なお、対応する時刻timeL(t1),timeL(t2),…をそのまま用いて推定モデルを学習してもよい。また、時刻timeL(t1),timeL(t2),…から前の心理状態感性表現語が発されてからの経過時間(例えば、timeL(t2)-timeL(t1),timeL(t3)-timeL(t2),…)を求め、前の心理状態感性表現語が入力されてからの経過時間を用いて推定モデルを学習してもよい。
(推定モデルの学習例1)
例えば、学習装置100は、ある時刻timeL(t)までの2つ以上の心理状態感性表現語WL(t),WL(t-1),…と、対応する時刻timeL(t),timeL(t-1),…またはその差(timeL(t)-timeL(t-1)),…と、時刻timeL(t)よりも後の非固定周囲環境情報qL(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
本変形例の学習例1の推定モデルは、推定装置200で、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語に対応する時刻またはそれらの時刻差と、を入力とし、時刻time(t')よりも後の非固定周囲環境を推定するときに用いるモデルである。
(推定モデルの学習例2)
または例えば、学習装置100は、ある時刻timeL(t)までの2つ以上の心理状態感性表現語WL(t),WL(t-1),…と、入力順序(受付順序)t,t-1,…と、時間間隔|timeL(t)-timeL(t-1)|,…と、時刻timeL(t)よりも後の非固定周囲環境情報qL(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
本変形例の学習例2の推定モデルは、推定装置200で、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語の入力順序(受付順序)と、それらの心理状態感性表現語に対応する時刻の間隔(時間間隔)と、を入力とし、時刻time(t')よりも後の非固定周囲環境を推定するときに用いるモデルである。
<心理状態感性表現語取得部220,一時記憶部230>
推定装置200の心理状態感性表現語取得部220は、複数の時刻の対象者の状態を表現するオノマトペの文字列(心理状態感性表現語)W(t'1),W(t'2),…の入力を受け付け(S220)、対応する時刻time(t'1),time(t'2),…を取得し、これらの組合せを一時記憶部230に格納する。よって、一時記憶部230には、心理状態感性表現語と対応する時刻time(t'1),time(t'2),…とが記憶される。なお、対応する時刻から入力順序(受付順序)が分かるため、入力順序(受付順序)を示すインデックスt'iを一時記憶部230に記憶する必要はないが、入力順序を示すインデックスt'iを一時記憶部230に記憶してもよい。なお、心理状態感性表現語取得部220が時刻を取得する構成は、心理状態感性表現語・非固定周囲環境情報取得部120と同様である。
<推定部210,推定モデル記憶部211>
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から2つ以上の心理状態感性表現語と、心理状態感性表現語に対応する時刻を取り出す。
(上述の学習例1の推定モデルを用いる場合の推定例)
本変形例の学習例1の推定モデルを用いる場合には、推定装置200の推定部210は、必要に応じて対応する時刻から時刻差を求め、推定モデル記憶部211に予め記憶した学習済みの学習例1の推定モデルを用いて、2つ以上の対象者の心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻またはそれらの時刻差とから、対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
(上述の学習例2の推定モデルを用いる場合の推定例)
本変形例の学習例2の推定モデルを用いる場合には、推定装置200の推定部210は、対応する時刻から入力順序(受付順序)と時間間隔とを求め、推定モデル記憶部211に予め記憶した学習済みの学習例2の推定モデルを用いて、2つ以上の対象者の心理状態感性表現語と、それぞれの心理状態感性表現語の入力順序(受付順序)とそれらの心理状態感性表現語に対応する時刻の時間間隔とから、対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
なお、入力順序(受付順序)を示すインデックスt'iが一時記憶部230に記憶されている場合には、時刻から入力順序(受付順序)を求めずに、一時記憶部230に記憶されている入力順序(受付順序)を示すインデックスt'iをそのまま用いればよい。
このような構成により、第一実施形態と同様の効果を得ることができる。さらに、時刻を考慮することでより正確に非固定周囲環境を推定できる。
<変形例2:複数人>
変形例1と異なる部分を中心に説明する。
ある時点である人から発せられた心理状態感性表現語は、その時点のその人の非固定周囲環境と関連性がある情報が含まれていることがあるものの、その時点のその人の気分に依存する部分が大きい。また、同じ非固定周囲環境にあったとしても、気分は人それぞれで異なる。すなわち、同じ非固定周囲環境にいるより多数の人が発した心理状態感性表現語を利用して学習と推定を行えば、個々の人の気分の影響がより少なく、非固定周囲環境の時間変化との関連性がより高い、学習と推定をできると想定される。そこで、本変形例では、複数の対象者が発した、時刻time(t)までの時刻順の心理状態感性表現語を入力とし、時刻time(t)よりも後の非固定周囲環境情報を推定する。なお、個々の人の気分の影響をより少なくし、非固定周囲環境の時間変化との関連性をより高めるためには、人数は多ければ多いほどよい。ただし、位置が同じであれば同じになる非固定周囲環境(気象情報等)を推定の対象とする場合には、同じ位置(都道府県、市町村、半径何キロ以内、など)にいる人であるほうがよい。
ここで、気分とは、"mood"であり、「元気(気力)がある・元気(気力)がない」、「快・不快」、「緊張・リラックス」、「安心・不安」、「ポジティブ・ネガティブ」、「満足・不満」、「冷静・焦燥」、喜び、悲しみ、怒り等で表される、感情の状態を意味する。例えば、同じ非固定周囲環境にあったとしても、多数の人の中には、元気がある人もいれば、元気がない人もいるが、多数の人が発した心理状態感性表現語を利用することで、各対象者の元気の有無や度合いとの関連性がより低く、非固定周囲環境の時間変化との関連性がより高い、学習と推定をすることができる。
心理状態感性表現語を利用する人数をある程度多くすれば、個々の気分の影響をほとんど受けずに、未来の非固定周囲環境を推定することができると想定される。よって、ここでいう多数とは、気分の影響を無視することができる程度に多いことを意味する。
<心理状態感性表現語・非固定周囲環境情報取得部120,記憶部130>
学習装置100の心理状態感性表現語・非固定周囲環境情報取得部120は、複数のユーザから、入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)と、そのときの非固定周囲環境に関連する情報(学習用の非固定周囲環境情報)との入力を受け付け(S120)、対応する時刻を取得し、これらの組合せを記憶部130に格納する(図2参照)。対応する時刻は、ユーザ間での時刻のずれが少ないほうがよいので、NTPサーバ等から取得するようにすればよい。また、心理状態感性表現語と非固定周囲環境情報と時刻の組合せは、入力したユーザを区別することなく記憶部130に格納してよく、全てのユーザにおける入力順序を示すインデックスをtiとすると、例えば、心理状態感性表現語WL(ti)と非固定周囲環境情報qL(ti)と時刻timeL(ti)との組合せを、{WL(t1), qL(t1), timeL(t1)}, {WL(t2), qL(t2), timeL(t2)},…のように記憶部130に格納すればよい。位置が同じであれば同じになる非固定周囲環境(気象情報等)を対象とする場合には、心理状態感性表現語・非固定周囲環境情報取得部120は、所定の同じ位置にいる複数のユーザから心理状態感性表現語と非固定周囲環境情報の入力を受け付けるか、入力を受け付けた複数のユーザのうちの所定の同じ位置にいる複数のユーザから入力を受け付けた心理状態感性表現語と非固定周囲環境情報と対応する時刻との組合せを記憶部130に格納すればよい。なお、入力順序を示すインデックスtiを記憶部130に記憶する必要はないが、入力順序を示すインデックスtiを記憶部130に記憶してもよい。本変形例の場合には、複数のユーザによる同時刻の入力が発生することもあるが、インデックスti自体に技術的な意味があるわけではないので、同時刻の入力については記憶部130に格納する順をインデックスtiとすればよい。
<学習部110>
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する時刻と、対応する学習用の非固定周囲環境情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。なお、対応する時刻timeL(t1),timeL(t2),…をそのまま用いて推定モデルを学習してもよい。また、時刻timeL(t1),timeL(t2),…から所定の時刻timeL(t0)からの経過時間(例えば、timeL(t1)-timeL(t0),timeL(t2)-timeL(t0),timeL(t3)-timeL(t0),…)を求め、所定の時刻からの経過時間を用いて推定モデルを学習してもよい。
(推定モデルの学習例)
例えば、学習装置100は、複数のユーザが発した、ある時刻timeL(t)までの心理状態感性表現語WL(t),WL(t-1),…と、対応する時刻timeL(t),timeL(t-1),…または所定の時刻からの経過時間(timeL(t)-timeL(t0)), (timeL(t-1)-timeL(t0)),…と、時刻timeL(t)よりも後の非固定周囲環境情報qL(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
本変形例の学習例の推定モデルは、推定装置200で、複数の対象者が発した、時刻time(t')までの心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を入力とし、時刻time(t')よりも後の非固定周囲環境を推定するときに用いるモデルである。
<推定部210,推定モデル記憶部211>
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から多数の心理状態感性表現語と、心理状態感性表現語に対応する時刻を取り出す。
(上述の学習例の推定モデルを用いる場合の推定例)
本変形例の学習例の推定モデルを用いる場合には、推定装置200の推定部210は、必要に応じて対応する時刻から所定の時刻からの経過時間を求め、推定モデル記憶部211に予め記憶した学習済みの学習例の推定モデルを用いて、多数の対象者が発した多数の心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻または所定の時刻からの経過時間とから、対象者の未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
<変形例3:時刻>
変形例1と異なる部分を中心に説明する。
本変形例は、非固定周囲環境に対応する時刻も用いて推定モデルの学習を行い、この学習をした推定モデルを用いることで、推定した未来の非固定周囲環境がどの程度後のものであるかも推定したり、指定した未来の時刻の非固定周囲環境を推定したりするものである。
<学習部110>
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する学習用の非固定周囲環境情報と、学習用の心理状態感性表現語に対応する時刻と学習用の非固定周囲環境情報に対応する時刻とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。例えば、学習装置100は、時刻timeL(t)までの時刻順の2つ以上の心理状態感性表現語と、時刻timeL(t)よりも後の時刻である時刻timeL(t+1)の非固定周囲環境と、時刻timeL(t)と時刻timeL(t+1)またはその差timeL(t+1)-timeL(t)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
なお、本変形例の推定モデルは、推定装置200が、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語を入力とし、時刻time(t')よりも後の非固定周囲環境とその後の非固定周囲環境に対応する時刻を推定するときに用いるモデル、または、推定装置200が、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、未来の時刻と、を入力とし、未来の時刻における非固定周囲環境を推定するときに用いるモデル、である。
<推定部210,推定モデル記憶部211>
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から2つ以上の心理状態感性表現語W(t'),W(t'-1),…と、対応する時刻time(t')を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の対象者の心理状態感性表現語から対象者の未来の非固定周囲環境とその非固定周囲環境に対応する時刻を推定し(S210)、推定結果を出力する。すなわち、どの程度未来の非固定周囲環境であるかを、非固定周囲環境の推定結果と合わせて出力する。または、推定部210に図示しない入力手段を備えて、未来の時刻の入力、すなわち、どの程度未来の非固定周囲環境の推定結果を得たいかの指定を受け付けるようにして、推定装置200がどの程度未来の非固定周囲環境の推定結果を得るかを推定装置200の利用者が指定して、推定部210が指定内容に合う未来の非固定周囲環境を推定してもよい。
このような構成により、第一実施形態と同様の効果を得ることができる。さらに、心理状態感性表現語W(t')に対応する時刻time(t')からどの程度未来の非固定周囲環境かを考慮することができる。
<変形例1と変形例3との組合せ>
なお、変形例1と変形例3とを組合せてもよい。変形例1と変形例3との組合せの推定モデルは、例えば以下のようなモデルとなる。
(組合せ例1)
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語に対応する時刻またはそれらの時間差と、を入力とし、時刻time(t')よりも後の非固定周囲環境とその後の非固定周囲環境に対応する時刻を推定するモデルである。
(組合せ例2)
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語に対応する時刻またはそれらの時間差と、未来の時刻と、を入力とし、未来の時刻における非固定周囲環境を推定するモデル、である。
(組合せ例3)
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語の入力順序(受付順序)と、それらの心理状態感性表現語に対応する時刻の間隔(時間間隔)と、を入力とし、時刻time(t')よりも後の非固定周囲環境とその後の非固定周囲環境に対応する時刻を推定するモデルである。
(組合せ例4)
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語の入力順序(受付順序)と、それらの心理状態感性表現語に対応する時刻の間隔(時間間隔)と、未来の時刻と、を入力とし、未来の時刻における非固定周囲環境を推定するモデル、である。
変形例1と変形例3との組合せの推定装置200は、これらのうちの何れかの推定モデルを推定モデル記憶部211に予め記憶しておき、推定部210が、対象者の未来の非固定周囲環境とその非固定周囲環境に対応する時刻、または、指定された未来の時刻の対象者の非固定周囲環境、を推定結果として得て出力する。
<変形例2と変形例3との組合せ>
なお、変形例2と変形例3とを組合せてもよい。変形例2と変形例3との組合せの推定モデルは、例えば以下のようなモデルとなる。
(組合せ例1)
推定モデルは、時刻time(t')までの複数の対象者が発した心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を入力とし、時刻time(t')よりも後の非固定周囲環境とその後の非固定周囲環境に対応する時刻を推定するモデルである。
(組合せ例2)
推定モデルは、時刻time(t')までの複数の対象者が発した心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、未来の時刻と、を入力とし、未来の時刻における非固定周囲環境を推定するモデル、である。
変形例2と変形例3との組合せの推定装置200は、これらのうちの何れかの推定モデルを推定モデル記憶部211に予め記憶しておき、推定部210が、未来の非固定周囲環境とその非固定周囲環境に対応する時刻、または、指定された未来の時刻の非固定周囲環境、を推定結果として得て出力する。
<変形例4:他の情報>
ある時刻までの2つ以上の心理状態感性表現語に加えて、ある時刻までの他の情報を考慮することで、ある時刻よりも後の非固定周囲環境の推定精度を高めることができる。例えば、他の情報として、固定周囲環境情報、不定周囲環境情報、体験情報、生体情報、その他の気分に影響を与える情報が考えられる。2つ以上の心理状態感性表現語と非固定周囲環境情報に加えて、これらの情報を与えて推定モデルを学習し、この学習で得た推定モデルを用いて、2つ以上の心理状態感性表現語にこれらの情報を与えて非固定周囲環境を推定する。
<学習装置100>
学習装置100は、学習部110と、心理状態感性表現語・非固定周囲環境情報取得部120と、記憶部130に加えて、固定周囲環境取得部141と、不定周囲環境取得部142と、体験情報取得部150と、生体情報取得部170との少なくとも何れかを含む(図2参照)。
<推定装置200>
推定装置200は、推定部210と、心理状態感性表現語取得部220と、一時記憶部230に加えて、固定周囲環境取得部241と、不定周囲環境取得部242と、体験情報取得部250と、生体情報取得部270との少なくとも何れかを含む(図6参照)。
<固定周囲環境取得部141,241>
固定周囲環境取得部141は、固定周囲環境に関連する情報pL(t)を取得し(S141)、記憶部130に格納する。
同様に、固定周囲環境取得部241は、固定周囲環境に関連する情報p(t')を取得し(S241)、一時記憶部230に格納する。
なお、前述の通り、「固定周囲環境」は、対象者の周囲環境であって、場所によって一意に定まる環境であって、時間の変化に応じて変化しない環境である。
例えば、固定の周囲環境の気分への影響にも対応できるように、推定モデルを学習し、この学習で得た推定モデルを用いて非固定周囲環境を推定する。例えば、とある施設に入る前後に入力されたオノマトペとその施設内にいるか否かを示す2つの固定の周囲環境に関連する情報からその後の非固定周囲環境を推定する。
例えば、固定周囲環境取得部141,241は、GPS機能と、位置情報と固定の周囲環境とを紐付けたデータベースとを備え、GPS機能により位置情報を得、データベースから位置情報に紐づけられた固定の周囲環境に関連する情報を取得する。また、心理状態感性表現語・非固定周囲環境情報取得部120,心理状態感性表現語取得部220と同様に、学習装置100のユーザ、推定装置200の利用者が入力してもよい。
<不定周囲環境取得部142,242>
不定周囲環境取得部142は、不定周囲環境に関連する情報(学習用の不定周囲環境情報)q'L(t1),q'L(t2),…を取得し(S142)、記憶部130に格納する。なお、不定周囲環境情報q'とは、非固定周囲環境情報qとは異なる非固定周囲環境情報である。例えば、非固定周囲環境情報qを雨量とする場合には、不定周囲環境情報q'を気温とするなどとしてもよい。
同様に、不定周囲環境取得部242は、不定周囲環境に関連する情報(不定周囲環境情報)q'(t')を取得し(S242)、一時記憶部230に格納する。
不定周囲環境の気分への影響にも対応できるように、推定モデルを学習し、この学習で得た推定モデルを用いて非固定周囲環境を推定する。例えば、気温の変化の前後に入力されたオノマトペと、気温を示す2つの不定周囲環境に関連する情報からその後の非固定周囲環境(雨量等)を推定する。
例えば、不定周囲環境取得部142,242は、気温を取得するセンサを含み、気温を取得してもよい。また、心理状態感性表現語・不定周囲環境情報取得部120,心理状態感性表現語取得部220と同様に、学習装置100のユーザ、推定装置200の利用者が入力してもよい。
<体験情報取得部150,250>
体験情報取得部150は、ユーザの体験に関連する体験情報EL(t)を取得し(S150)、記憶部130に格納する。
同様に、体験情報取得部250は、対象者の体験に関連する体験情報E(t')を取得し(S250)、一時記憶部230に格納する。
例えば、体験情報とは、ある食べ物を食べた体験や、ある音楽を聴いた体験、あるゲームをやった体験の有無を示す情報等が考えられる。例えば、体験情報の気分への影響にも対応できるように、推定モデルを学習し、この学習で得た推定モデルを用いて非固定周囲環境を推定する。例えば、音楽ライブ前後に入力されたオノマトペと、ライブ体験の有無を示す2つの体験情報からその後の非固定周囲環境を推定する。
例えば、体験情報取得部150,250は、GPS機能と、位置情報と所定の体験を提供する施設(レストランやライブ会場、アトラクション施設等)とを紐付けたデータベースとを備え、GPS機能により位置情報を得、データベースから位置情報に紐づけられた施設で提供する所定の体験を示す情報を取得する。また、心理状態感性表現語・非固定周囲環境情報取得部120,心理状態感性表現語取得部220と同様に、学習装置100のユーザ、推定装置200の利用者が入力してもよい。
<生体情報取得部170,270>
生体情報取得部170は、ユーザの生体情報BL(t)を取得し(S170)、記憶部130に格納する。
同様に生体情報取得部270は、対象者の生体情報B(t')を取得し(S270)、一時記憶部230に格納する。
例えば、生体情報とは、心拍、呼吸、表情を示す情報等が考えられる。例えば、生体情報の気分への影響にも対応できるように、推定モデルを学習し、非固定周囲環境を推定する。例えば、心拍、呼吸の変化から非固定周囲環境を推定する。また、「ドキドキ」する等がオノマトペが得られているが、心拍、呼吸には変化がない場合または変化がある場合に、時刻time(t+1)の非固定周囲環境にどのような影響を与えるか等を学習し、非固定周囲環境を推定する。
例えば、生体情報取得部170,270は、生体情報を取得する機能を備え、生体情報を取得する。生体情報取得部170,270は、例えば、hitoe(登録商標)等のウェアラブルディバイスと対応するアプリケーションとを備え、対象者の生体情報を取得する。
<学習部110>
学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の非固定周囲環境情報と、以下の(i)~(iv)とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、それに対応する学習用の非固定周囲環境情報と、(i)~(iv)とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。
(i)心理状態感性表現語の入力時の入力者の、場所によって一意に定まる固定の周囲環境に関連する情報
(ii)心理状態感性表現語の入力時の入力者の、場所によって一意に定まらない周囲環境、すなわち、時間の変化に応じて変化する周囲環境、に関連する情報であり、非固定周囲環境情報以外の情報
(iii)心理状態感性表現語の入力時の入力者の体験に関連する体験情報
(iv)心理状態感性表現語の入力時の入力者の生体情報
なお、(i)~(iv)の全てを用いて学習する必要はなく、推定に必要な情報を取得し、記憶し、それに基づき学習すればよい。(i)~(iv)の少なくとも1つ以上の時系列を用いればよい。
本変形例の推定モデルは、推定装置200が、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、その心理状態感性表現語に対応する(i)~(iv)の少なくとも1つ以上の時系列とを入力として、時刻time(t')よりも後の非固定周囲環境を推定するときに用いるモデルである。
<推定部210,推定モデル記憶部211>
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定部210は、一時記憶部230から2つ以上の心理状態感性表現語と、上述の学習部110で学習に利用した(i)~(iv)の少なくとも1つ以上と、を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の心理状態感性表現語と(i)~(iv)の少なくとも1つ以上とから未来の非固定周囲環境を推定し(S210)、推定結果を出力する。
<効果>
このような構成により、第一実施形態と同様の効果を得ることができる。さらに、(i)~(iv)の少なくとも1つ以上を考慮することでより正確に非固定周囲環境を推定できる。なお、本変形例と変形例1~3とを組合せてもよい。
なお、本変形例では、固定周囲環境取得部、不定周囲環境取得部、体験情報取得部、生体情報取得部において各情報を取得するタイミングを、心理状態感性表現語・非固定周囲環境情報取得部や心理状態感性表現語取得部において心理状態感性表現語を取得するタイミングと同じものとして説明したが、各取得部毎に異なるタイミングであってもよい。心理状態感性表現語を取得するタイミングに最も近いタイミングの各情報を用いたり、不足した情報を補完してもよいし、過剰な情報を間引いてもよい。
<変形例5>
第一実施形態では、学習装置100のユーザ、推定装置200の利用者がオノマトペの文字列を入力することとして説明をしたが、文字列そのものを入力することに限られるものではない。
例えば、オノマトペに1対1で対応付けられたイラストや画像等を入力することとしても良い。この場合、オノマトペとイラストや画像等とを対応付けたデータベースを備え、イラストや画像等を入力とし、それに対応するオノマトペの文字列をデータベースから取り出してもよい。
また、例えば、対象者の発話を音声認識した結果に含まれるオノマトペの文字列を自動抽出することで、オノマトペの文字列の入力を受け付けても良い。例えば、オノマトペの文字列に代えて、音声信号を入力とし、図示しない音声認識部で音声認識処理を行い、音声認識結果を得、その中からオノマトペの文字列を抽出し、出力してもよい。例えば、対象とするオノマトペの文字列を記憶したデータベースを備え、このデータベースを参照して、音声認識結果からオノマトペの文字列を抽出する。
さらに、推定フェーズでは、例えば、対象者がメールを作成したり、webへ投稿するコメントを作成したりする際に入力したテキスト文字列中からオノマトペの文字列を自動抽出したものを入力として用いたり、対象者が携帯電話等で話をする際の対象者の声を音声認識した結果からオノマトペの文字列を自動抽出したものを入力として用いてもよい。
さらに、学習フェーズでは、対象者であるかどうかに限らず、同じ人から発せられた時系列のもの(メールを作成したり、webへ投稿するコメントを作成したりする際に入力したテキスト文字列、音声認識結果)であって、オノマトペと非固定周囲環境の言葉とが両方でてくるものが時系列的に行われていれば、これを使って学習することができる。
なお、本変形例と変形例1~4とを組合せてもよい。
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
上述の各種の処理は、図9に示すコンピュータの記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (6)

  1. 同じ場所にいる複数人から発せられた学習用の心理状態感性表現語WL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの学習用の時刻timeL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である学習用の非固定周囲環境情報qL(ti)と、を少なくとも記憶する記憶部と、
    同じ場所にいる複数人から発せられた時刻timeL(t)までの複数の学習用の心理状態感性表現語WL(t),WL(t-1),…と、それぞれの学習用の当該心理状態感性表現語WL(t),WL(t-1),…に対応する学習用の時刻timeL(t),timeL(t-1),…または所定の時刻timeL(t0)からの経過時間(timeL(t)-timeL(t0)), (timeL(t-1)-timeL(t0)),…と、前記時刻timeL(t)よりも後の非固定周囲環境を示す学習用の非固定周囲環境情報qL(t+1)とを少なくとも含む組合せを1つの学習データとして、複数の学習データを用いて、同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の非固定周囲環境を推定する推定モデルを学習する学習部とを含み、
    前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
    学習装置。
  2. 同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である非固定周囲環境を推定する推定モデルを用いて、同じ場所にいる複数人から発せられた複数の心理状態感性表現語W(t'),W(t'-1),…と、それぞれの当該心理状態感性表現語W(t'),W(t'-1),…に対応する時刻time(t'),time(t'-1),…または所定の時刻time(t'0)からの経過時間(time(t')-time(t'0)), (time(t'-1)-time(t'0)),…と、に少なくとも基づいて、未来の非固定周囲環境q(t'+1)を推定する推定部を含み、
    前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
    推定装置。
  3. 記憶部には、同じ場所にいる複数人から発せられた学習用の心理状態感性表現語WL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの学習用の時刻timeL(ti)と、学習用の当該心理状態感性表現語WL(ti)を発したときの、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である学習用の非固定周囲環境情報qL(ti)と、が少なくとも記憶されるものとし、
    同じ場所にいる複数人から発せられた時刻timeL(t)までの複数の学習用の心理状態感性表現語WL(t),WL(t-1),…と、それぞれの学習用の当該心理状態感性表現語WL(t),WL(t-1),…に対応する学習用の時刻timeL(t),timeL(t-1),…または所定の時刻timeL(t0)からの経過時間(timeL(t)-timeL(t0)), (timeL(t-1)-timeL(t0)),…と、前記時刻timeL(t)よりも後の非固定周囲環境を示す学習用の非固定周囲環境情報qL(t+1)とを少なくとも含む組合せを1つの学習データとして、複数の学習データを用いて、同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の非固定周囲環境を推定する推定モデルを学習する学習ステップを含み、
    前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
    学習方法。
  4. 同じ場所にいる複数人から発せられたある時刻までの複数の心理状態感性表現語と、それぞれの当該心理状態感性表現語に対応する時刻または所定の時刻からの経過時間と、を少なくとも入力とし、前記ある時刻よりも後の、場所によって一意に定まらない周囲環境である非固定周囲環境に関連する情報である非固定周囲環境を推定する推定モデルを用いて、同じ場所にいる複数人から発せられた複数の心理状態感性表現語W(t'),W(t'-1),…と、それぞれの当該心理状態感性表現語W(t'),W(t'-1),…に対応する時刻time(t'),time(t'-1),…または所定の時刻time(t'0)からの経過時間(time(t')-time(t'0)), (time(t'-1)-time(t'0)),…と、に少なくとも基づいて、未来の非固定周囲環境を推定する推定ステップを含み、
    前記複数人とは、個々の人の気分の影響を無視することができる程度に多いものであり、前記推定モデルは機械学習により学習されたものである、
    推定方法。
  5. 請求項1の学習装置としてコンピュータを機能させるためのプログラム。
  6. 請求項2の推定装置としてコンピュータを機能させるためのプログラム。
JP2021546163A 2019-09-20 2019-09-20 学習装置、推定装置、それらの方法、およびプログラム Active JP7310901B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/037059 WO2021053823A1 (ja) 2019-09-20 2019-09-20 学習装置、推定装置、それらの方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2021053823A1 JPWO2021053823A1 (ja) 2021-03-25
JP7310901B2 true JP7310901B2 (ja) 2023-07-19

Family

ID=74884443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021546163A Active JP7310901B2 (ja) 2019-09-20 2019-09-20 学習装置、推定装置、それらの方法、およびプログラム

Country Status (3)

Country Link
US (1) US20230342549A1 (ja)
JP (1) JP7310901B2 (ja)
WO (1) WO2021053823A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049773A (ja) 2003-07-31 2005-02-24 Denso Corp 音楽再生装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049773A (ja) 2003-07-31 2005-02-24 Denso Corp 音楽再生装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
坂本 真樹 Maki SAKAMOTO,オノマトペによる感性の定量化 -‘もの’と感性をつなぐ技術へ-,電子情報通信学会誌,日本,一般社団法人電子情報通信学会,2017年11月01日,第100巻 第11号,pp.1193-1198
馬賀 嵩士 外3名,気象情報とTweetデータの統合的分析による体感気温の定量化とその需要予測への利用に関する一考察,第39回情報理論とその応用シンポジウム予稿集 [CD-ROM],日本,電子情報通信学会基礎・境界ソサイエティ 情報理論とその応用サブソサイエティ,2016年12月16日,pp.567-572,CSNJ201710019102

Also Published As

Publication number Publication date
WO2021053823A1 (ja) 2021-03-25
US20230342549A1 (en) 2023-10-26
JPWO2021053823A1 (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
US10977452B2 (en) Multi-lingual virtual personal assistant
US10762892B2 (en) Rapid deployment of dialogue system
CN112119454B (zh) 适应多个年龄组和/或词汇水平的自动助理
US10884503B2 (en) VPA with integrated object recognition and facial expression recognition
US20200097814A1 (en) Method and system for enabling interactive dialogue session between user and virtual medical assistant
CN110998725B (zh) 在对话中生成响应
US20170148430A1 (en) Method and device for recognition and method and device for constructing recognition model
KR20190125153A (ko) 텍스트 기반 사용자심리상태예측 및 콘텐츠추천 장치 및 그 방법
US20200104670A1 (en) Electronic device and method of obtaining emotion information
CN114391143A (zh) 用于提供对话服务的电子设备和方法
EP3820369B1 (en) Electronic device and method of obtaining emotion information
US20210217409A1 (en) Electronic device and control method therefor
US20200020327A1 (en) Method and apparatus for recognizing a voice
US20200183928A1 (en) System and Method for Rule-Based Conversational User Interface
US20200143809A1 (en) Electronic apparatus and control method thereof
Al-Dujaili et al. Speech emotion recognition: a comprehensive survey
US11657237B2 (en) Electronic device and natural language generation method thereof
US11514894B2 (en) Adaptively modifying dialog output by an artificial intelligence engine during a conversation with a customer based on changing the customer's negative emotional state to a positive one
US11763690B2 (en) Electronic apparatus and controlling method thereof
US20220059088A1 (en) Electronic device and control method therefor
CN106951433A (zh) 一种检索方法及装置
CN111949773A (zh) 一种阅读设备、服务器以及数据处理的方法
JP7310901B2 (ja) 学習装置、推定装置、それらの方法、およびプログラム
JP7188601B2 (ja) 学習装置、推定装置、それらの方法、およびプログラム
WO2022190257A1 (ja) 学習装置、推定装置、それらの方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7310901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150