JP7188601B2 - 学習装置、推定装置、それらの方法、およびプログラム - Google Patents
学習装置、推定装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- JP7188601B2 JP7188601B2 JP2021538581A JP2021538581A JP7188601B2 JP 7188601 B2 JP7188601 B2 JP 7188601B2 JP 2021538581 A JP2021538581 A JP 2021538581A JP 2021538581 A JP2021538581 A JP 2021538581A JP 7188601 B2 JP7188601 B2 JP 7188601B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- time
- mood
- person
- facial expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 13
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000036651 mood Effects 0.000 claims description 194
- 230000014509 gene expression Effects 0.000 claims description 176
- 230000035945 sensitivity Effects 0.000 claims description 77
- 230000006870 function Effects 0.000 claims description 53
- 230000008921 facial expression Effects 0.000 claims description 46
- 230000002996 emotional effect Effects 0.000 claims description 37
- 238000004891 communication Methods 0.000 claims description 35
- 238000001514 detection method Methods 0.000 claims description 18
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000006996 mental state Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 25
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 206010027940 Mood altered Diseases 0.000 description 3
- 230000007510 mood change Effects 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/12—Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Developmental Disabilities (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Tourism & Hospitality (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Marketing (AREA)
- Fuzzy Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Mathematical Physics (AREA)
Description
図1は第一実施形態に係る推定システムの構成例を示す。
図3は第一実施形態に係る学習装置100の機能ブロック図を、図4はその処理フローを示す。
心理状態感性表現語・気分情報取得部120は、ユーザ(データ取得の対象者)から入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)WL(t1),WL(t2),…と、そのときの気分を示す気分情報(学習用の気分情報)ML(t1),ML(t2),…との入力を受け付け(S120)、記憶部130に格納する。よって、記憶部130には、学習用の心理状態感性表現語WL(t1),WL(t2),…と、学習用の気分情報ML(t1),ML(t2),…とが記憶される。図5は、記憶部130に格納されたデータの例を示す。なお、データはユーザからの入力順(すなわち、ユーザが入力した時刻順)に格納されるものとする。別の言い方をすると、データは、心理状態感性表現語・気分情報取得部120が受け付けた順に格納されるものとする。図5の例では、ユーザからの入力順序(心理状態感性表現語・気分情報取得部120の受付順序)を示すインデックスtiが一緒に記憶されているが、記憶される配置等からユーザからの入力順序(心理状態感性表現語・気分情報取得部120の受付順序)が分かる場合にはインデックスtiを記憶しなくともよい。
(1)快である状態を4とし、不快である状態を-4とする9段階で気分の快・不快度合いを表したもの
(2)怒っている状態を4とし、怒っていない状態を0とする5段階で怒り度合いを表したもの
(3)やる気に溢れている状態を4とし、やる気が出ない状態を0とする5段階で気力度合いを表したもの
等、予め設定した尺度を複数の段階(上述の例では9段階や5段階)で表現したものである。
学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の気分情報とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、それに対応する学習用の気分情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。
ある時刻までの時刻順の2つ以上のオノマトペ(文字列)とその時刻よりも後の気分情報とを対応付けたもの(例えば、テーブルやリスト)を推定モデルとして用いる。テーブルやリスト中の各気分情報は、例えば、学習用データ中のあるオノマトペに対して各人が付与した気分情報の代表値(平均値や中央値等)を用いる。
この例では、推定モデルは、学習用のある時刻までの時刻順の2つ以上のオノマトペとその時刻よりも後の学習用の気分情報とに基づきニューラルネットワーク等の機械学習により学習されたモデルである。例えば、ある時刻までの時刻順の2つ以上のオノマトペ(文字列)を入力とし、その時刻よりも後の気分情報を出力するようなニューラルネットワークを推定モデルとして用いる。この場合は、予め適当な初期値を設定したニューラルネットワークに、学習用データ中のある時刻までの時刻順の2つ以上のオノマトペ(文字列)を入力して得られる気分情報の推定結果が、学習用データ中のその時刻よりも後の気分情報に近づくように、ニューラルネットワークのパラメータを繰り返し更新することにより、推定モデルを学習させる。なお、1つのオノマトペに対して複数の気分情報を入力した学習用データを用いる場合は、推定モデルの出力も複数の気分情報のリスト(組)として、学習をさせてもよい。
図6は第一実施形態に係る推定装置200の機能ブロック図を、図7はその処理フローを示す。
心理状態感性表現語取得部220は、推定装置200の利用者から複数の時刻time(t'1), time(t'2),…の対象者の状態を表現するオノマトペの文字列(心理状態感性表現語)W(t'1),W(t'2),…の入力を受け付け(S220)、一時記憶部230に格納する。なお、推定装置200の利用者(気分を推定するもの)と、対象者(気分を推定されるもの)とは、同じ人物であってもよいし(自分で自分の気分を推定する)、異なる人物であってもよい。一時記憶部230は心理状態感性表現語を記憶し、図8は一時記憶部230に格納されたデータの例を示す。図8Aは2つの時刻の心理状態感性表現語W(t'1),W(t'2)の入力を受け付けた場合の例であり、図8Bは5つの時刻の心理状態感性表現語W(t'1),…,W(t'5)の入力を受け付けた場合の例である。なお、データは利用者からの入力順、すなわち、心理状態感性表現語取得部220が受け付けた順に格納されるものとする。なお、図8の例では、入力順序(受付順序)を示すインデックスt'iが一緒に記憶されているが、記憶される配置等から入力順序(受付順序)が分かる場合にはインデックスt'iを記憶しなくともよい。
推定モデル記憶部211には、学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定部210は、一時記憶部230から2つ以上の心理状態感性表現語を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の対象者の心理状態感性表現語とその入力順序(受付順序)とから対象者の未来の気分を推定し(S210)、推定結果を出力する。なお、推定部210は、推定モデルにおいて未来の気分を推定するために必要な心理状態感性表現語を一時記憶部230から取り出せばよく、必要な心理状態感性表現語は推定モデルの学習方法によって特定される。
このような構成により、現在までの心理状態感性表現語に基づき、未来の気分を推定できる。
第一実施形態と異なる部分を中心に説明する。
学習装置100の心理状態感性表現語・気分情報取得部120は、ユーザから入力時のユーザ自身の状態を表現するオノマトペの文字列(学習用の心理状態感性表現語)WL(t1),WL(t2),…と、そのときの気分を示す気分情報(学習用の気分情報)ML(t1),ML(t2),…との入力を受け付け(S120)、対応する時刻timeL(t1),timeL(t2),…を取得し、これらの組合せを記憶部130に格納する(図3参照)。なお、対応する時刻から入力順序が分かるため、入力順序を示すインデックスtiを記憶部130に記憶しないが、入力順序を示すインデックスtiを記憶部130に記憶してもよい。
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の気分情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する時刻と、対応する学習用の気分情報とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。なお、対応する時刻timeL(t1),timeL(t2),…をそのまま用いて推定モデルを学習してもよい。また、時刻timeL(t1),timeL(t2),…から前の心理状態感性表現語が発されてからの経過時間(例えば、timeL(t2)-timeL(t1),timeL(t3)-timeL(t2),…)を求め、前の心理状態感性表現語が入力されてからの経過時間を用いて推定モデルを学習してもよい。
例えば、学習装置100は、ある時刻timeL(t)までの2つ以上の心理状態感性表現語WL(t),WL(t-1),…と、対応する時刻timeL(t),timeL(t-1),…またはその差(timeL(t)-timeL(t-1)),…と、時刻timeL(t)よりも後の気分情報ML(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
または例えば、学習装置100は、ある時刻timeL(t)までの2つ以上の心理状態感性表現語WL(t),WL(t-1),…と、入力順序(受付順序)t,t-1,…と、時間間隔|timeL(t)-timeL(t-1)|,…と、時刻timeL(t)よりも後の気分情報ML(t+1)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
推定装置200の心理状態感性表現語取得部220は、複数の時刻の対象者の状態を表現するオノマトペの文字列(心理状態感性表現語)W(t'1),W(t'2),…の入力を受け付け(S220)、対応する時刻time(t'1),time(t'2),…を取得し、これらの組合せを一時記憶部230に格納する。よって、一時記憶部230には、心理状態感性表現語と対応する時刻time(t'1),time(t'2),…とが記憶される。なお、対応する時刻から入力順序(受付順序)が分かるため、入力順序(受付順序)を示すインデックスt'iを一時記憶部230に記憶しないが、入力順序を示すインデックスt'iを一時記憶部230に記憶してもよい。
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から2つ以上の心理状態感性表現語と、心理状態感性表現語に対応する時刻を取り出す。
本変形例の学習例1の推定モデルを用いる場合には、推定装置200の推定部210は、必要に応じて対応する時刻から時刻差を求め、推定モデル記憶部211に予め記憶した学習済みの学習例1の推定モデルを用いて、2つ以上の対象者の心理状態感性表現語と、それぞれの心理状態感性表現語に対応する時刻またはそれらの時刻差とから、対象者の未来の気分を推定し(S210)、推定結果を出力する。
本変形例の学習例2の推定モデルを用いる場合には、推定装置200の推定部210は、対応する時刻から入力順序(受付順序)と時間間隔とを求め、推定モデル記憶部211に予め記憶した学習済みの学習例2の推定モデルを用いて、2つ以上の対象者の心理状態感性表現語と、それぞれの心理状態感性表現語の入力順序(受付順序)とそれらの心理状態感性表現語に対応する時刻の時間間隔とから、対象者の未来の気分を推定し(S210)、推定結果を出力する。
変形例1と異なる部分を中心に説明する。
学習装置100の学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の気分情報と対応する時刻とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、学習用の心理状態感性表現語に対応する学習用の気分情報と、学習用の心理状態感性表現語に対応する時刻と学習用の気分情報に対応する時刻とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。例えば、学習装置100は、時刻timeL(t)までの時刻順の2つ以上の心理状態感性表現語と、時刻timeL(t)よりも後の時刻である時刻timeL(t+1)の気分と、時刻timeL(t)と時刻timeL(t+1)またはその差timeL(t+1)-timeL(t)との組合せを1組の学習用データとし、大量の学習用データを用いて、推定モデルを学習する。
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定装置200の推定部210は、一時記憶部230から2つ以上の心理状態感性表現語W(t'),W(t'-1),…と、対応する時刻time(t')を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の対象者の心理状態感性表現語から対象者の未来の気分とその気分に対応する時刻を推定し(S210)、推定結果を出力する。すなわち、どの程度未来の気分であるかを、気分の推定結果と合わせて出力する。または、推定部210に図示しない入力手段を備えて、未来の時刻の入力、すなわち、どの程度未来の気分の推定結果を得たいかの指定を受け付けるようにして、推定装置200がどの程度未来の気分の推定結果を得るかを推定装置200の利用者が指定して、推定部210が指定内容に合う未来の気分を推定してもよい。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語に対応する時刻またはそれらの時間差と、を入力とし、時刻time(t')よりも後の気分とその後の気分に対応する時刻を推定するモデルである。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語に対応する時刻またはそれらの時間差と、未来の時刻と、を入力とし、未来の時刻における気分を推定するモデル、である。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語の入力順序(受付順序)と、それらの心理状態感性表現語に対応する時刻の間隔(時間間隔)と、を入力とし、時刻time(t')よりも後の気分とその後の気分に対応する時刻を推定するモデルである。
推定モデルは、時刻time(t')までの時刻順の2つ以上の心理状態感性表現語と、それらの心理状態感性表現語の入力順序(受付順序)と、それらの心理状態感性表現語に対応する時刻の間隔(時間間隔)と、未来の時刻と、を入力とし、未来の時刻における気分を推定するモデル、である。
ある時刻までの2つ以上の心理状態感性表現語に加えて、ある時刻までの他の情報を考慮することで、ある時刻よりも後の気分の推定精度を高めることができる。例えば、他の情報として、固定周囲環境情報、不定周囲環境情報、位置情報、体験情報、コミュニケーション情報、生体情報、その他の後の気分に影響を与える情報が考えられる。2つ以上の心理状態感性表現語と気分情報に加えて、これらの情報を与えて推定モデルを学習し、この学習で得た推定モデルを用いて、2つ以上の心理状態感性表現語にこれらの情報を与えて気分を推定する。
学習装置100は、学習部110と、心理状態感性表現語・気分情報取得部120と、記憶部130に加えて、固定周囲環境取得部141と、不定周囲環境取得部142と、位置情報取得部143と、体験情報取得部150と、コミュニケーション情報取得部160と、生体情報取得部170との少なくとも何れかを含む(図3参照)。
推定装置200は、推定部210と、心理状態感性表現語取得部220と、一時記憶部230に加えて、固定周囲環境取得部241と、不定周囲環境取得部242と、位置情報取得部243と、体験情報取得部250と、コミュニケーション情報取得部260と、生体情報取得部270との少なくとも何れかを含む(図6参照)。
固定周囲環境取得部141は、場所に紐づけられた固定の周囲環境に関連する情報pL(t)を取得し(S141)、記憶部130に格納する。
不定周囲環境取得部142は、場所に紐づけられない、固定ではない周囲環境に関連する情報qL(t)を取得し(S142)、記憶部130に格納する。
位置情報取得部143は、位置情報LocL(t)そのものを取得し(S143)、記憶部130に格納する。
体験情報取得部150は、ユーザの体験に関連する体験情報EL(t)を取得し(S150)、記憶部130に格納する。
コミュニケーション情報取得部160は、ユーザのコミュニケーションに関連するコミュニケーション情報CL(t)を取得し(S160)、記憶部130に格納する。
生体情報取得部170は、ユーザの生体情報BL(t)を取得し(S170)、記憶部130に格納する。
学習部110は、記憶部130に学習するために十分な量の学習用の心理状態感性表現語とそれに対応する学習用の気分情報と、以下の(i)~(vi)とが蓄積されると(S110-1)、記憶部130から学習用の心理状態感性表現語と、それに対応する学習用の気分情報と、(i)~(vi)とを取り出し、推定モデルを学習し(S110)、学習済みの推定モデルを出力する。
(ii)心理状態感性表現語の入力時の入力者の、場所に紐づけられない、固定ではない周囲環境に関連する情報
(iii)心理状態感性表現語の入力時の入力者の位置情報
(iv)心理状態感性表現語の入力時の入力者の体験に関連する体験情報
(v)心理状態感性表現語の入力時の入力者のコミュニケーションに関連するコミュニケーション情報
(vi)心理状態感性表現語の入力時の入力者の生体情報
なお、(i)~(vi)の全てを用いて学習する必要はなく、推定に必要な情報を取得し、記憶し、それに基づき学習すればよい。(i)~(vi)の少なくとも1つ以上の時系列を用いればよい。
推定モデル記憶部211には、本変形例の学習装置100が出力した学習済みの推定モデルを予め記憶しておく。推定部210は、一時記憶部230から2つ以上の心理状態感性表現語と、上述の学習部110で学習に利用した(i)~(vi)の少なくとも1つ以上と、を取り出し、推定モデル記憶部211に予め記憶した学習済みの推定モデルを用いて、2つ以上の心理状態感性表現語と(i)~(vi)の少なくとも1つ以上とから未来の気分を推定し(S210)、推定結果を出力する。
このような構成により、第一実施形態と同様の効果を得ることができる。さらに、(i)~(vi)の少なくとも1つ以上を考慮することでより正確に気分を推定できる。なお、本変形例と変形例1,2とを組合せてもよい。
第一実施形態では、学習装置100のユーザ、推定装置200の利用者がオノマトペの文字列を入力することとして説明をしたが、文字列そのものを入力することに限られるものではない。
本実施形態では、学習装置100の心理状態感性表現語・気分情報取得部120は、学習用の心理状態感性表現語WL(t1),WL(t2),…と、学習用の気分情報ML(t1),ML(t2),…とを入力とするが、学習用の心理状態感性表現語WL(t1),WL(t2),…のみを入力とし、非特許文献1の方法を用いて、心理状態感性表現語WL(t1),WL(t2),…に対応する学習用の気分情報ML(t1),ML(t2),…を取得する構成としてもよい。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
上述の各種の処理は、図9に示すコンピュータの記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
Claims (11)
- ユーザが各時刻に発したオノマトペである学習用のオノマトペと、前記ユーザが前記学習用のオノマトペを発した前記各時刻の前記ユーザの気分の評価値である学習用の気分情報とを少なくとも含む学習データを記憶する記憶部と、
前記学習データを用いて、ある時刻までの2つ以上のオノマトペによる時系列を少なくとも入力とし、前記ある時刻よりも後の気分を推定する推定モデルを学習する学習部とを含み、
撮影機能と、顔認証機能と、表情検知機能とを備えるコミュニケーション情報取得部を更に含み、
前記コミュニケーション情報取得部は、
前記オノマトペを発した各時刻について、
前記撮影機能で撮影した人物の顔認証を行って前記ユーザが会っている人物を示す情報を得て、
前記表情検知機能により、前記ユーザの表情を示す情報、前記会っている人物の表情を示す情報、を得て、
得た前記情報を前記学習データに含めて前記記憶部に記憶し、
前記学習部は、
対象者が会っている人物を示す情報、対象者の表情を示す情報、対象者が会っている人物の表情を示す情報、も入力として、前記ある時刻よりも後の気分を推定する推定モデルを学習する、
学習装置。 - 請求項1に記載の学習装置であって、
前記記憶部に記憶する学習データには前記各オノマトペを発した時刻も含まれ、
前記学習部は、
前記ある時刻までの2つ以上のオノマトペに対応する時刻またはそれらの時刻差も入力として、または、前記ある時刻までの2つ以上のオノマトペの受付順序とそれらのオノマトペに対応する時刻の時間間隔も入力として、前記ある時刻よりも後の気分を推定するモデル推定モデルを学習する、
学習装置。 - 請求項1に記載の学習装置で学習された推定モデルを記憶した推定モデル記憶部と、
撮影機能と、顔認証機能と、表情検知機能とを備え、
前記撮影機能で撮影した人物の顔認証を行って対象者が会っている人物を示す情報を得て、
前記表情検知機能により、前記対象者の表情を示す情報、前記会っている人物の表情を示す情報、を得る
コミュニケーション情報取得部と、
前記推定モデルを用いて、入力された2つ以上の前記対象者のオノマトペとその入力順序と、当該各オノマトペを発したときに前記コミュニケーション情報取得部が得た前記情報と、に少なくとも基づいて、前記対象者の未来の気分を推定する推定部と、を含む、
推定装置。 - 請求項2に記載の学習装置で学習された推定モデルを記憶した推定モデル記憶部と、
撮影機能と、顔認証機能と、表情検知機能とを備え、
前記撮影機能で撮影した人物の顔認証を行って対象者が会っている人物を示す情報を得て、
前記表情検知機能により、前記対象者の表情を示す情報、前記会っている人物の表情を示す情報、を得る
コミュニケーション情報取得部と、
前記推定モデルを用いて、入力された2つ以上の前記対象者のオノマトペと、当該各オノマトペを発したときに前記コミュニケーション情報取得部が得た前記情報と、入力された前記各オノマトペに対応する時刻またはそれらの時刻差、または、入力された前記各オノマトペの受付順序とそれらのオノマトペに対応する時刻の時間間隔と、に少なくとも基づいて、前記対象者の未来の気分を推定する推定部と、を含む、
推定装置。 - オノマトペと感嘆詞の少なくとも何れかにカテゴライズされる語が心理状態感性表現語であるとして、
ユーザが各時刻に発した心理状態感性表現語である学習用の心理状態感性表現語と、前記ユーザが前記学習用の心理状態感性表現語を発した前記各時刻の前記ユーザの気分の評価値である学習用の気分情報とを少なくとも含む学習データを記憶する記憶部と、
前記学習データを用いて、ある時刻までの2つ以上の心理状態感性表現語による時系列を少なくとも入力とし、前記ある時刻よりも後の気分を推定する推定モデルを学習する学習部とを含み、
撮影機能と、顔認証機能と、表情検知機能とを備えるコミュニケーション情報取得部を更に含み、
前記コミュニケーション情報取得部は、
前記心理状態感性表現語を発した各時刻について、
前記撮影機能で撮影した人物の顔認証を行って前記ユーザが会っている人物を示す情報を得て、
前記表情検知機能により、前記ユーザの表情を示す情報、前記会っている人物の表情を示す情報、を得て、
得た前記情報を前記学習データに含めて前記記憶部に記憶し、
前記学習部は、
対象者が会っている人物を示す情報、対象者の表情を示す情報、対象者が会っている人物の表情を示す情報、も入力として、前記ある時刻よりも後の気分を推定する推定モデルを学習する、
学習装置。 - 請求項5に記載の学習装置であって、
前記記憶部に記憶する学習データには前記各心理状態感性表現語を発した時刻も含まれ、
前記学習部は、
前記ある時刻までの2つ以上の心理状態感性表現語に対応する時刻またはそれらの時刻差も入力として、または、前記ある時刻までの2つ以上の心理状態感性表現語の受付順序とそれらの心理状態感性表現語に対応する時刻の時間間隔も入力として、前記ある時刻よりも後の気分を推定するモデル推定モデルを学習する、
学習装置。 - 請求項5に記載の学習装置で学習された推定モデルを記憶した推定モデル記憶部と、
撮影機能と、顔認証機能と、表情検知機能とを備え、
前記撮影機能で撮影した人物の顔認証を行って対象者が会っている人物を示す情報を得て、
前記表情検知機能により、前記対象者の表情を示す情報、前記会っている人物の表情を示す情報、を得る
コミュニケーション情報取得部と、
前記推定モデルを用いて、入力された2つ以上の前記対象者の心理状態感性表現語とその入力順序と、当該各心理状態感性表現語を発したときに前記コミュニケーション情報取得部が得た前記情報と、に少なくとも基づいて、前記対象者の未来の気分を推定する推定部と、を含む、
推定装置。 - 請求項6に記載の学習装置で学習された推定モデルを記憶した推定モデル記憶部と、
撮影機能と、顔認証機能と、表情検知機能とを備え、
前記撮影機能で撮影した人物の顔認証を行って対象者が会っている人物を示す情報を得て、
前記表情検知機能により、前記対象者の表情を示す情報、前記会っている人物の表情を示す情報、を得る
コミュニケーション情報取得部と、
前記推定モデルを用いて、入力された2つ以上の前記対象者の心理状態感性表現語と、当該各心理状態感性表現語を発したときに前記コミュニケーション情報取得部が得た前記情報と、入力された前記各心理状態感性表現語に対応する時刻またはそれらの時刻差、または、入力された前記各心理状態感性表現語の受付順序とそれらの心理状態感性表現語に対応する時刻の時間間隔と、に少なくとも基づいて、前記対象者の未来の気分を推定する推定部と、を含む、
推定装置。 - オノマトペと感嘆詞の少なくとも何れかにカテゴライズされる語が心理状態感性表現語であるとして、
記憶部には、ユーザが各時刻に発した心理状態感性表現語である学習用の心理状態感性表現語と、前記ユーザが前記学習用の心理状態感性表現語を発した前記各時刻の前記ユーザの気分の評価値である学習用の気分情報とを少なくとも含む学習データが記憶されるものとし、
前記学習データを用いて、ある時刻までの2つ以上の心理状態感性表現語による時系列を少なくとも入力とし、前記ある時刻よりも後の気分を推定する推定モデルを学習する学習ステップとを含み、
撮影機能と、顔認証機能と、表情検知機能とを用いるコミュニケーション情報取得ステップを更に含み、
前記コミュニケーション情報取得ステップにおいて、
前記心理状態感性表現語を発した各時刻について、
前記撮影機能で撮影した人物の顔認証を行って前記ユーザが会っている人物を示す情報を得て、
前記表情検知機能により、前記ユーザの表情を示す情報、前記会っている人物の表情を示す情報、を得て、
得た前記情報を前記学習データに含めて前記記憶部に記憶し、
前記学習ステップにおいて、
対象者が会っている人物を示す情報、対象者の表情を示す情報、対象者が会っている人物の表情を示す情報、も入力として、前記ある時刻よりも後の気分を推定する推定モデルを学習する、
学習方法。 - 請求項9に記載の学習方法で学習された推定モデルが推定モデル記憶部に記憶されるものとし、
撮影機能と、顔認証機能と、表情検知機能とを用いて、
前記撮影機能で撮影した人物の顔認証を行って対象者が会っている人物を示す情報を得て、
前記表情検知機能により、前記対象者の表情を示す情報、前記会っている人物の表情を示す情報、を得る
コミュニケーション情報取得ステップと、
前記推定モデルを用いて、入力された2つ以上の前記対象者の心理状態感性表現語とその入力順序と、当該各心理状態感性表現語を発したときに前記コミュニケーション情報取得部が得た前記情報と、に少なくとも基づいて、前記対象者の未来の気分を推定する推定ステップと、
を含む、推定方法。 - 請求項1、2、5および6の何れかの学習装置、または、請求項3、4、7および8の何れかの推定装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/030864 WO2021024372A1 (ja) | 2019-08-06 | 2019-08-06 | 学習装置、推定装置、それらの方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021024372A1 JPWO2021024372A1 (ja) | 2021-02-11 |
JPWO2021024372A5 JPWO2021024372A5 (ja) | 2022-04-06 |
JP7188601B2 true JP7188601B2 (ja) | 2022-12-13 |
Family
ID=74502856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021538581A Active JP7188601B2 (ja) | 2019-08-06 | 2019-08-06 | 学習装置、推定装置、それらの方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220301580A1 (ja) |
JP (1) | JP7188601B2 (ja) |
WO (1) | WO2021024372A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130275352A1 (en) | 2012-04-17 | 2013-10-17 | The Mitre Corporation | Identifying and Forecasting Shifts in the Mood of Social Media Users |
WO2014192457A1 (ja) | 2013-05-30 | 2014-12-04 | ソニー株式会社 | クライアント装置、制御方法、システム、およびプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015168606A1 (en) * | 2014-05-02 | 2015-11-05 | The Regents Of The University Of Michigan | Mood monitoring of bipolar disorder using speech analysis |
JP6926825B2 (ja) * | 2017-08-25 | 2021-08-25 | 沖電気工業株式会社 | 通信装置、プログラムおよびオペレータ選択方法 |
-
2019
- 2019-08-06 WO PCT/JP2019/030864 patent/WO2021024372A1/ja active Application Filing
- 2019-08-06 US US17/633,153 patent/US20220301580A1/en active Pending
- 2019-08-06 JP JP2021538581A patent/JP7188601B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130275352A1 (en) | 2012-04-17 | 2013-10-17 | The Mitre Corporation | Identifying and Forecasting Shifts in the Mood of Social Media Users |
WO2014192457A1 (ja) | 2013-05-30 | 2014-12-04 | ソニー株式会社 | クライアント装置、制御方法、システム、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220301580A1 (en) | 2022-09-22 |
WO2021024372A1 (ja) | 2021-02-11 |
JPWO2021024372A1 (ja) | 2021-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762892B2 (en) | Rapid deployment of dialogue system | |
CN110326041B (zh) | 用于智能助理的自然语言交互 | |
Schuller et al. | The interspeech 2017 computational paralinguistics challenge: Addressee, cold & snoring | |
EP3803846B1 (en) | Autonomous generation of melody | |
JP6803333B2 (ja) | 対話型ダイアログシステムのための感情タイプの分類 | |
CN118471216A (zh) | 适应多个年龄组和/或词汇水平的自动助理 | |
KR20190125153A (ko) | 텍스트 기반 사용자심리상태예측 및 콘텐츠추천 장치 및 그 방법 | |
Al-Dujaili et al. | Speech emotion recognition: a comprehensive survey | |
CN111696559B (zh) | 提供情绪管理辅助 | |
US10559305B2 (en) | Information processing system, and information processing method | |
US10902735B2 (en) | Education reward system and method | |
KR20200036680A (ko) | 감정 정보 획득을 위한 전자 장치 및 방법 | |
CN106951433A (zh) | 一种检索方法及装置 | |
CN113241178B (zh) | 一种确定被测者的抑郁症严重程度的装置 | |
CN111949773A (zh) | 一种阅读设备、服务器以及数据处理的方法 | |
JP7188601B2 (ja) | 学習装置、推定装置、それらの方法、およびプログラム | |
KR20220133665A (ko) | 성격 정보 제공 서비스 장치 및 방법 | |
JP2017102490A (ja) | 情報処理機器、プログラム | |
JP7310901B2 (ja) | 学習装置、推定装置、それらの方法、およびプログラム | |
CN114048395B (zh) | 基于时间感知与关键信息抽取的用户转发预测方法和系统 | |
JP7540581B2 (ja) | 学習装置、推定装置、それらの方法、およびプログラム | |
JP7300929B2 (ja) | 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法 | |
KR20200075256A (ko) | 라이프로그 빅데이터 기반의 지능형 캐릭터 저작 장치 및 방법 | |
JP2020038448A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7456503B2 (ja) | 心理状態分析方法、心理状態分析装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20211125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7188601 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |