JP7445933B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP7445933B2 JP7445933B2 JP2022090334A JP2022090334A JP7445933B2 JP 7445933 B2 JP7445933 B2 JP 7445933B2 JP 2022090334 A JP2022090334 A JP 2022090334A JP 2022090334 A JP2022090334 A JP 2022090334A JP 7445933 B2 JP7445933 B2 JP 7445933B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- emotion
- user
- motion
- emotional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 172
- 238000003672 processing method Methods 0.000 title claims description 20
- 230000008451 emotion Effects 0.000 claims description 290
- 230000002996 emotional effect Effects 0.000 claims description 174
- 238000010801 machine learning Methods 0.000 claims description 102
- 238000000034 method Methods 0.000 claims description 42
- 230000037007 arousal Effects 0.000 claims description 19
- 230000036760 body temperature Effects 0.000 claims description 8
- 210000004556 brain Anatomy 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 8
- 230000008921 facial expression Effects 0.000 claims description 8
- 210000001747 pupil Anatomy 0.000 claims description 8
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 7
- 230000004397 blinking Effects 0.000 claims description 6
- 238000002567 electromyography Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000006996 mental state Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Description
〔1.情報処理の概要〕
図1は、実施形態に係る情報処理の概要について説明するための図である。図1では、実施形態に係る情報処理装置100によって、実施形態に係る情報処理などが実現されるものとする。図1では、情報処理装置100が、あらかじめ生成された機械学習モデルを用いて、利用者の生体情報に基づいて推定された利用者の感情を示す感情情報から利用者の感情に応じたダンスの動作を示す映像(以下、ダンス映像ともいう)を生成する場合について説明する。
図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1には、センサ装置10と情報処理装置100とが含まれる。センサ装置10と情報処理装置100とは、各種の通信ネットワークを介して、有線または無線で互いに通信可能に接続される。なお、図2に示した情報処理システム1には、任意の数のセンサ装置10と任意の数の情報処理装置100とが含まれていてもよい。
図3は、実施形態に係る情報処理装置100の構成例を示す図である。情報処理装置100は、通信部110と、記憶部120と、入力部130と、出力部140と、制御部150とを有する。
通信部110は、NIC(Network Interface Card)やアンテナ等によって実現される。通信部110は、各種ネットワークと有線または無線で接続され、例えば、センサ装置10との間で情報の送受信を行う。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。具体的には、記憶部120は、各種プログラム(情報処理プログラムの一例)を記憶する。また、記憶部120は、生体情報から感情情報を推定するよう学習された機械学習モデルである推定モデルM1を記憶する。また、記憶部120は、モデル生成部152による機械学習モデルM4の学習に用いられる各種データを記憶する。また、記憶部120は、モデル生成部152によって生成された機械学習モデルに関する情報を記憶する。
入力部130は、利用者から各種操作が入力される。例えば、入力部130は、タッチパネル機能により表示面(例えば出力部140)を介して利用者からの各種操作を受け付けてもよい。また、入力部130は、情報処理装置100に設けられたボタンや、情報処理装置100に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
出力部140は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現される表示画面であり、各種情報を表示するための表示装置である。出力部140は、制御部150の制御に従って、各種情報を表示する。なお、情報処理装置100にタッチパネルが採用される場合には、入力部130と出力部140とは一体化される。また、以下の説明では、出力部140を画面と記載する場合がある。
制御部150は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部150は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
取得部151は、生体情報を取得する。取得部151は、モデル生成部152による機械学習モデルの学習に用いられる生体情報を取得してよい。具体的には、取得部151は、各利用者のセンサ装置10から取得された各利用者の生体情報を一括して管理する外部のサーバ装置から機械学習モデルの学習に用いられる生体情報を取得してよい。また、取得部151は、利用者のセンサ装置10から利用者の生体情報を取得してよい。また、取得部151は、生体情報を取得した場合、取得した生体情報を記憶部120に格納してよい。また、取得部151は、記憶部120を参照して、センサ装置10から取得した生体情報を取得してよい。例えば、取得部151は、生体情報として、心拍数の時系列データを取得してよい。
モデル生成部152は、感情特徴情報と運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを生成してよい。モデル生成部152は、感情情報に基づいて感情特徴情報を生成する感情エンコーダと、運動情報に基づいて運動特徴情報を生成する運動エンコーダと、運動特徴情報に基づいて運動情報を生成するデコーダと、を含む機械学習モデルを生成してよい。
生成部153は、機械学習モデルM4を用いて、利用者の生体情報に基づいて推定された利用者の感情を示す感情情報から利用者の感情に応じた身体の動きを示す運動情報を生成してよい。具体的には、取得部151は、記憶部120を参照して、モデル生成部152によって生成された機械学習モデルM4を取得してよい。生成部153は、取得部151によって取得された機械学習モデルM4を用いて、利用者の感情情報から利用者の感情に応じた運動情報を生成してよい。
出力制御部154は、生成部153によって生成された運動情報を出力部140に出力するよう制御する。例えば、出力制御部154は、生成部153によって生成されたダンス映像を出力部140に表示するよう制御してよい。
受付部155は、利用者が希望する利用者の感情である希望感情を示す希望感情情報を受け付ける。例えば、受付部155は、感情円環モデルを出力部140に表示するよう制御してよい。続いて、受付部155は、入力部130を介して、希望感情情報として、利用者の希望感情に対応する感情円環モデルにおける覚醒度の値と感情価の値の組を利用者から受け付けてよい。例えば、受付部155は、取得部151が推定した利用者の感情情報を出力部140に表示するよう制御してよい。例えば、受付部155は、利用者の感情情報として、利用者の覚醒度の推定値と感情価の推定値を示す点P1の位置を感情円環モデルに重畳して出力部140に表示するよう制御してよい。続いて、受付部155は、入力部130を介して、利用者から画面に表示された利用者の感情情報を加工する操作を受け付けてよい。例えば、受付部155は、利用者の指によって点P1を長押しする操作を受け付けてよい。続いて、受付部155は、点P1の位置から、例えば、覚醒度の値を「+3」、感情価の値を「+3」だけ変化させた点P2の位置まで利用者の指を画面上でスライドさせる操作(ドラッグ操作)を受け付けてよい。また、受付部155は、希望感情情報として、点P2の位置に対応する加工後の感情情報を受け付けてよい。このように、受付部155は、希望感情情報として、利用者により加工された利用者の感情情報である加工後の感情情報を受け付けてよい。
図7は、実施形態に係る機械学習モデルの生成処理手順を示すフローチャートである。図7に示すように、情報処理装置100の取得部151は、生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを取得する(ステップS101)。例えば、取得部151は、運動特徴情報として、感情に応じたダンスの動作を示すダンス映像に対応するダンス特徴情報を取得する。
上述した実施形態に係る処理は、上記実施形態以外にも種々の異なる形態にて実施されてよい。
上述した実施形態では、生体情報が、心拍を示す情報である場合について説明したが、生体情報は、感情に応じて生じる生理現象に関する情報であればよく、心拍を示す情報に限られない。例えば、生体情報は、心電、脈拍、発汗、呼吸、脳波、体温、姿勢、活動量、加速度、におい、筋電、表情、皮膚電位、視線、瞬目、瞳孔径、または音声を示す情報であってよい。具体的には、例えば、生体情報は、心電、脈拍、発汗、呼吸、脳波、体温、姿勢、活動量、加速度、におい、筋電、表情、皮膚電位、視線、瞬目、瞳孔径、または音声を示す時系列データであってよい。情報処理装置100は、心電、心拍、脈拍、発汗、呼吸、脳波、体温、姿勢、活動量、加速度、におい、筋電、表情、皮膚電位、視線、瞬目、瞳孔径、または音声を示す情報である生体情報が入力された場合、生体情報に対応する感情を示す感情情報を出力するよう学習された機械学習モデル(推定モデルM1の一例)を用いて、生体情報から感情情報を推定してよい。また、情報処理装置100は、推定モデルM1を用いる手法以外にも、生体情報から感情情報を推定する公知の技術を用いて、生体情報から感情情報を推定してよい。
上述した実施形態では、運動情報がダンスにおける動作を示すダンス映像である場合について説明したが、運動情報によって示される身体の動きは、ダンスにおける動作に限られない。具体的には、運動情報によって示される身体の動きは、感情に応じた身体の動きであれば、どのような身体の動きであってもよい。例えば、身体の動きは、ダンス以外にも、リハビリテーション、スポーツ(例えば、フィギュアスケートなど)、または演技における動作であってよい。
上述した実施形態では、感情情報が覚醒度を示す値と感情価を示す値の組である場合について説明したが、感情情報は覚醒度を示す値と感情価を示す値の組に限られない。感情には様々な表現の仕方が存在する。具体的には、感情情報は、生体情報が入力された場合に、喜び、怒り、悲しみ、リラックスなどの複数の種類の感情それぞれに該当する確率をそれぞれ出力するよう学習された機械学習モデルを用いて推定された感情を示す情報であってよい。例えば、感情情報は、喜びの感情が70%であり、怒りの感情が30%であるという感情を示す情報であってよい。
上述した実施形態では、運動情報が身体の動きを示す映像である場合について説明したが、運動情報は映像に限られない。例えば、生成部153は、運動情報として、姿勢推定の技術を用いて身体の動きを示す映像に含まれる人物の骨格に関する骨格情報を抽出してもよい。具体的には、生成部153は、姿勢推定に関するあらゆる公知技術を用いて映像から骨格情報を抽出してよい。例えば、生成部153は、姿勢推定モデルと呼ばれる深層学習モデルを用いて、動画や静止画から人物や動物の姿勢(骨格)を推定する姿勢推定技術を用いて、骨格情報を抽出してよい。
上述した実施形態では、情報処理装置100が、機械学習モデルM4を生成するモデル生成部152と、ダンス映像を出力する出力部140の両方を備える場合について説明した。変形例では、機械学習モデルM4を生成する装置(実施形態におけるモデル生成部152を備える装置)と、ダンス映像を出力する装置(実施形態における出力部140を備える装置)とが別々の装置である場合について説明する。
上述したように、実施形態に係る情報処理装置100は、取得部151と生成部153を備える。取得部151は、生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する。生成部153は、機械学習モデルを用いて、利用者の生体情報に基づいて推定された利用者の感情を示す感情情報から利用者の感情に応じた身体の動きを示す運動情報を生成する。
また、上述してきた実施形態に係る情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
10 センサ装置
100 情報処理装置
110 通信部
120 記憶部
130 入力部
140 出力部
150 制御部
151 取得部
152 モデル生成部
153 生成部
154 出力制御部
155 受付部
Claims (26)
- 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得部と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きであって、前記利用者に模倣させるための身体の動きを示す運動情報を生成する生成部と、
を備える情報処理装置。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得部と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成部と、
前記利用者が希望する前記利用者の感情である希望感情を示す希望感情情報を受け付ける受付部と、
を備え、
前記生成部は、
前記希望感情情報から前記希望感情に応じた前記身体の動きを示す運動情報を生成する、
情報処理装置。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得部と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成部と、
を備え、
前記機械学習モデルは、前記感情情報に基づいて前記感情特徴情報を生成する第1のエンコーダと、前記運動情報に基づいて前記運動特徴情報を生成する第2のエンコーダと、前記運動特徴情報に基づいて前記運動情報を生成するデコーダと、を含む、
情報処理装置。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得部と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成部と、
を備え、
前記運動情報は、前記身体の動きを複数の方向から撮影した映像である、
情報処理装置。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを取得する取得部と、
前記感情特徴情報と前記運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを生成するモデル生成部と、
を備え、
前記機械学習モデルは、前記感情情報に基づいて前記感情特徴情報を生成する第1のエンコーダと、前記運動情報に基づいて前記運動特徴情報を生成する第2のエンコーダと、前記運動特徴情報に基づいて前記運動情報を生成するデコーダと、を含む、
情報処理装置。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを取得する取得部と、
前記感情特徴情報と前記運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを生成するモデル生成部と、
を備え、
前記運動情報は、前記身体の動きを複数の方向から撮影した映像である、
情報処理装置。 - 前記利用者が希望する前記利用者の感情である希望感情を示す希望感情情報を受け付ける受付部をさらに備え、
前記生成部は、
前記希望感情情報から前記希望感情に応じた前記身体の動きを示す運動情報を生成する、
請求項1、3または4に記載の情報処理装置。 - 前記機械学習モデルは、前記感情情報に基づいて前記感情特徴情報を生成する第1のエンコーダと、前記運動情報に基づいて前記運動特徴情報を生成する第2のエンコーダと、前記運動特徴情報に基づいて前記運動情報を生成するデコーダと、を含む、
請求項1、2、4または6に記載の情報処理装置。 - 前記感情情報は、前記生体情報から前記感情情報を推定するよう学習された機械学習モデルである推定モデルを用いて推定された感情を示す情報である、
請求項1~6のいずれか1つに記載の情報処理装置。 - 前記感情情報は、覚醒度を示す値と感情価を示す値の組である、
請求項1~6のいずれか1つに記載の情報処理装置。 - 前記生体情報は、心電、心拍、脈拍、発汗、呼吸、脳波、体温、姿勢、活動量、加速度、におい、筋電、表情、皮膚電位、視線、瞬目、瞳孔径、または音声を示す情報である、
請求項1~6のいずれか1つに記載の情報処理装置。 - 前記運動情報は、前記身体の動きを示す映像である、
請求項1~6のいずれか1つに記載の情報処理装置。 - 前記運動情報は、前記身体の動きを複数の方向から撮影した映像である、
請求項1~3または5のいずれか1つに記載の情報処理装置。 - 前記身体の動きは、ダンス、リハビリテーション、スポーツ、または演技における動作である、
請求項1~6のいずれか1つに記載の情報処理装置。 - 情報処理装置が実行するプログラムにより実現される情報処理方法であって、
生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得工程と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きであって、前記利用者に模倣させるための身体の動きを示す運動情報を生成する生成工程と、
を含む情報処理方法。 - 情報処理装置が実行するプログラムにより実現される情報処理方法であって、
生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得工程と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成工程と、
前記利用者が希望する前記利用者の感情である希望感情を示す希望感情情報を受け付ける受付工程と、
を含み、
前記生成工程は、
前記希望感情情報から前記希望感情に応じた前記身体の動きを示す運動情報を生成する、
情報処理方法。 - 情報処理装置が実行するプログラムにより実現される情報処理方法であって、
生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得工程と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成工程と、
を含み、
前記機械学習モデルは、前記感情情報に基づいて前記感情特徴情報を生成する第1のエンコーダと、前記運動情報に基づいて前記運動特徴情報を生成する第2のエンコーダと、前記運動特徴情報に基づいて前記運動情報を生成するデコーダと、を含む、
情報処理方法。 - 情報処理装置が実行するプログラムにより実現される情報処理方法であって、
生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得工程と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成工程と、
を含み、
前記運動情報は、前記身体の動きを複数の方向から撮影した映像である、
情報処理方法。 - 情報処理装置が実行するプログラムにより実現される情報処理方法であって、
生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを取得する取得工程と、
前記感情特徴情報と前記運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを生成するモデル生成工程と、
を含み、
前記機械学習モデルは、前記感情情報に基づいて前記感情特徴情報を生成する第1のエンコーダと、前記運動情報に基づいて前記運動特徴情報を生成する第2のエンコーダと、前記運動特徴情報に基づいて前記運動情報を生成するデコーダと、を含む、
情報処理方法。 - 情報処理装置が実行するプログラムにより実現される情報処理方法であって、
生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを取得する取得工程と、
前記感情特徴情報と前記運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを生成するモデル生成工程と、
を含み、
前記運動情報は、前記身体の動きを複数の方向から撮影した映像である、
情報処理方法。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得手順と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きであって、前記利用者に模倣させるための身体の動きを示す運動情報を生成する生成手順と、
をコンピュータに実行させる情報処理プログラム。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得手順と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成手順と、
前記利用者が希望する前記利用者の感情である希望感情を示す希望感情情報を受け付ける受付手順と、
をコンピュータに実行させ、
前記生成手順は、
前記希望感情情報から前記希望感情に応じた前記身体の動きを示す運動情報を生成する、
情報処理プログラム。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得手順と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成手順と、
をコンピュータに実行させ、
前記機械学習モデルは、前記感情情報に基づいて前記感情特徴情報を生成する第1のエンコーダと、前記運動情報に基づいて前記運動特徴情報を生成する第2のエンコーダと、前記運動特徴情報に基づいて前記運動情報を生成するデコーダと、を含む、
情報処理プログラム。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを取得する取得手順と、
前記機械学習モデルを用いて、利用者の生体情報に基づいて推定された前記利用者の感情を示す感情情報から前記利用者の感情に応じた身体の動きを示す運動情報を生成する生成手順と、
をコンピュータに実行させ、
前記運動情報は、前記身体の動きを複数の方向から撮影した映像である、
情報処理プログラム。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを取得する取得手順と、
前記感情特徴情報と前記運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを生成するモデル生成手順と、
をコンピュータに実行させ、
前記機械学習モデルは、前記感情情報に基づいて前記感情特徴情報を生成する第1のエンコーダと、前記運動情報に基づいて前記運動特徴情報を生成する第2のエンコーダと、前記運動特徴情報に基づいて前記運動情報を生成するデコーダと、を含む、
情報処理プログラム。 - 生体情報に基づいて推定された感情を示す感情情報に対応する感情特徴情報と、前記感情に応じた身体の動きを示す運動情報に対応する運動特徴情報とを取得する取得手順と、
前記感情特徴情報と前記運動特徴情報とを対応付けて共通の潜在空間にマッピングするよう学習された機械学習モデルを生成するモデル生成手順と、
をコンピュータに実行させ、
前記運動情報は、前記身体の動きを複数の方向から撮影した映像である、
情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022090334A JP7445933B2 (ja) | 2022-06-02 | 2022-06-02 | 情報処理装置、情報処理方法及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022090334A JP7445933B2 (ja) | 2022-06-02 | 2022-06-02 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023177594A JP2023177594A (ja) | 2023-12-14 |
JP7445933B2 true JP7445933B2 (ja) | 2024-03-08 |
Family
ID=89123877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022090334A Active JP7445933B2 (ja) | 2022-06-02 | 2022-06-02 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7445933B2 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176592A (ja) | 2014-03-18 | 2015-10-05 | Kddi株式会社 | アニメーション生成装置、アニメーション生成方法およびプログラム |
WO2018168369A1 (ja) | 2017-03-14 | 2018-09-20 | 株式会社Seltech | 機械学習装置および機械学習プログラム |
WO2019082687A1 (ja) | 2017-10-27 | 2019-05-02 | ソニー株式会社 | 情報処理装置および情報処理方法、プログラム、並びに情報処理システム |
US20200184203A1 (en) | 2018-12-05 | 2020-06-11 | International Business Machines Corporation | Automatically suggesting behavioral adjustments during video conferences |
US10732708B1 (en) | 2017-11-21 | 2020-08-04 | Amazon Technologies, Inc. | Disambiguation of virtual reality information using multi-modal data including speech |
JP2021049349A (ja) | 2020-11-17 | 2021-04-01 | 沖電気工業株式会社 | 提示装置、提示方法、プログラム及び感情推定システム |
JP2022071968A (ja) | 2020-10-29 | 2022-05-17 | 株式会社EmbodyMe | 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム |
-
2022
- 2022-06-02 JP JP2022090334A patent/JP7445933B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176592A (ja) | 2014-03-18 | 2015-10-05 | Kddi株式会社 | アニメーション生成装置、アニメーション生成方法およびプログラム |
WO2018168369A1 (ja) | 2017-03-14 | 2018-09-20 | 株式会社Seltech | 機械学習装置および機械学習プログラム |
WO2019082687A1 (ja) | 2017-10-27 | 2019-05-02 | ソニー株式会社 | 情報処理装置および情報処理方法、プログラム、並びに情報処理システム |
US10732708B1 (en) | 2017-11-21 | 2020-08-04 | Amazon Technologies, Inc. | Disambiguation of virtual reality information using multi-modal data including speech |
US20200184203A1 (en) | 2018-12-05 | 2020-06-11 | International Business Machines Corporation | Automatically suggesting behavioral adjustments during video conferences |
JP2022071968A (ja) | 2020-10-29 | 2022-05-17 | 株式会社EmbodyMe | 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム |
JP2021049349A (ja) | 2020-11-17 | 2021-04-01 | 沖電気工業株式会社 | 提示装置、提示方法、プログラム及び感情推定システム |
Non-Patent Citations (1)
Title |
---|
進藤 智則,Pepperの感情生成エンジンはRNNを利用 7種の仮想的ホルモンを模擬して喜怒哀楽,日経エレクトロニクス,日本,日経BP社,2015年11月20日,第1162号,pp.100-101 |
Also Published As
Publication number | Publication date |
---|---|
JP2023177594A (ja) | 2023-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11244485B2 (en) | Augmented reality systems and methods utilizing reflections | |
US10430985B2 (en) | Augmented reality systems and methods utilizing reflections | |
Genay et al. | Being an avatar “for real”: a survey on virtual embodiment in augmented reality | |
Jones | Haptics | |
Gervais et al. | Tobe: Tangible out-of-body experience | |
Bernal et al. | Emotional beasts: visually expressing emotions through avatars in VR | |
Wang et al. | Survey of movement reproduction in immersive virtual rehabilitation | |
WO2016009277A1 (en) | Garments having stretchable and conductive ink | |
US20210265055A1 (en) | Smart Meditation and Physiological System for the Cloud | |
Smys | Virtual reality gaming technology for mental stimulation and therapy | |
US20210125702A1 (en) | Stress management in clinical settings | |
Aslan et al. | PiHearts: Resonating Experiences of Self and Others Enabled by a Tangible Somaesthetic Design | |
KR102429630B1 (ko) | 헬스케어를 위한 커뮤니케이션 npc아바타를 생성하는 시스템 | |
CN113035000A (zh) | 一种面向中枢整合康复治疗技术的虚拟现实训练系统 | |
McDaniel et al. | Therapeutic haptics for mental health and wellbeing | |
JP7445933B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
Rahman | i-Therapy: a non-invasive multimedia authoring framework for context-aware therapy design | |
JP2022187952A (ja) | プログラム、方法、情報処理装置 | |
Matthies | Reflexive interaction-extending peripheral interaction by augmenting humans | |
KR102543337B1 (ko) | 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법 | |
Kruijff | Unconventional 3D user interfaces for virtual environments | |
Aslan et al. | Resonating experiences of self and others enabled by a tangible somaesthetic design | |
Malzkuhn | Recognizing highly variable American Sign Language in virtual reality | |
CA3059903A1 (en) | Stress management in clinical settings | |
Greci et al. | The Social and hUman CeNtered XR: SUN XR Project |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7445933 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |