JP7244390B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP7244390B2 JP7244390B2 JP2019151993A JP2019151993A JP7244390B2 JP 7244390 B2 JP7244390 B2 JP 7244390B2 JP 2019151993 A JP2019151993 A JP 2019151993A JP 2019151993 A JP2019151993 A JP 2019151993A JP 7244390 B2 JP7244390 B2 JP 7244390B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- situation
- situation information
- body motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 26
- 238000003672 processing method Methods 0.000 title description 3
- 230000033001 locomotion Effects 0.000 claims description 130
- 230000006870 function Effects 0.000 claims description 16
- 238000013480 data collection Methods 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 230000037007 arousal Effects 0.000 claims description 4
- 230000008921 facial expression Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 32
- 230000005540 biological transmission Effects 0.000 description 14
- 239000000284 extract Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002889 sympathetic effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、本発明の第1の実施形態に係る情報処理装置を含むシステムの概略的な構成を示すブロック図である。図示された例において、システム10は、端末装置100A,100Bと、カメラ210と、マイクロフォン220A,220Bと、ディスプレイ230と、サーバー300とを含む。カメラ210およびマイクロフォン220Aは端末装置100Aに接続され、マイクロフォン220Bおよびディスプレイ230は端末装置100Bに接続される。また、端末装置100A,100Bは、それぞれネットワークを介してサーバー300に接続される。
図3は、本発明の第2の実施形態に係る情報処理装置を含むシステムの概略的な構成を示すブロック図である。図示された例において、システム20は、端末装置100と、カメラ210と、マイクロフォン220と、ディスプレイ230と、サーバー300とを含む。上記の第1の実施形態との違いとして、本実施形態では、例えばユーザIDによって特定される単一のユーザUに対して、身体動作の特徴量と状況情報との関係性が学習され、学習結果に基づいて、ユーザUによって観察される状況に対応した身体動作が仮想的に構築される。
図4は、本発明の第3の実施形態に係る情報処理装置を含むシステムの概略的な構成を示すブロック図である。図示された例において、システム30は、端末装置400A,400Bと、カメラ210と、ゲーム機240A,240Bと、サーバー300とを含む。上記の第1の実施形態との違いとして、本実施形態では、マイクロフォンの代わりにゲーム機240A,240Bによって状況情報が取得される。また、仮想的に構築された身体動作の出力にもゲーム機240Bが用いられる。
Claims (18)
- ユーザの身体動作の特徴量と、前記身体動作が発生したときの前記ユーザの状況を示す状況情報とを収集するデータ収集部と、
前記身体動作の特徴量と前記状況情報との関係性を学習することによって前記身体動作の特徴量を前記状況情報に従って分類する学習済みモデルを構築する関係性学習部と、
前記学習済みモデルに基づいて、前記状況情報を前記身体動作の特徴量に対応付けたマップを生成するマップ生成部と
を備える情報処理装置。 - 前記状況情報は、前記ユーザの発話の音声認識結果から抽出されるメタ言語的な情報、または前記ユーザの発話の抑揚もしくは強弱の特徴量から抽出されるパラ言語的な情報の少なくともいずれかを含む、請求項1に記載の情報処理装置。
- 前記状況情報は、前記ユーザがプレイするインタラクティブなコンテンツのログから抽出される情報を含む、請求項1または請求項2に記載の情報処理装置。
- 前記状況情報は、前記ユーザがプレイするインタラクティブなコンテンツ内のフラグ情報またはパラメータから抽出される情報を含む、請求項1から請求項3のいずれか1項に記載の情報処理装置。
- 前記状況情報は、前記ユーザの状況をValence属性とArousal属性とを用いて表現する、請求項1から請求項4のいずれか1項に記載の情報処理装置。
- 前記身体動作は、身体部分の動き、表情または視線方向の変化を含む、請求項1から請求項5のいずれか1項に記載の情報処理装置。
- 前記データ収集部は、前記ユーザのIDまたは属性情報をさらに収集し、
前記関係性学習部は、前記ユーザのIDまたは前記属性情報ごとに前記関係性を学習する、請求項1から請求項6のいずれか1項に記載の情報処理装置。 - ユーザによって観察される状況を示す第1の状況情報を取得する状況情報取得部と、
過去に発生した前記ユーザの第1の身体動作の特徴量と前記第1の身体動作が発生したときの前記ユーザの状況を示す第2の状況情報との関係性を学習することによって構築された学習済みモデルに基づいて生成されたマップにおいて前記第1の状況情報に対応付けられている特徴量から第2の身体動作を仮想的に構築する身体動作構築部と
を備える情報処理装置。 - 前記第1および第2の状況情報は、前記ユーザの発話の音声認識結果から抽出されるメタ言語的な情報、または前記ユーザの発話の抑揚もしくは強弱の特徴量から抽出されるパラ言語的な情報の少なくともいずれかを含む、請求項8に記載の情報処理装置。
- 前記第1および第2の状況情報は、前記ユーザがプレイするインタラクティブなコンテンツのログから抽出される情報を含む、請求項8または請求項9に記載の情報処理装置。
- 前記第1および第2の状況情報は、前記ユーザがプレイするインタラクティブなコンテンツ内のフラグ情報またはパラメータから抽出される情報を含む、請求項8から請求項10のいずれか1項に記載の情報処理装置。
- 前記第1および第2の状況情報は、前記ユーザの状況をValence属性とArousal属性とを用いて表現する、請求項8から請求項11のいずれか1項に記載の情報処理装置。
- 前記第1および第2の身体動作は、身体部分の動き、表情または視線方向の変化を含む、請求項8から請求項12のいずれか1項に記載の情報処理装置。
- 前記ユーザは、第1のユーザと第2のユーザとを含み、
前記第1の状況情報は、前記第1のユーザによって観察される状況を示し、
前記第2の状況情報は、前記第2のユーザの状況を示す、請求項8から請求項13のいずれか1項に記載の情報処理装置。 - 前記身体動作構築部は、前記第2の身体動作を前記ユーザに向けて表示される仮想的なキャラクターの動きとして出力する、請求項8から請求項14のいずれか1項に記載の情報処理装置。
- ユーザの第1の身体動作の特徴量と、前記第1の身体動作が発生したときの前記ユーザの状況を示す第1の状況情報とを収集するステップと、
前記第1の身体動作の特徴量と前記第1の状況情報との関係性を学習することによって前記第1の身体動作の特徴量を前記第1の状況情報に従って分類する学習済みモデルを構築するステップと、
前記ユーザによって観察される状況を示す第2の状況情報を取得するステップと、
前記学習済みモデルに基づいて生成されたマップにおいて前記第2の状況情報に対応付けられている特徴量から第2の身体動作を仮想的に構築するステップと
を含む情報処理方法。 - ユーザの身体動作の特徴量と、前記身体動作が発生したときの前記ユーザの状況を示す状況情報とを収集する機能と、
前記身体動作の特徴量と前記状況情報との関係性を学習することによって前記身体動作の特徴量を前記状況情報に従って分類する学習済みモデルを構築する機能と、
前記学習済みモデルに基づいて、前記状況情報を前記身体動作の特徴量に対応付けたマップを生成する機能と
をコンピュータに実現させるためのプログラム。 - ユーザによって観察される状況を示す第1の状況情報を取得する機能と、
過去に発生した前記ユーザの第1の身体動作の特徴量と前記第1の身体動作が発生したときの前記ユーザの状況を示す第2の状況情報との関係性を学習することによって構築された学習済みモデルに基づいて生成されたマップにおいて前記第1の状況情報に対応付けられている特徴量から第2の身体動作を仮想的に構築する機能と
をコンピュータに実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019151993A JP7244390B2 (ja) | 2019-08-22 | 2019-08-22 | 情報処理装置、情報処理方法およびプログラム |
PCT/JP2020/030818 WO2021033626A1 (ja) | 2019-08-22 | 2020-08-13 | 情報処理装置、情報処理方法およびプログラム |
US17/633,799 US20220327805A1 (en) | 2019-08-22 | 2020-08-13 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019151993A JP7244390B2 (ja) | 2019-08-22 | 2019-08-22 | 情報処理装置、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021033559A JP2021033559A (ja) | 2021-03-01 |
JP7244390B2 true JP7244390B2 (ja) | 2023-03-22 |
Family
ID=74660879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019151993A Active JP7244390B2 (ja) | 2019-08-22 | 2019-08-22 | 情報処理装置、情報処理方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220327805A1 (ja) |
JP (1) | JP7244390B2 (ja) |
WO (1) | WO2021033626A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012533134A (ja) | 2009-07-13 | 2012-12-20 | マイクロソフト コーポレーション | ユーザーから学習した入力を介し視覚表示を実写のようにする方法及びシステム |
-
2019
- 2019-08-22 JP JP2019151993A patent/JP7244390B2/ja active Active
-
2020
- 2020-08-13 US US17/633,799 patent/US20220327805A1/en active Pending
- 2020-08-13 WO PCT/JP2020/030818 patent/WO2021033626A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012533134A (ja) | 2009-07-13 | 2012-12-20 | マイクロソフト コーポレーション | ユーザーから学習した入力を介し視覚表示を実写のようにする方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
JP2021033559A (ja) | 2021-03-01 |
WO2021033626A1 (ja) | 2021-02-25 |
US20220327805A1 (en) | 2022-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tao et al. | End-to-end audiovisual speech recognition system with multitask learning | |
Eskimez et al. | Speech driven talking face generation from a single image and an emotion condition | |
CN109416816B (zh) | 支持交流的人工智能系统 | |
Sadoughi et al. | Speech-driven animation with meaningful behaviors | |
Bousmalis et al. | Spotting agreement and disagreement: A survey of nonverbal audiovisual cues and tools | |
US20130262114A1 (en) | Crowdsourced, Grounded Language for Intent Modeling in Conversational Interfaces | |
WO2019214456A1 (zh) | 一种肢体语言翻译系统、方法及服务器 | |
US20220172710A1 (en) | Interactive systems and methods | |
TW201117114A (en) | System, apparatus and method for message simulation | |
CN110209774A (zh) | 处理会话信息的方法、装置及终端设备 | |
CN113067953A (zh) | 客户服务方法、系统、装置、服务器及存储介质 | |
CN114495217A (zh) | 基于自然语言和表情分析的场景分析方法、装置及系统 | |
US20180336450A1 (en) | Platform to Acquire and Represent Human Behavior and Physical Traits to Achieve Digital Eternity | |
CN112860213B (zh) | 音频的处理方法和装置、存储介质及电子设备 | |
CN106708950A (zh) | 用于智能机器人自学习系统的数据处理方法及装置 | |
JP7244390B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2017191531A (ja) | コミュニケーションシステム、サーバ及びコミュニケーション方法 | |
CN115171673A (zh) | 一种基于角色画像的交流辅助方法、装置及存储介质 | |
KR20210015977A (ko) | 사망자와의 대화 구현 장치 | |
CN113301352A (zh) | 在视频播放期间进行自动聊天 | |
JP7257349B2 (ja) | 対象人物の特徴的な身振りを推定するプログラム、装置及び方法 | |
WO2022180862A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
JP7407560B2 (ja) | キーワード評価装置、キーワード評価方法及びキーワード評価プログラム | |
CN111783928A (zh) | 动物互动方法、装置、设备和介质 | |
WO2022180859A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7244390 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |