JP2018152004A - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP2018152004A JP2018152004A JP2017049429A JP2017049429A JP2018152004A JP 2018152004 A JP2018152004 A JP 2018152004A JP 2017049429 A JP2017049429 A JP 2017049429A JP 2017049429 A JP2017049429 A JP 2017049429A JP 2018152004 A JP2018152004 A JP 2018152004A
- Authority
- JP
- Japan
- Prior art keywords
- data
- observation data
- observation
- processing unit
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 64
- 238000010801 machine learning Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 230000000306 recurrent effect Effects 0.000 claims abstract 2
- 230000008451 emotion Effects 0.000 claims description 57
- 230000010365 information processing Effects 0.000 claims description 29
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 43
- 238000002372 labelling Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 17
- 238000012360 testing method Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 230000007547 defect Effects 0.000 description 6
- 230000006996 mental state Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000007812 deficiency Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000016507 interphase Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】情報処理装置は、データ取得部10,12と、処理部14と、出力部16を備える。処理部14は、データ取得部10,12の訓練データを用いて半教師あり学習の機械学習を実行し、学習済みのモデルを用いてデータ取得部10,12の観測データからその潜在要因としての人物の感情を推定して出力する。処理部14は、再帰型ニューラルネットワーク(RNN)と変分オートエンコーダ(VAE)との組合せにより機械学習を実行する。
【選択図】図1
Description
出力することができる。
(1)教師あり学習
入力とそれに対応すべき出力(ラベル)を写像する関数を近似的に生成する
(2)教師なし学習
入力のみ(ラベルなしの例)からモデルを構築する
(3)半教師あり学習
ラベルありの例とラベルなしの例をどちらも扱えるようにしたもの
があるが、実施形態では特に上記(3)の半教師あり学習により機械学習する。なお、学習とは、モデルにおける重みWを調整しながら最適値を探索することを意味する。
(a)データ取得部10,12の観測データがいずれも欠損していない場合には、両観測データを用いて感情を推定する
(b)データ取得部10の観測データが欠損した場合、データ取得部12の観測データを用いて感情を推定する
(c)データ取得部12の観測データが欠損した場合、データ取得部10の観測データを用いて感情を推定する
図6は、処理部14の処理フローチャートを示す。学習部141の処理フローチャートであり、CPU18で実行される処理である。
図8は、処理部14の処理フローチャートを示す。推定部142の処理フローチャートであり、CPU18で実行される処理である。図8の処理に先立って、図6及び図7に示すモデル学習処理は完了しているものとする。
図9は、図8におけるS305の処理、すなわちデータ補間サブルーチンの処理フローチャートを示す。データ補間部143の処理であり、CPU18で実行される処理である。
図12は、学習部141での学習処理の詳細を示す。図において、変数を以下のように定義する。
N:モーダルの識別番号(2モーダルの場合はN=1,2)
T:時間ウィンドウ幅であり、センサが1Hzでデータを送信する場合、ある時刻tにおけるzの推定は、t−T秒前からのT秒間のデータを用いて行われる。
xN:モーダルNで観測したT個分の時系列データであり、{xN_1,xN_2,・・・,xN_T}である。
hN:モーダルNのデータのT個分の特徴量であり、{hN_1,hN_2,・・・,hN_T}である。
xN_t:tステップ時のxN
hN_t:tステップ時のhN
h:h1〜hNの結合であり、2モーダルでh1が4次元、h2が3次元の場合、hは7次元となる。
W_AB:AからBへの変換に用いられる重みW
μ:hからW_hμで非線形変換された値
σ:hからW_hσで非線形変換された値
ε:微小量のランダム値であり、例えば平均0、分散0.01の正規分布で生成される。
z:潜在変数であり、z=μ+σεで定義される。
yinfered:推定したラベルであり、感情を表すカテゴリである。
ygiven:正解ラベル(教師ラベル)
hN〜:zから生成された、モーダルNのデータのT個の特徴量
xN〜:hN〜から生成された、モーダルNのT個分の時系列データ
Σ:非線形関数であり、例えばtanh関数tanh()やsigmoid関数sigmoid()等である。
hN_t=Σ(W_xNhN・xN+W_hNhN・hN_t−1)
により実行される。h_Tは、Tステップ分の観測データxの、履歴としての特徴量であり、RNNで実行される。
また、特徴量hから潜在変数zの算出は、重みWを用いて
μ=W_hμ・hN_T
σ=W_hσ・hN_T
z=μ+σε
により実行される。μ及びσは、h_Tの写像として算出されるものであり、どのように写像するかはVAEの学習により決定される。潜在変数zは、μ及びσと、ランダム変数であるεから算出される。算出された潜在変数zは潜在空間上にプロットされる。潜在変数zは推定されたラベルyinferedに対応する。
h0〜=W_zh・z
hN〜_t=Σ(W_xNhN・xN〜+W_hNhN・hN〜_t−1)
により実行される。算出されたh〜からx〜の生成は、
xN〜_t=Σ(W_hNxN・hN_t)
により実行される。生成されたx〜はxgeneratedに対応する。
以上のようにして潜在変数(感情)zを推定し、かつ、潜在変数zを用いて観測データxgeneratedを生成するが、複数のモーダルのいずれか、すなわち複数の観測データのいずれかに欠損が生じた場合に、欠損が生じていない観測データのみで推定を継続し、さらに欠損データを補間するためには、潜在変数zに複数のモーダル間を繋ぐ役割が求められる。
hN_t=Σ(W_xNhN・xN+W_hNhN・hN_t−1)
により実行され、同様にモーダル2についても観測データxから特徴量hを算出する。それぞれの特徴量hは、上記の目的関数Lを最大化するように算出される。
μ=W_hμ・hN_T
σ=W_hσ・hN_T
z=μ+σε
により実行される。ここで、特徴量hにはhmodal_1,T及びhmodal_2,Tが用いられる。
h0〜=W_zh・z
hN〜_t=Σ(W_xNhN・xN〜+W_hNhN・hN〜_t−1)
により実行される。図において、算出されたモーダル1の特徴量をhmodal_1,0等と示す。算出されたモーダル1の特徴量からモーダル1の観測データの生成は、
xN〜_t=Σ(W_hNxN・hN_t)
により実行される。図において、算出されたモーダル1の観測データをx1generated等と示す。モーダル2についても同様である。
例えば、実施形態では複数のモーダルとして2個のモーダル、すなわち人物の関節の動きと音声データを例示したが、3個以上のモーダル、例えば人物の関節の動きと人物の顔の筋肉の動きと音声データとを用いて潜在要因(感情)を推定することもできる。なお、これら3つのモーダル間には何らかの相関があると考えられるので、実施形態のように一つのモデルで同時に学習することにより、その相関関係も把握することができる。
また、人物の関節の動きと顔の筋肉の動きはともにカメラで撮影することが可能であるが、これらのカメラの撮影範囲が異なってもよい。この場合には、いずれかのデータの収集に失敗することも想定され得るが、いずれかのデータのみでも潜在要因(感情)の推定が可能であり、ロバスト性に優れた装置といえる。
また、実施形態では、音声データを補間することで、たとえ音声データが欠損した場合であっても音声データのテキストデータへの変換を可能としているが、これ以外にも補間したデータを他の用途に使用することも可能である。具体的には、観測データとして、関節の動きデータと顔の動きデータと音声データから潜在要因としての感情を推定する場合において、顔の動きデータに欠損が生じたときに、推定した感情から欠損した顔の動きを補間して出力する等であり、これは顔の動きを人工的に合成してシミュレーションするものといえる。
また、実施形態では、図1に示すように、処理部14が学習部141,推定部142,データ補間部143を備えるものとしているが、観測データに欠損が生じても潜在要因を推定できればよい場合、データ補間部143はなくてもよい。勿論、データ補間部143は機能モジュールとして存在するものの、用途に応じて当該データ補間機能モジュールをバイパスあるいは無効化してもよい。
また、実施形態では、CPU18が処理部14として機能して学習、推定、データ補間の各処理を、ROMあるいはHDD26に記憶された処理プログラムを実行することで実現しているが、これらの機能の一部は、処理プログラムの実行によるソフトウェア処理ではなく、ハードウェア処理により実現してもよい。ハードウェア処理は、例えばASICやFPGA(フィールドプログラマブルゲートアレイ)などの回路を用いて行っても良い。なお、これらのハードウェア回路には、画像処理を担当するGPU(グラフィックスプロセッシングユニット)も含まれ得る。
また、本実施形態では、感情として楽しい、悲しい、恐れ、怒り、嫌悪、軽蔑等を例示したが、うつ状態等、いわゆる精神疾患に関する内的状態も含まれ得る。
さらに、本実施形態における情報処理装置は、人物の感情を推定し、推定した感情に基づいて適切な行動を行うことができるロボットに組み込むことも可能である。
Claims (11)
- 第1観測データを取得する第1データ取得部と、
第2観測データを取得する第2データ取得部と、
前記第1観測データと前記第2観測データの訓練データを用いて潜在要因としての人物の感情を出力すべく半教師あり学習で機械学習し、学習済みのモデルを用いて前記第1観測データと前記第2観測データの少なくともいずれかから前記感情を推定して出力する処理部と、
を備える情報処理装置。 - 前記処理部は、再帰型ニューラルネットワーク(RNN)と変分オートエンコーダ(VAE)との組合せにより前記機械学習を実行する
請求項1に記載の情報処理装置。 - 前記処理部は、前記第1観測データと前記第2観測データの訓練データを用いて前記潜在要因を推定し、推定して得られたラベルと、教師データとして与えられたラベルを比較することで前記機械学習を実行する
請求項1に記載の情報処理装置。 - 前記処理部は、前記第1観測データと前記第2観測データの訓練データを用いて前記潜在要因を推定し、推定して得られた前記潜在要因から前記第1観測データと前記第2観測データを生成し、生成された第1観測データ及び第2観測データを、前記第1データ取得部及び前記第2データ取得部で取得された前記第1観測データ及び前記第2観測データと比較することで前記機械学習を実行する
請求項1に記載の情報処理装置。 - 前記処理部は、さらに、推定して得られた前記潜在要因から前記第1観測データと前記第2観測データを生成し、生成された第1観測データ及び第2観測データの少なくともいずれかを用いて、前記第1データ取得部及び前記第2データ取得部で取得された前記第1観測データ及び前記第2観測データの少なくともいずれかの欠損部分を補間して出力する
請求項1に記載の情報処理装置。 - 前記処理部は、前記第1データ取得部で取得された前記第1観測データの第1特徴量、及び前記第2データ取得部で取得された前記第2観測データの第2特徴量を算出し、前記第1特徴量と前記第2特徴量とに基づいて前記潜在要因を推定するものであり、前記第1特徴量と前記第2特徴量とが相互に相関するように前記第1特徴量及び前記第2特徴量を算出する
請求項5に記載の情報処理装置。 - 前記処理部は、前記再帰型ニューラルネットワークを用いて前記第1データ取得部で取得された前記第1観測データの第1特徴量、及び前記第2データ取得部で取得された前記第2観測データの第2特徴量を算出し、前記変分オートエンコーダを用いて前記第1特徴量及び前記第2特徴量を用いて前記潜在要因を推定する
請求項2に記載の情報処理装置。 - 前記第1観測データは人物の動きデータであり、
前記第2観測データは前記人物の音声データである
請求項1〜7のいずれかに記載の情報処理装置。 - 前記第1観測データは人物の動きデータであり、
前記第2観測データは前記人物の音声データであり、
前記処理部は、前記第2観測データの欠損部分を補間して出力する
請求項5に記載の情報処理装置。 - 前記処理部は、補間された前記第2観測データをテキストデータに変換して出力する
請求項9に記載の情報処理装置。 - コンピュータに、
第1観測データ及び第2観測データを入力するステップと、
前記第1観測データと前記第2観測データの訓練データを用いて潜在要因としての人物の感情を出力すべく半教師あり学習で機械学習するステップと、
学習済みのモデルを用いて前記第1観測データと前記第2観測データの少なくともいずれかから前記感情を推定して出力するステップと、
を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017049429A JP6922284B2 (ja) | 2017-03-15 | 2017-03-15 | 情報処理装置及びプログラム |
US15/693,093 US10482352B2 (en) | 2017-03-15 | 2017-08-31 | Information processing device and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017049429A JP6922284B2 (ja) | 2017-03-15 | 2017-03-15 | 情報処理装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018152004A true JP2018152004A (ja) | 2018-09-27 |
JP6922284B2 JP6922284B2 (ja) | 2021-08-18 |
Family
ID=63519452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017049429A Active JP6922284B2 (ja) | 2017-03-15 | 2017-03-15 | 情報処理装置及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10482352B2 (ja) |
JP (1) | JP6922284B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102095132B1 (ko) * | 2018-11-29 | 2020-03-30 | 한국과학기술원 | 음성 검출을 위한 잡음제거 변분 오토인코더 기반의 통합 훈련 방법 및 장치 |
KR20200052806A (ko) * | 2018-10-25 | 2020-05-15 | 광주과학기술원 | 딥러닝 기반 기후 변화 예측 시스템의 동작 방법 |
EP3706029A1 (en) | 2019-03-08 | 2020-09-09 | Fujitsu Limited | Program and data processing method |
WO2021054402A1 (ja) * | 2019-09-20 | 2021-03-25 | 株式会社 Preferred Networks | 推定装置、訓練装置、推定方法及び訓練方法 |
JP2021056667A (ja) * | 2019-09-27 | 2021-04-08 | Kddi株式会社 | 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法 |
KR20210063151A (ko) | 2019-11-22 | 2021-06-01 | 숙명여자대학교산학협력단 | 데이터의 의미론적 유사 여부를 분석하기 위하여 기계학습을 이용한 전자 장치 및 그 제어 방법 |
WO2021250868A1 (ja) * | 2020-06-11 | 2021-12-16 | 日本電信電話株式会社 | 復元可否判定方法、復元可否判定装置及びプログラム |
WO2022050359A1 (ja) * | 2020-09-04 | 2022-03-10 | ダイキン工業株式会社 | 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル |
WO2023053324A1 (ja) * | 2021-09-30 | 2023-04-06 | 日本電気株式会社 | 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体 |
JP2023183624A (ja) * | 2022-06-16 | 2023-12-28 | ソフトバンク株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10127240B2 (en) | 2014-10-17 | 2018-11-13 | Zestfinance, Inc. | API for implementing scoring functions |
US10402696B2 (en) * | 2016-01-04 | 2019-09-03 | Texas Instruments Incorporated | Scene obstruction detection using high pass filters |
JP6922284B2 (ja) * | 2017-03-15 | 2021-08-18 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7073640B2 (ja) * | 2017-06-23 | 2022-05-24 | カシオ計算機株式会社 | 電子機器、感情情報取得システム、プログラム及び感情情報取得方法 |
US11941650B2 (en) | 2017-08-02 | 2024-03-26 | Zestfinance, Inc. | Explainable machine learning financial credit approval model for protected classes of borrowers |
US10586370B2 (en) | 2018-01-08 | 2020-03-10 | Facebook Technologies, Llc | Systems and methods for rendering avatars with deep appearance models |
US10540981B2 (en) * | 2018-02-28 | 2020-01-21 | Ringcentral, Inc. | Systems and methods for speech signal processing to transcribe speech |
WO2019173734A1 (en) | 2018-03-09 | 2019-09-12 | Zestfinance, Inc. | Systems and methods for providing machine learning model evaluation by using decomposition |
WO2019212857A1 (en) | 2018-05-04 | 2019-11-07 | Zestfinance, Inc. | Systems and methods for enriching modeling tools and infrastructure with semantics |
CN108983804B (zh) * | 2018-08-27 | 2020-05-22 | 燕山大学 | 一种基于深度强化学习的双足机器人步态规划方法 |
CN109222966A (zh) * | 2018-10-09 | 2019-01-18 | 山东大学 | 一种基于变分自编码器的脑电信号情感分类方法 |
CN109359697A (zh) * | 2018-10-30 | 2019-02-19 | 国网四川省电力公司广元供电公司 | 一种电力设备巡检中使用的图形图像识别方法及巡查系统 |
CN109389180A (zh) * | 2018-10-30 | 2019-02-26 | 国网四川省电力公司广元供电公司 | 一款基于深度学习的电力设备图像识别方法及巡查机器人 |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
CN109783645A (zh) * | 2019-01-23 | 2019-05-21 | 福州大学 | 一种基于变分自编码的文本分类方法 |
JP7111017B2 (ja) * | 2019-02-08 | 2022-08-02 | 日本電信電話株式会社 | パラ言語情報推定モデル学習装置、パラ言語情報推定装置、およびプログラム |
US11816541B2 (en) | 2019-02-15 | 2023-11-14 | Zestfinance, Inc. | Systems and methods for decomposition of differentiable and non-differentiable models |
CA3134043A1 (en) | 2019-03-18 | 2020-09-24 | Sean Javad Kamkar | Systems and methods for model fairness |
CN110047501B (zh) * | 2019-04-04 | 2021-09-07 | 南京邮电大学 | 基于beta-VAE的多对多语音转换方法 |
CN110211575B (zh) * | 2019-06-13 | 2021-06-04 | 思必驰科技股份有限公司 | 用于数据增强的语音加噪方法及系统 |
JP7392366B2 (ja) * | 2019-10-01 | 2023-12-06 | 富士通株式会社 | 最適解獲得プログラム、最適解獲得方法および情報処理装置 |
US11720962B2 (en) | 2020-11-24 | 2023-08-08 | Zestfinance, Inc. | Systems and methods for generating gradient-boosted models with improved fairness |
CN112466314A (zh) * | 2020-11-27 | 2021-03-09 | 平安科技(深圳)有限公司 | 情感语音数据转换方法、装置、计算机设备及存储介质 |
CN112599194B (zh) * | 2021-03-02 | 2021-06-22 | 北京橡鑫生物科技有限公司 | 甲基化测序数据的处理方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
JP2005346471A (ja) * | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010279638A (ja) | 2009-06-08 | 2010-12-16 | Nikon Corp | ライフログ記録装置 |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
WO2014183089A1 (en) * | 2013-05-09 | 2014-11-13 | Metavana, Inc. | Hybrid human machine learning system and method |
US9892315B2 (en) * | 2013-05-10 | 2018-02-13 | Sension, Inc. | Systems and methods for detection of behavior correlated with outside distractions in examinations |
CA2853346A1 (en) * | 2013-06-04 | 2014-12-04 | Robert Russell Lunan | Automated accounting method |
JP2015011107A (ja) | 2013-06-27 | 2015-01-19 | 株式会社Nttドコモ | 人口変化判断装置、及び人口変化判断方法 |
US9129152B2 (en) * | 2013-11-14 | 2015-09-08 | Adobe Systems Incorporated | Exemplar-based feature weighting |
EP3149653A4 (en) * | 2014-05-29 | 2017-06-14 | Beijing Kuangshi Technology Co., Ltd. | Facial landmark localization using coarse-to-fine cascaded neural networks |
WO2016045050A1 (en) * | 2014-09-25 | 2016-03-31 | Intel Corporation | Facilitating efficient free in-plane rotation landmark tracking of images on computing devices |
JP2016115057A (ja) | 2014-12-12 | 2016-06-23 | セイコーエプソン株式会社 | 生体情報処理システム、サーバーシステム、生体情報処理装置、生体情報処理方法及びプログラム |
US9881234B2 (en) * | 2015-11-25 | 2018-01-30 | Baidu Usa Llc. | Systems and methods for end-to-end object detection |
US11580375B2 (en) * | 2015-12-31 | 2023-02-14 | Kla-Tencor Corp. | Accelerated training of a machine learning based model for semiconductor applications |
US10043261B2 (en) * | 2016-01-11 | 2018-08-07 | Kla-Tencor Corp. | Generating simulated output for a specimen |
US10572777B2 (en) * | 2016-03-11 | 2020-02-25 | Nec Corporation | Deep deformation network for object landmark localization |
US11205103B2 (en) * | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
JP6922284B2 (ja) * | 2017-03-15 | 2021-08-18 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US10783394B2 (en) * | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Equivariant landmark transformation for landmark localization |
US11573239B2 (en) * | 2017-07-17 | 2023-02-07 | Bioinformatics Solutions Inc. | Methods and systems for de novo peptide sequencing using deep learning |
-
2017
- 2017-03-15 JP JP2017049429A patent/JP6922284B2/ja active Active
- 2017-08-31 US US15/693,093 patent/US10482352B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
JP2005346471A (ja) * | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
Non-Patent Citations (2)
Title |
---|
DIEDERIK P. KINGMA, ET AL.: "Semi-supervised Learning with Deep Generative Models", ARXIV, JPN7021000937, 31 October 2014 (2014-10-31), US, ISSN: 0004470940 * |
OTTO FABIUS, ET AL.: "Variational Recurrent Auto-Encoders", ARXIV, JPN7021000936, 15 June 2015 (2015-06-15), US, ISSN: 0004470939 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200052806A (ko) * | 2018-10-25 | 2020-05-15 | 광주과학기술원 | 딥러닝 기반 기후 변화 예측 시스템의 동작 방법 |
KR102172925B1 (ko) | 2018-10-25 | 2020-11-02 | 광주과학기술원 | 딥러닝 기반 기후 변화 예측 시스템의 동작 방법 |
KR102095132B1 (ko) * | 2018-11-29 | 2020-03-30 | 한국과학기술원 | 음성 검출을 위한 잡음제거 변분 오토인코더 기반의 통합 훈련 방법 및 장치 |
US11520857B2 (en) | 2019-03-08 | 2022-12-06 | Fujitsu Limited | Storage medium and data processing method |
EP3706029A1 (en) | 2019-03-08 | 2020-09-09 | Fujitsu Limited | Program and data processing method |
WO2021054402A1 (ja) * | 2019-09-20 | 2021-03-25 | 株式会社 Preferred Networks | 推定装置、訓練装置、推定方法及び訓練方法 |
JP7102080B2 (ja) | 2019-09-27 | 2022-07-19 | Kddi株式会社 | 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法 |
JP2021056667A (ja) * | 2019-09-27 | 2021-04-08 | Kddi株式会社 | 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法 |
KR20210063151A (ko) | 2019-11-22 | 2021-06-01 | 숙명여자대학교산학협력단 | 데이터의 의미론적 유사 여부를 분석하기 위하여 기계학습을 이용한 전자 장치 및 그 제어 방법 |
WO2021250868A1 (ja) * | 2020-06-11 | 2021-12-16 | 日本電信電話株式会社 | 復元可否判定方法、復元可否判定装置及びプログラム |
WO2022050359A1 (ja) * | 2020-09-04 | 2022-03-10 | ダイキン工業株式会社 | 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル |
JP2022043922A (ja) * | 2020-09-04 | 2022-03-16 | ダイキン工業株式会社 | 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル |
JP7041374B2 (ja) | 2020-09-04 | 2022-03-24 | ダイキン工業株式会社 | 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル |
US11965667B2 (en) | 2020-09-04 | 2024-04-23 | Daikin Industries, Ltd. | Generation method, program, information processing apparatus, information processing method, and trained model |
WO2023053324A1 (ja) * | 2021-09-30 | 2023-04-06 | 日本電気株式会社 | 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体 |
JP2023183624A (ja) * | 2022-06-16 | 2023-12-28 | ソフトバンク株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7474447B2 (ja) | 2022-06-16 | 2024-04-25 | ソフトバンク株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180268262A1 (en) | 2018-09-20 |
US10482352B2 (en) | 2019-11-19 |
JP6922284B2 (ja) | 2021-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6922284B2 (ja) | 情報処理装置及びプログラム | |
Hakim et al. | A systematic review of rolling bearing fault diagnoses based on deep learning and transfer learning: Taxonomy, overview, application, open challenges, weaknesses and recommendations | |
CN109271933B (zh) | 基于视频流进行三维人体姿态估计的方法 | |
CN109035250B (zh) | 建立年龄预测模型的方法及装置、年龄预测方法及装置 | |
US20160098633A1 (en) | Deep learning model for structured outputs with high-order interaction | |
JP6766839B2 (ja) | 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 | |
Mak et al. | Ship as a wave buoy: Estimating relative wave direction from in-service ship motion measurements using machine learning | |
CN112766172A (zh) | 一种基于时序注意力机制的人脸连续表情识别方法 | |
JP2018147474A (ja) | 学習装置、学習結果利用装置、学習方法及び学習プログラム | |
US20190216334A1 (en) | Emotion representative image to derive health rating | |
Marban et al. | Estimation of interaction forces in robotic surgery using a semi-supervised deep neural network model | |
CN112307947A (zh) | 用于生成信息的方法和装置 | |
Ivani et al. | A gesture recognition algorithm in a robot therapy for ASD children | |
WO2018113260A1 (zh) | 情绪表达的方法、装置和机器人 | |
CN113392743B (zh) | 异常动作检测方法、装置、电子设备和计算机存储介质 | |
Vijayvargiya et al. | PC-GNN: Pearson Correlation-Based Graph Neural Network for Recognition of Human Lower Limb Activity Using sEMG Signal | |
CN112597847A (zh) | 人脸姿态估计方法、装置、电子设备和存储介质 | |
JP7102080B2 (ja) | 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法 | |
CN116309056A (zh) | 图像重建方法、装置和计算机存储介质 | |
CN113571190B (zh) | 一种肺功能下降预测装置及其预测方法 | |
Xu et al. | Inception-LSTM human motion recognition with channel attention mechanism | |
CN115662510A (zh) | 因果参数的确定方法、装置、设备以及存储介质 | |
Elhalwagy et al. | Hybridization of capsule and lstm networks for unsupervised anomaly detection on multivariate data | |
JP5061808B2 (ja) | 感情判定方法 | |
Chen et al. | A Unified Framework for Generative Data Augmentation: A Comprehensive Survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6922284 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |