JP2018152004A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2018152004A
JP2018152004A JP2017049429A JP2017049429A JP2018152004A JP 2018152004 A JP2018152004 A JP 2018152004A JP 2017049429 A JP2017049429 A JP 2017049429A JP 2017049429 A JP2017049429 A JP 2017049429A JP 2018152004 A JP2018152004 A JP 2018152004A
Authority
JP
Japan
Prior art keywords
data
observation data
observation
processing unit
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017049429A
Other languages
English (en)
Other versions
JP6922284B2 (ja
Inventor
元気 長田
Genki Osada
元気 長田
タプリヤ ローシャン
Roshan Thapliya
タプリヤ ローシャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017049429A priority Critical patent/JP6922284B2/ja
Priority to US15/693,093 priority patent/US10482352B2/en
Publication of JP2018152004A publication Critical patent/JP2018152004A/ja
Application granted granted Critical
Publication of JP6922284B2 publication Critical patent/JP6922284B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】複数のデータから潜在的要因、具体的には感情を推定する際に、ラベリング作業を削減することができ、たとえいずれかのデータに欠損が生じても感情を推定することができる技術を提供する。
【解決手段】情報処理装置は、データ取得部10,12と、処理部14と、出力部16を備える。処理部14は、データ取得部10,12の訓練データを用いて半教師あり学習の機械学習を実行し、学習済みのモデルを用いてデータ取得部10,12の観測データからその潜在要因としての人物の感情を推定して出力する。処理部14は、再帰型ニューラルネットワーク(RNN)と変分オートエンコーダ(VAE)との組合せにより機械学習を実行する。
【選択図】図1

Description

本発明は、情報処理装置及びプログラムに関する。
従来から、ある状態を推定する際に、データ欠損や推定精度を向上させるべく複数のデータソースを収集する技術が知られている。
特許文献1には、時間当たりの人口密度を把握することを目的として、GPSと併用して時間当たりの端末の移動距離を収集し、GPSが欠損した場合に移動距離から密度分布を推測することが記載されている。
特許文献2には、生体情報と体動情報に基づいて心的状態情報を推定し、推定された心的状態情報をインデックスとしてライフログ情報に付与することが記載されている。具体的には、心拍や血圧、体温等の生体情報から、緊張状態、リラックス状態、覚醒状態等の精神状態を推定し、同じ精神状態であっても運動強度が大きくなると精神状態の心拍に対する影響が小さくなることを考慮して運動強度の影響を特定の関数で表現し、心的状態の推定に用いることが記載されている。
特開2015−011107号公報 特開2016−115057号公報
ところで、処理対象が人間の感情である場合、直接的に感情を知り得るデータはないため、得られたデータから推定する必要があるところ、データが欠損してしまうと推定が不可能となる。欠損したデータ自体の補間も不可能である。
また、近年では、ディープラーニング等の機械学習を用いて情報を処理する技術が急速に進展しており、これにより感情を推定することも考えられるが、機械学習のモデル化には一般にラベルデータが必要で、感情のようなデータにラベリングする作業は非常に面倒で高コストである。
本発明の第1の目的は、複数のデータから潜在的要因、具体的には感情を推定する際に、ラベリング作業を削減できる技術を提供することにある。また、本発明の第2の目的は、いずれかのデータに欠損が生じても感情推定を継続することができ、さらに、欠損したデータを補間することができる技術を提供することにある。
請求項1に記載の発明は、第1観測データを取得する第1データ取得部と、第2観測データを取得する第2データ取得部と、前記第1観測データと前記第2観測データの訓練データを用いて潜在要因としての人物の感情を出力すべく半教師あり学習で機械学習し、学習済みのモデルを用いて前記第1観測データと前記第2観測データの少なくともいずれかから前記感情を推定して出力する処理部とを備える情報処理装置である。
請求項2に記載の発明は、前記処理部は、再帰型ニューラルネットワーク(RNN)と変分オートエンコーダ(VAE)との組合せにより前記機械学習を実行する請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記処理部は、前記第1観測データと前記第2観測データの訓練データを用いて前記潜在要因を推定し、推定して得られたラベルと、教師データとして与えられたラベルを比較することで前記機械学習を実行する請求項1に記載の情報処理装置である。
請求項4に記載の発明は、前記処理部は、前記第1観測データと前記第2観測データの訓練データを用いて前記潜在要因を推定し、推定して得られた前記潜在要因から前記第1観測データと前記第2観測データを生成し、生成された第1観測データ及び第2観測データを、前記第1データ取得部及び前記第2データ取得部で取得された前記第1観測データ及び前記第2観測データと比較することで前記機械学習を実行する請求項1に記載の情報処理装置である。
請求項5に記載の発明は、前記処理部は、さらに、推定して得られた前記潜在要因から前記第1観測データと前記第2観測データを生成し、生成された第1観測データ及び第2観測データの少なくともいずれかを用いて、前記第1データ取得部及び前記第2データ取得部で取得された前記第1観測データ及び前記第2観測データの少なくともいずれかの欠損部分を補間して出力する請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記処理部は、前記第1データ取得部で取得された前記第1観測データの第1特徴量、及び前記第2データ取得部で取得された前記第2観測データの第2特徴量を算出し、前記第1特徴量と前記第2特徴量とに基づいて前記潜在要因を推定するものであり、前記第1特徴量と前記第2特徴量とが相互に相関するように前記第1特徴量及び前記第2特徴量を算出する請求項5に記載の情報処理装置である。
請求項7に記載の発明は、前記処理部は、前記再帰型ニューラルネットワークを用いて前記第1データ取得部で取得された前記第1観測データの第1特徴量、及び前記第2データ取得部で取得された前記第2観測データの第2特徴量を算出し、前記変分オートエンコーダを用いて前記第1特徴量及び前記第2特徴量を用いて前記潜在要因を推定する請求項2に記載の情報処理装置である。
請求項8に記載の発明は、前記第1観測データは人物の動きデータであり、前記第2観測データは前記人物の音声データである請求項1〜7のいずれかに記載の情報処理装置である。
請求項9に記載の発明は、前記第1観測データは人物の動きデータであり、前記第2観測データは前記人物の音声データであり、前記処理部は、前記第2観測データの欠損部分を補間して出力する請求項5に記載の情報処理装置である。
請求項10に記載の発明は、前記処理部は、補間された前記第2観測データをテキストデータに変換して出力する請求項9に記載の情報処理装置である。
請求項11に記載の発明は、コンピュータに、第1観測データ及び第2観測データを入力するステップと、前記第1観測データと前記第2観測データの訓練データを用いて潜在要因としての人物の感情を出力すべく半教師あり学習で機械学習するステップと、学習済みのモデルを用いて前記第1観測データと前記第2観測データの少なくともいずれかから前記感情を推定して出力するステップとを実行させるプログラムである。
請求項1〜4,7,11に記載の発明によれば、ラベリング作業を削減しつつ潜在要因としての人物の感情を推定して出力することができる。
請求項5,6に記載の発明によれば、さらに、いずれかの観測データが欠損しても他の観測データから人物の感情を推定して出力することができるとともに、欠損したデータを補間することができる。
請求項8に記載の発明によれば、さらに、動きデータと音声データから感情を推定して
出力することができる。
請求項9に記載の発明によれば、さらに、音声データが欠損してもこれを補間して出力することができる。
請求項10に記載の発明によれば、さらに、音声データが欠損してもこれを補間してテキストデータとして出力することができる。
情報処理装置の構成ブロック図である。 情報処理装置の具体的な構成図である。 情報処理装置での処理の模式的説明図(その1)である。 情報処理装置での処理の模式的説明図(その2)である。 潜在空間上へのプロット説明図である。 学習処理の処理フローチャートである。 半教師あり学習サブルーチンの処理フローチャートである。 感情推定及びデータ補間の処理フローチャートである。 データ補間サブルーチンの処理フローチャートである。 学習処理の模式的説明図(その1)である。 学習処理の模式的説明図(その2)である。 学習処理の詳細説明図である。 エラー伝播説明図である。 モーダル間の相関説明図(その1)である。 モーダル間の相関説明図(その2)である。 複数モーダルによる学習処理の模式的説明図である。 複数モーダルによる学習処理の詳細説明図である。
以下、図面に基づき本発明の実施形態について説明する。
図1は、実施形態における情報処理装置の構成ブロック図を示す。情報処理装置は、データ取得部10,12と、処理部14と、出力部16を備える。
データ取得部10,12は、それぞれ異なるデータ(観測データ)を取得して処理部14に供給する。データ取得部10,12で取得される観測データは、処理部14での推定処理の精度向上の観点からは互いに関連していることが望ましい。例えば、データ取得部10で人物の関節の動きに関するデータを取得し、データ取得部12で当該人物の音声データを取得する等である。
データ取得部10,12から処理部14への観測データの供給は、有線、無線のいずれでもよく、インターネット等の通信回線を介してもよい。すなわち、データ取得部10,12と処理部14は物理的に近接、あるいは単一筐体内に設けられている必要はなく、互いに離間していてもよい。図では、データ取得部10,12を示しているが、さらに他のデータ取得部があってもよい。
処理部14は、データ取得部10,12からの観測データを入力し、これらの観測データを処理して潜在要因としての人物の感情を推定する。処理部14は、機能ブロックとして、学習部141、推定部142、及びデータ補間部143を備える。
学習部141は、データ取得部10,12で取得した観測データから訓練データを収集し、当該訓練データを用いて機械学習する。機械学習のアルゴリズムとしては、
(1)教師あり学習
入力とそれに対応すべき出力(ラベル)を写像する関数を近似的に生成する
(2)教師なし学習
入力のみ(ラベルなしの例)からモデルを構築する
(3)半教師あり学習
ラベルありの例とラベルなしの例をどちらも扱えるようにしたもの
があるが、実施形態では特に上記(3)の半教師あり学習により機械学習する。なお、学習とは、モデルにおける重みWを調整しながら最適値を探索することを意味する。
推定部142は、学習部141により学習して得られたモデルを用いて、データ取得部10,12で取得した観測データを用いて人物の潜在要因としての感情を推定する。推定部142は、推定結果を出力部16に出力する。推定部142は、基本的にはデータ取得部10,12で取得した観測データをともに用いて感情を推定するが、データ取得部10,12のいずれかの観測データが欠損しても、欠損していない残りの観測データを用いて感情推定を継続して実行する。これは、観測データから潜在要因としての感情を推定する際に、観測データからその特徴量を算出し、当該特徴量から潜在要因を算出する一連のプロセスにおいて、観測データから算出される特徴量同士が互いに相関を持つように特徴量を算出することによって可能となるが、これについては後述する。推定部142は、データ取得部10,12のいずれかの観測データが欠損しても、欠損していない残りの観測データを用いて感情推定を継続して実行するから、データ取得部10,12の少なくともいずれかの観測データを用いて潜在要因としての感情を推定するものといえる。具体的には、
(a)データ取得部10,12の観測データがいずれも欠損していない場合には、両観測データを用いて感情を推定する
(b)データ取得部10の観測データが欠損した場合、データ取得部12の観測データを用いて感情を推定する
(c)データ取得部12の観測データが欠損した場合、データ取得部10の観測データを用いて感情を推定する
データ補間部143は、推定部142で得られた推定結果を用いてデータ取得部10,12のいずれかでデータ欠損が生じた場合にこれを補間する。データ補間は、推定部142で得られた推定結果、すなわち推定された潜在要因としての感情を用いて観測データを生成するプロセスと、生成した観測データで欠損箇所を補間するプロセスからなる。データ補間部143は、データ補間した結果を出力部16に出力する。
処理部14から出力部16への推定結果やデータ補間結果の供給は、有線、無線のいずれでもよく、インターネット等の通信回線を介してもよい。すなわち、処理部14と出力部16は物理的に近接、あるいは単一筐体内に設けられている必要はなく、互いに離間していてもよい。
図1における構成ブロックは、例えばデータ取得部10,12及び出力部16をサーバクライアントシステムにおけるクライアント側、処理部14をサーバ側に設置することで実現され得るが、これに限定されない。
図2は、図1に示される構成ブロックの具体的な構成図を示す。データ取得部10,12を各種のセンサで構成し、処理部14及び出力部16をコンピュータで構成する場合である。
潜在要因としての人物の感情を推定するコンピュータは、CPU18、ROM20、RAM22、インターフェイス24、HDD(ハードディスクドライブ)26、表示部28を備える。なお、これ以外にも、キーボードやマウス等の入力デバイス、インターネットに接続するための通信インターフェイス等も備えるが、周知の構成であるため省略する。
動きセンサ30は、データ取得部10として機能し、人物の関節の動きを取得してコンピュータに供給する。動きセンサ30は、例えばカメラで構成される。関節の動きデータは観測データとしてインターフェイス24を介してCPU18に供給される。
マイク32は、データ取得部12として機能し、当該人物の音声を取得してコンピュータに供給する。音声データは観測データとしてインターフェイス24を介してCPU18に供給される。なお、動きセンサ30とマイク32は一体化されていてもよく、市販のKinect(キネクト)等を用いることもできる。
CPU18は、ROM20あるいはHDD26に記憶された処理プログラムを読み出し、RAM22をワーキングメモリとして用いて学習部141,推定部142,及びデータ補間部143の各機能を実行する。すなわち、半教師あり学習により機械学習してモデルを学習し、学習して得られたモデルを用いて人物の潜在要因としての感情を推定し、推定した潜在要因を用いてデータ補間する。CPU18は、推定結果やデータ補間結果を出力部16としての表示部28に表示する。
なお、学習部141,推定部142,データ補間部143の各機能は、単一のプロセッサで実行してもよく、複数のプロセッサで分散処理してもよい。
図3及び図4は、処理部14での処理を模式的に示す。処理部14は、時系列で取得した動きデータと、時系列で取得した音声データを用いて人物の感情を推定する。推定すべき感情は、楽しい、悲しい、恐れ、怒り、嫌悪、軽蔑等であるが、これらに限定されない。感情等の潜在要因を推定する技術としては、HMM(隠れマルコフモデル)RNN(再帰型ニューラルネットワーク)、AE(オートエンコーダ)、VAE(変分オートエンコーダ)等が知られているが、実施形態ではRNNとVAEの組合せを基本として推定する。因みに、HMMでは観測した系列データの潜在的要因を推定できるが、シンボルの種類を予め定義しておく必要があり、全訓練データにラベリングが必要である。RNNでは隠れ層として観測データの特徴を連続的な値で表現できるが、同様に全訓練データにラベリングが必要である。AEは観測データを再現し得る特徴を抽出でき、ラベリングなしでも学習できるが、観測データを再現し得る特徴が必ずしもその観測データの潜在要因とは限らず、不要な情報も特徴として含む可能性がある。VAEは観測データと潜在要因をペアとして推定でき、ラベリングなしでも学習できる。処理部14は、RNNとVAEを組合せ、半教師あり学習によりモデルを学習する。
また、処理部14は、動きデータと音声データのいずれか、例えば音声データが何らかの原因で一時的に欠損した場合においても、感情推定処理を継続して実行し、かつ、推定した感情を用いることで欠損した音声データを補間する。感情を推定できるのであれば、必ずしも欠損した音声データを補間する必要はないとも考えられるが、例えば取得した音声データをテキストデータに変換し、このテキストデータを利用する等の場合には、欠損している音声データを補間する必要性が生じ得るので、このような事情を考慮して欠損データを補間する。
図5は、感情等の潜在要件の推定処理を模式的に示す。処理部14は、収集した観測データを潜在空間上にプロットしていく。似た形の観測データは、その発生の起源(原因)も似ているはずであると推定できるから、潜在空間上において近い位置にプロットされる。
図5において、互いに近い位置にプロットされるデータ群がクラスタ100,102,104として示されている。それぞれのクラスタに特定の感情が関連しているものとすると、観測データがどのクラスタに属しているかを判定することで感情を推定できる。
以下、学習部141における学習処理、推定部142における推定処理、データ補間部143におけるデータ補間処理について、より詳しく説明する。
<学習処理>
図6は、処理部14の処理フローチャートを示す。学習部141の処理フローチャートであり、CPU18で実行される処理である。
まず、処理部14は、訓練データを収集する(S101)。訓練データは、動きデータと音声データから構成される。具体的には、インターフェイス24を介して動きセンサ30とマイク32から時系列の動きデータ及び音声データを収集する。動きセンサ30及びマイク32から収集する時系列の動きデータ及び音声データのサンプリング周波数は任意であり、例えば1Hzである。
次に、ラベル付けするデータを選択し(S102)、訓練データにラベリングする(S103)。データの選択、及びラベリングは、例えばオペレータがキーボードやマウス等の入力デバイスを操作して手動で行う。
次に、処理部14は、「ラベルのあり/なし」でデータを仕分けし(S104)、仕分けされたデータを用いて学習サブルーチンを実行する(S105)。この学習サブルーチンは、ラベルありのデータとラベルなしのデータを用いた半教師あり学習サブルーチンである。
図7は、図6におけるS105の処理、すなわち半教師あり学習サブルーチンの処理フローチャートを示す。
まず、学習の繰り返し回数sを指定する(S201)。繰り返し回数sは、オペレータが手動で設定してもよく、あるいは予めデフォルト値を設定してROM20等のメモリに記憶してもよい。繰り返し回数sは任意であるが、例えばs=500に設定する。
次に、繰り返し回数sがs>0を満たすか否かを判定する(S202)。s>0の場合(S202でYES)、つまり未だ繰り返し回数が残っている場合には、ラベルなしのデータを用いた教師なし学習を行い(S203)、その後、ラベルありのデータを用いた教師あり学習を行う(S204)。S203とS204の処理を入れ替え、まずはラベルありのデータを用いた教師あり学習を行い、その後、ラベルなしのデータを用いた教師なし学習を行ってもよい。そして、繰り返し回数sを1だけ減じ(S205)、S202〜S205の処理を繰り返し実行する。
他方、繰り返し回数sを順次減じ、最終的にs=0となった場合には(S202でNO)、必要な回数だけ学習を行ったとして処理を終了する。
<推定処理>
図8は、処理部14の処理フローチャートを示す。推定部142の処理フローチャートであり、CPU18で実行される処理である。図8の処理に先立って、図6及び図7に示すモデル学習処理は完了しているものとする。
まず、テスト対象のデータ(テストデータ)、すなわち推定の対象となるデータを学習済みモデルに入力する(S301)。
次に、入力したテストデータを学習済みモデルで処理し、潜在空間上に転写(プロット)する(S302)。潜在空間は図6に例示した空間である。
次に、テストデータのプロットに最も近いクラスタをそのテストデータが示す感情として判定する(S303)。例えば、テストデータを、楽しい、悲しい、恐れ、怒り、嫌悪、軽蔑のいずれかとして判定する。判定結果は表示部28に表示される。
次に、テストデータの補間を行うか否かを判定する(S304)。この判定は、テストデータに欠損が生じているか否かで行われ、欠損が生じていればテストデータの補間を行う必要があるとして(S304でYES)、データ補間サブルーチンを実行する(S305)。例えば、動きデータと音声データで感情を推定する場合であって、音声データが一時的に欠損しているときに当該音声データの欠損部分を補間する。
<データ補間>
図9は、図8におけるS305の処理、すなわちデータ補間サブルーチンの処理フローチャートを示す。データ補間部143の処理であり、CPU18で実行される処理である。
図8のS303で示すように、テストデータのプロットに最も近いクラスタをそのテストデータの感情として判定すると、これとは逆に、判定した感情(潜在要因)からテストデータを生成する。テストデータが動きデータと音声データである場合、判定した感情から動きデータと音声データを生成する(S401)。勿論、欠損したデータだけを生成してもよい。そして、生成したデータで欠損箇所を補間する(S402)。すなわち、判定した感情から動きデータ及び音声データを生成し、実際に入力した動きデータ及び音声データと比較し、データの欠損箇所を生成したデータで置換することで補間する。
図10及び図11は、学習部141の学習処理を模式的に示す。学習部141は、収集した観測データ(動きデータや音声データ)をx、観測データの特徴量をH、潜在変数(感情)をz、ラベルをyとすると、収集した観測データxgivenから特徴量Hを算出する学習にはRNNを用い、特徴量Hから潜在変数(感情)zを算出(エンコード)する学習にはラベルなしデータを用いる学習としてVAEを用いる。また、これに加えて、潜在変数(感情)zの算出精度を確保するためにラベル付きデータを用い、算出された潜在変数zに対応するラベルyinferedと教師データとしてのラベルygivenとを比較する。さらに、潜在変数zから逆に特徴量H及び観測データxを生成し、収集された観測データxgivenと生成した観測データxgeneratedを比較する。
図11に、比較の様子を示す。収集された観測データxgivenと生成された観測データxgeneratedとを比較し、そのずれ(誤差)が最小となるように重みを調整して学習する。これとともに、推定された潜在変数zに対応するラベルyinferedと、教師データとしてのラベル(正解ラベル)ygivenとを比較し、そのずれ(誤差)が最小となるように重みを調整して学習する。基本となるVAEは教師なし学習(ラベルなしデータでの学習)であるためその機能を維持しつつも、小量のラベル付きデータで潜在変数zの誤差を最小化すべく学習するので、小量のラベル付きデータで推定精度を確保できる。
<学習処理の詳細>
図12は、学習部141での学習処理の詳細を示す。図において、変数を以下のように定義する。
N:モーダルの識別番号(2モーダルの場合はN=1,2)
T:時間ウィンドウ幅であり、センサが1Hzでデータを送信する場合、ある時刻tにおけるzの推定は、t−T秒前からのT秒間のデータを用いて行われる。
xN:モーダルNで観測したT個分の時系列データであり、{xN_1,xN_2,・・・,xN_T}である。
hN:モーダルNのデータのT個分の特徴量であり、{hN_1,hN_2,・・・,hN_T}である。
xN_t:tステップ時のxN
hN_t:tステップ時のhN
h:h1〜hNの結合であり、2モーダルでh1が4次元、h2が3次元の場合、hは7次元となる。
W_AB:AからBへの変換に用いられる重みW
μ:hからW_hμで非線形変換された値
σ:hからW_hσで非線形変換された値
ε:微小量のランダム値であり、例えば平均0、分散0.01の正規分布で生成される。
z:潜在変数であり、z=μ+σεで定義される。
infered:推定したラベルであり、感情を表すカテゴリである。
given:正解ラベル(教師ラベル)
hN:zから生成された、モーダルNのデータのT個の特徴量
xN:hNから生成された、モーダルNのT個分の時系列データ
Σ:非線形関数であり、例えばtanh関数tanh()やsigmoid関数sigmoid()等である。
ここで、hNやzの次元は学習の開始に先立ってオペレータが指定し、例えばh1,h2の次元を150次元とし、zの次元を30次元等とする。予めデフォルト値の次元を設定してメモリに記憶してもよい。また、非線形関数Σも学習の開始に先立ってオペレータが指定しておく。予めデフォルトの関数を設定してメモリに記憶してもよい。
学習は、重みWを調整しながら最適解を探索することにより実行され、NN(ニューラルネットワーク)で一般的に用いられる勾配法等を用いることができる。
観測データxから特徴量hの算出は、非線形関数Σと重みWを用いて
hN_t=Σ(W_xNhN・xN+W_hNhN・hN_t−1)
により実行される。h_Tは、Tステップ分の観測データxの、履歴としての特徴量であり、RNNで実行される。
また、特徴量hから潜在変数zの算出は、重みWを用いて
μ=W_hμ・hN_T
σ=W_hσ・hN_T
z=μ+σε
により実行される。μ及びσは、h_Tの写像として算出されるものであり、どのように写像するかはVAEの学習により決定される。潜在変数zは、μ及びσと、ランダム変数であるεから算出される。算出された潜在変数zは潜在空間上にプロットされる。潜在変数zは推定されたラベルyinferedに対応する。
他方、潜在変数zからhの生成は、
h0=W_zh・z
hN_t=Σ(W_xNhN・xN+W_hNhN・hN_t−1)
により実行される。算出されたhからxの生成は、
xN_t=Σ(W_hNxN・hN_t)
により実行される。生成されたxはxgeneratedに対応する。
重みWの学習は、xgivenとxgeneratedの値の差であるエラー(Error)、及びygivenとyinferedの値の差であるエラー(Error)を最小化するように進む。
図13は、エラーの伝播の様子を示す。ygivenとyinferedの差であるエラーは、図中一点鎖線で示すようにラベル有りデータの場合のみ伝播される。他方、xgivenとxgeneratedの差であるエラーは、図中二点鎖線で示すようにラベル有りデータの場合とラベル無しデータの場合の両方の場合で伝播される。これらのエラーを最小化することで、ラベルyinferedの推定精度(すなわち潜在変数zの推定精度)、及びxgeneratedの生成精度が向上していく。
ここで、一点鎖線で示すエラーの伝播は、潜在変数zには伝播していない。これにより、ラベル情報がデータの生成、すなわちxgeneratedに関与しないように設定できる。このことは、ラベル無しデータでも二点鎖線の部分の学習が可能であることを意味し、教師あり学習と教師なし学習の両方を実行する半教師あり学習が可能なモデルとなる。
<データ補間処理の詳細>
以上のようにして潜在変数(感情)zを推定し、かつ、潜在変数zを用いて観測データxgeneratedを生成するが、複数のモーダルのいずれか、すなわち複数の観測データのいずれかに欠損が生じた場合に、欠損が生じていない観測データのみで推定を継続し、さらに欠損データを補間するためには、潜在変数zに複数のモーダル間を繋ぐ役割が求められる。
図14は、複数のモーダル(例としてモーダル1及びモーダル2)と潜在変数zとの関係を模式的に示す。図14(a)に示すように、潜在変数zがモーダル1、2のうちモーダル1の変数にのみ反応する場合、モーダル1に欠損が生じてしまうと潜在変数zの推定の継続は困難となり、また、モーダル2に欠損が生じても潜在変数zからモーダル2の欠損部分を補間できない。潜在変数zがモーダル1にのみ反応する以上、その潜在変数zから仮にモーダル2の観測データを生成したとしても元のモーダル2の観測データとの関連がないからである。これに対し、図14(b)に示すように、潜在変数zがモーダル1に反応するとともにモーダル2にも反応するのであれば、モーダル1,2のいずれかに欠損が生じたとしても欠損が生じていない残りのモーダルから潜在要因を推定でき、かつ、モーダル2に欠損が生じたとしても潜在変数zからモーダル2の欠損部分を補間できる。モーダル1に欠損が生じた場合についても同様である。これを実現するためには、機械学習時において、モーダルの特徴表現に対して複数のモーダル間で相間を持たせるように強制(条件付け)すればよい。ここで留意すべきは、相間を持たせるのはあくまでモーダルの特徴表現(特徴量)であって、潜在変数z自体に制限を課すのではない点である。これにより、潜在変数zにより表現される感情の推定精度が維持される。
図15は、学習時に複数のモーダル間で相間を持つように、モーダルの特徴表現に対して強制する方法を模式的に示す。図において、Xはモーダル1からRNNで算出した特徴量であり、Yはモーダル2からRNNで算出した特徴量である。特徴量Xを例として4次元で示し、特徴量Yを例として3次元で示す。
特徴量Xと特徴量Yの相間は、図に示すように行列として表現でき、右上がりの対角線で示す成分200の値を相対的に大きくし、左上がりの対角線で示す成分(対角成分)202の値を1に近づけ、それ以外の成分204の値を相対的に小さくするように設定することで、特徴量Xのモーダル1と特徴量Yのモーダル2との間に相間を持たせる。具体的には、目的関数として、
を用い、これが最大となるように特徴量X,Yを算出する。ここで、X^、Y^はそれぞれの平均、Var(X),Var(Y)はそれぞれの分散を示す。
図16及び図17は、複数のモーダルを用いた学習処理を模式的に示す。それぞれ1個のモーダルの処理を示す図10及び図12に対応するものである。
モーダル1の観測データxmodal1から特徴量Hmodal1が算出され、モーダル2の観測データxmodal2から特徴量Hmodal2が算出され、これらの特徴量から2つの特徴量に共通する潜在変数zが算出される。また、潜在変数zからモーダル1の観測データxmodal1が生成されるとともに、モーダル2の観測データxmodal2が生成される。生成されたこれらの観測データがモーダル1あるいはモーダル2の欠損箇所の補間に用いられる。
図17に示すように、モーダル1について観測データxから特徴量hの算出は、非線形関数Σと重みWを用いて
hN_t=Σ(W_xNhN・xN+W_hNhN・hN_t−1)
により実行され、同様にモーダル2についても観測データxから特徴量hを算出する。それぞれの特徴量hは、上記の目的関数Lを最大化するように算出される。
モーダル1の特徴量hをhmodal_1,T、モーダル2の特徴量hをhmodal_2,Tとすると、これら2つの特徴量から共通する潜在変数zの算出は、重みWを用いて
μ=W_hμ・hN_T
σ=W_hσ・hN_T
z=μ+σε
により実行される。ここで、特徴量hにはhmodal_1,T及びhmodal_2,Tが用いられる。
他方、潜在変数zからモーダル1の特徴量の生成は、
h0=W_zh・z
hN_t=Σ(W_xNhN・xN+W_hNhN・hN_t−1)
により実行される。図において、算出されたモーダル1の特徴量をhmodal_1,0等と示す。算出されたモーダル1の特徴量からモーダル1の観測データの生成は、
xN_t=Σ(W_hNxN・hN_t)
により実行される。図において、算出されたモーダル1の観測データをx1generated等と示す。モーダル2についても同様である。
潜在変数zはモーダル1及びモーダル2に共通する、すなわち相関する潜在変数であり、これらの生成された観測データを用いてモーダル1あるいはモーダル2の欠損箇所を補間できる。既述したように、モーダル1は例えば人物の関節の動き、モーダル2は音声データ等である。
なお、実施形態で用いられるVAE(変分オートエンコーダ)は公知であり、以下に簡単に説明しておく。詳細は、例えば、D. P. Kingma and M.Welling, “Auto-encoding variational Bayes,” in Proceedings of the International Conference on Learning Representations (ICLR-14), 2014.等に記載されている。
変分オートエンコーダの変数と潜在変数をそれぞれx,zとし、その確率モデルが
で定義されるものとする。ここで、θは確率モデルのパラメータである。
周辺尤度
を最大にするパラメータθを求める際に、事後分布
を近似する、パラメータφを持つ確率分布
を用いる。
この確率分布を用いると、周辺尤度は
と表すことができる。
ここで、右辺第一項
はKLダイバージェンスで、第二項は
と定義され、周辺尤度の変分下限である。パラメータθ,φについて変分下限を最大化することで、周辺尤度も大きくなる。
事前分布
はパラメータを持たない多変量標準ガウス分布
として、条件付き分布を次のように与える。
ここで、

はzを入力とする多層パーセプトロンによって決まる値である。
近似分布
も同様に、多層パーセプトロンを用いて表現する。
このように定義したモデルのパラメータに関して変分下限を最大化する。
変分下限は、
と表すことができる。第一項はガウス分布同士のKLダイバージェンスである。第二項は例えばモンテカルロ法により推定する。第二項の計算では、観測xに対してノイズが加えられた潜在変数がエンコードされる。
エンコードされたzは、
を通してデコードされ、観測データと比較される。つまり、第二項は復元精度を表す。他方、第一項は潜在変数の事前分布と事後分布のKLダイバージェンスであり、正則化項として働く。
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、種々の変形が可能である。以下に変形例について説明する。
<変形例1>
例えば、実施形態では複数のモーダルとして2個のモーダル、すなわち人物の関節の動きと音声データを例示したが、3個以上のモーダル、例えば人物の関節の動きと人物の顔の筋肉の動きと音声データとを用いて潜在要因(感情)を推定することもできる。なお、これら3つのモーダル間には何らかの相関があると考えられるので、実施形態のように一つのモデルで同時に学習することにより、その相関関係も把握することができる。
<変形例2>
また、人物の関節の動きと顔の筋肉の動きはともにカメラで撮影することが可能であるが、これらのカメラの撮影範囲が異なってもよい。この場合には、いずれかのデータの収集に失敗することも想定され得るが、いずれかのデータのみでも潜在要因(感情)の推定が可能であり、ロバスト性に優れた装置といえる。
<変形例3>
また、実施形態では、音声データを補間することで、たとえ音声データが欠損した場合であっても音声データのテキストデータへの変換を可能としているが、これ以外にも補間したデータを他の用途に使用することも可能である。具体的には、観測データとして、関節の動きデータと顔の動きデータと音声データから潜在要因としての感情を推定する場合において、顔の動きデータに欠損が生じたときに、推定した感情から欠損した顔の動きを補間して出力する等であり、これは顔の動きを人工的に合成してシミュレーションするものといえる。
<変形例4>
また、実施形態では、図1に示すように、処理部14が学習部141,推定部142,データ補間部143を備えるものとしているが、観測データに欠損が生じても潜在要因を推定できればよい場合、データ補間部143はなくてもよい。勿論、データ補間部143は機能モジュールとして存在するものの、用途に応じて当該データ補間機能モジュールをバイパスあるいは無効化してもよい。
<変形例5>
また、実施形態では、CPU18が処理部14として機能して学習、推定、データ補間の各処理を、ROMあるいはHDD26に記憶された処理プログラムを実行することで実現しているが、これらの機能の一部は、処理プログラムの実行によるソフトウェア処理ではなく、ハードウェア処理により実現してもよい。ハードウェア処理は、例えばASICやFPGA(フィールドプログラマブルゲートアレイ)などの回路を用いて行っても良い。なお、これらのハードウェア回路には、画像処理を担当するGPU(グラフィックスプロセッシングユニット)も含まれ得る。
<変形例6>
また、本実施形態では、感情として楽しい、悲しい、恐れ、怒り、嫌悪、軽蔑等を例示したが、うつ状態等、いわゆる精神疾患に関する内的状態も含まれ得る。
<変形例7>
さらに、本実施形態における情報処理装置は、人物の感情を推定し、推定した感情に基づいて適切な行動を行うことができるロボットに組み込むことも可能である。
10,12 データ取得部、14 処理部、16 出力部、18 CPU、20 ROM、22 RAM、24 インターフェイス、26 HDD、28 表示部、30 動きセンサ、32 マイク。

Claims (11)

  1. 第1観測データを取得する第1データ取得部と、
    第2観測データを取得する第2データ取得部と、
    前記第1観測データと前記第2観測データの訓練データを用いて潜在要因としての人物の感情を出力すべく半教師あり学習で機械学習し、学習済みのモデルを用いて前記第1観測データと前記第2観測データの少なくともいずれかから前記感情を推定して出力する処理部と、
    を備える情報処理装置。
  2. 前記処理部は、再帰型ニューラルネットワーク(RNN)と変分オートエンコーダ(VAE)との組合せにより前記機械学習を実行する
    請求項1に記載の情報処理装置。
  3. 前記処理部は、前記第1観測データと前記第2観測データの訓練データを用いて前記潜在要因を推定し、推定して得られたラベルと、教師データとして与えられたラベルを比較することで前記機械学習を実行する
    請求項1に記載の情報処理装置。
  4. 前記処理部は、前記第1観測データと前記第2観測データの訓練データを用いて前記潜在要因を推定し、推定して得られた前記潜在要因から前記第1観測データと前記第2観測データを生成し、生成された第1観測データ及び第2観測データを、前記第1データ取得部及び前記第2データ取得部で取得された前記第1観測データ及び前記第2観測データと比較することで前記機械学習を実行する
    請求項1に記載の情報処理装置。
  5. 前記処理部は、さらに、推定して得られた前記潜在要因から前記第1観測データと前記第2観測データを生成し、生成された第1観測データ及び第2観測データの少なくともいずれかを用いて、前記第1データ取得部及び前記第2データ取得部で取得された前記第1観測データ及び前記第2観測データの少なくともいずれかの欠損部分を補間して出力する
    請求項1に記載の情報処理装置。
  6. 前記処理部は、前記第1データ取得部で取得された前記第1観測データの第1特徴量、及び前記第2データ取得部で取得された前記第2観測データの第2特徴量を算出し、前記第1特徴量と前記第2特徴量とに基づいて前記潜在要因を推定するものであり、前記第1特徴量と前記第2特徴量とが相互に相関するように前記第1特徴量及び前記第2特徴量を算出する
    請求項5に記載の情報処理装置。
  7. 前記処理部は、前記再帰型ニューラルネットワークを用いて前記第1データ取得部で取得された前記第1観測データの第1特徴量、及び前記第2データ取得部で取得された前記第2観測データの第2特徴量を算出し、前記変分オートエンコーダを用いて前記第1特徴量及び前記第2特徴量を用いて前記潜在要因を推定する
    請求項2に記載の情報処理装置。
  8. 前記第1観測データは人物の動きデータであり、
    前記第2観測データは前記人物の音声データである
    請求項1〜7のいずれかに記載の情報処理装置。
  9. 前記第1観測データは人物の動きデータであり、
    前記第2観測データは前記人物の音声データであり、
    前記処理部は、前記第2観測データの欠損部分を補間して出力する
    請求項5に記載の情報処理装置。
  10. 前記処理部は、補間された前記第2観測データをテキストデータに変換して出力する
    請求項9に記載の情報処理装置。
  11. コンピュータに、
    第1観測データ及び第2観測データを入力するステップと、
    前記第1観測データと前記第2観測データの訓練データを用いて潜在要因としての人物の感情を出力すべく半教師あり学習で機械学習するステップと、
    学習済みのモデルを用いて前記第1観測データと前記第2観測データの少なくともいずれかから前記感情を推定して出力するステップと、
    を実行させるプログラム。
JP2017049429A 2017-03-15 2017-03-15 情報処理装置及びプログラム Active JP6922284B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017049429A JP6922284B2 (ja) 2017-03-15 2017-03-15 情報処理装置及びプログラム
US15/693,093 US10482352B2 (en) 2017-03-15 2017-08-31 Information processing device and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017049429A JP6922284B2 (ja) 2017-03-15 2017-03-15 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2018152004A true JP2018152004A (ja) 2018-09-27
JP6922284B2 JP6922284B2 (ja) 2021-08-18

Family

ID=63519452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017049429A Active JP6922284B2 (ja) 2017-03-15 2017-03-15 情報処理装置及びプログラム

Country Status (2)

Country Link
US (1) US10482352B2 (ja)
JP (1) JP6922284B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095132B1 (ko) * 2018-11-29 2020-03-30 한국과학기술원 음성 검출을 위한 잡음제거 변분 오토인코더 기반의 통합 훈련 방법 및 장치
KR20200052806A (ko) * 2018-10-25 2020-05-15 광주과학기술원 딥러닝 기반 기후 변화 예측 시스템의 동작 방법
EP3706029A1 (en) 2019-03-08 2020-09-09 Fujitsu Limited Program and data processing method
WO2021054402A1 (ja) * 2019-09-20 2021-03-25 株式会社 Preferred Networks 推定装置、訓練装置、推定方法及び訓練方法
JP2021056667A (ja) * 2019-09-27 2021-04-08 Kddi株式会社 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法
KR20210063151A (ko) 2019-11-22 2021-06-01 숙명여자대학교산학협력단 데이터의 의미론적 유사 여부를 분석하기 위하여 기계학습을 이용한 전자 장치 및 그 제어 방법
WO2021250868A1 (ja) * 2020-06-11 2021-12-16 日本電信電話株式会社 復元可否判定方法、復元可否判定装置及びプログラム
WO2022050359A1 (ja) * 2020-09-04 2022-03-10 ダイキン工業株式会社 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル
WO2023053324A1 (ja) * 2021-09-30 2023-04-06 日本電気株式会社 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体
JP2023183624A (ja) * 2022-06-16 2023-12-28 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127240B2 (en) 2014-10-17 2018-11-13 Zestfinance, Inc. API for implementing scoring functions
US10402696B2 (en) * 2016-01-04 2019-09-03 Texas Instruments Incorporated Scene obstruction detection using high pass filters
JP6922284B2 (ja) * 2017-03-15 2021-08-18 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
US11941650B2 (en) 2017-08-02 2024-03-26 Zestfinance, Inc. Explainable machine learning financial credit approval model for protected classes of borrowers
US10586370B2 (en) 2018-01-08 2020-03-10 Facebook Technologies, Llc Systems and methods for rendering avatars with deep appearance models
US10540981B2 (en) * 2018-02-28 2020-01-21 Ringcentral, Inc. Systems and methods for speech signal processing to transcribe speech
WO2019173734A1 (en) 2018-03-09 2019-09-12 Zestfinance, Inc. Systems and methods for providing machine learning model evaluation by using decomposition
WO2019212857A1 (en) 2018-05-04 2019-11-07 Zestfinance, Inc. Systems and methods for enriching modeling tools and infrastructure with semantics
CN108983804B (zh) * 2018-08-27 2020-05-22 燕山大学 一种基于深度强化学习的双足机器人步态规划方法
CN109222966A (zh) * 2018-10-09 2019-01-18 山东大学 一种基于变分自编码器的脑电信号情感分类方法
CN109359697A (zh) * 2018-10-30 2019-02-19 国网四川省电力公司广元供电公司 一种电力设备巡检中使用的图形图像识别方法及巡查系统
CN109389180A (zh) * 2018-10-30 2019-02-26 国网四川省电力公司广元供电公司 一款基于深度学习的电力设备图像识别方法及巡查机器人
US11995854B2 (en) * 2018-12-19 2024-05-28 Nvidia Corporation Mesh reconstruction using data-driven priors
CN109783645A (zh) * 2019-01-23 2019-05-21 福州大学 一种基于变分自编码的文本分类方法
JP7111017B2 (ja) * 2019-02-08 2022-08-02 日本電信電話株式会社 パラ言語情報推定モデル学習装置、パラ言語情報推定装置、およびプログラム
US11816541B2 (en) 2019-02-15 2023-11-14 Zestfinance, Inc. Systems and methods for decomposition of differentiable and non-differentiable models
CA3134043A1 (en) 2019-03-18 2020-09-24 Sean Javad Kamkar Systems and methods for model fairness
CN110047501B (zh) * 2019-04-04 2021-09-07 南京邮电大学 基于beta-VAE的多对多语音转换方法
CN110211575B (zh) * 2019-06-13 2021-06-04 思必驰科技股份有限公司 用于数据增强的语音加噪方法及系统
JP7392366B2 (ja) * 2019-10-01 2023-12-06 富士通株式会社 最適解獲得プログラム、最適解獲得方法および情報処理装置
US11720962B2 (en) 2020-11-24 2023-08-08 Zestfinance, Inc. Systems and methods for generating gradient-boosted models with improved fairness
CN112466314A (zh) * 2020-11-27 2021-03-09 平安科技(深圳)有限公司 情感语音数据转换方法、装置、计算机设备及存储介质
CN112599194B (zh) * 2021-03-02 2021-06-22 北京橡鑫生物科技有限公司 甲基化测序数据的处理方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010279638A (ja) 2009-06-08 2010-12-16 Nikon Corp ライフログ記録装置
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
WO2014183089A1 (en) * 2013-05-09 2014-11-13 Metavana, Inc. Hybrid human machine learning system and method
US9892315B2 (en) * 2013-05-10 2018-02-13 Sension, Inc. Systems and methods for detection of behavior correlated with outside distractions in examinations
CA2853346A1 (en) * 2013-06-04 2014-12-04 Robert Russell Lunan Automated accounting method
JP2015011107A (ja) 2013-06-27 2015-01-19 株式会社Nttドコモ 人口変化判断装置、及び人口変化判断方法
US9129152B2 (en) * 2013-11-14 2015-09-08 Adobe Systems Incorporated Exemplar-based feature weighting
EP3149653A4 (en) * 2014-05-29 2017-06-14 Beijing Kuangshi Technology Co., Ltd. Facial landmark localization using coarse-to-fine cascaded neural networks
WO2016045050A1 (en) * 2014-09-25 2016-03-31 Intel Corporation Facilitating efficient free in-plane rotation landmark tracking of images on computing devices
JP2016115057A (ja) 2014-12-12 2016-06-23 セイコーエプソン株式会社 生体情報処理システム、サーバーシステム、生体情報処理装置、生体情報処理方法及びプログラム
US9881234B2 (en) * 2015-11-25 2018-01-30 Baidu Usa Llc. Systems and methods for end-to-end object detection
US11580375B2 (en) * 2015-12-31 2023-02-14 Kla-Tencor Corp. Accelerated training of a machine learning based model for semiconductor applications
US10043261B2 (en) * 2016-01-11 2018-08-07 Kla-Tencor Corp. Generating simulated output for a specimen
US10572777B2 (en) * 2016-03-11 2020-02-25 Nec Corporation Deep deformation network for object landmark localization
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
JP6922284B2 (ja) * 2017-03-15 2021-08-18 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US10783394B2 (en) * 2017-06-20 2020-09-22 Nvidia Corporation Equivariant landmark transformation for landmark localization
US11573239B2 (en) * 2017-07-17 2023-02-07 Bioinformatics Solutions Inc. Methods and systems for de novo peptide sequencing using deep learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DIEDERIK P. KINGMA, ET AL.: "Semi-supervised Learning with Deep Generative Models", ARXIV, JPN7021000937, 31 October 2014 (2014-10-31), US, ISSN: 0004470940 *
OTTO FABIUS, ET AL.: "Variational Recurrent Auto-Encoders", ARXIV, JPN7021000936, 15 June 2015 (2015-06-15), US, ISSN: 0004470939 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200052806A (ko) * 2018-10-25 2020-05-15 광주과학기술원 딥러닝 기반 기후 변화 예측 시스템의 동작 방법
KR102172925B1 (ko) 2018-10-25 2020-11-02 광주과학기술원 딥러닝 기반 기후 변화 예측 시스템의 동작 방법
KR102095132B1 (ko) * 2018-11-29 2020-03-30 한국과학기술원 음성 검출을 위한 잡음제거 변분 오토인코더 기반의 통합 훈련 방법 및 장치
US11520857B2 (en) 2019-03-08 2022-12-06 Fujitsu Limited Storage medium and data processing method
EP3706029A1 (en) 2019-03-08 2020-09-09 Fujitsu Limited Program and data processing method
WO2021054402A1 (ja) * 2019-09-20 2021-03-25 株式会社 Preferred Networks 推定装置、訓練装置、推定方法及び訓練方法
JP7102080B2 (ja) 2019-09-27 2022-07-19 Kddi株式会社 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法
JP2021056667A (ja) * 2019-09-27 2021-04-08 Kddi株式会社 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法
KR20210063151A (ko) 2019-11-22 2021-06-01 숙명여자대학교산학협력단 데이터의 의미론적 유사 여부를 분석하기 위하여 기계학습을 이용한 전자 장치 및 그 제어 방법
WO2021250868A1 (ja) * 2020-06-11 2021-12-16 日本電信電話株式会社 復元可否判定方法、復元可否判定装置及びプログラム
WO2022050359A1 (ja) * 2020-09-04 2022-03-10 ダイキン工業株式会社 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル
JP2022043922A (ja) * 2020-09-04 2022-03-16 ダイキン工業株式会社 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル
JP7041374B2 (ja) 2020-09-04 2022-03-24 ダイキン工業株式会社 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル
US11965667B2 (en) 2020-09-04 2024-04-23 Daikin Industries, Ltd. Generation method, program, information processing apparatus, information processing method, and trained model
WO2023053324A1 (ja) * 2021-09-30 2023-04-06 日本電気株式会社 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体
JP2023183624A (ja) * 2022-06-16 2023-12-28 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7474447B2 (ja) 2022-06-16 2024-04-25 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
US20180268262A1 (en) 2018-09-20
US10482352B2 (en) 2019-11-19
JP6922284B2 (ja) 2021-08-18

Similar Documents

Publication Publication Date Title
JP6922284B2 (ja) 情報処理装置及びプログラム
Hakim et al. A systematic review of rolling bearing fault diagnoses based on deep learning and transfer learning: Taxonomy, overview, application, open challenges, weaknesses and recommendations
CN109271933B (zh) 基于视频流进行三维人体姿态估计的方法
CN109035250B (zh) 建立年龄预测模型的方法及装置、年龄预测方法及装置
US20160098633A1 (en) Deep learning model for structured outputs with high-order interaction
JP6766839B2 (ja) 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置
Mak et al. Ship as a wave buoy: Estimating relative wave direction from in-service ship motion measurements using machine learning
CN112766172A (zh) 一种基于时序注意力机制的人脸连续表情识别方法
JP2018147474A (ja) 学習装置、学習結果利用装置、学習方法及び学習プログラム
US20190216334A1 (en) Emotion representative image to derive health rating
Marban et al. Estimation of interaction forces in robotic surgery using a semi-supervised deep neural network model
CN112307947A (zh) 用于生成信息的方法和装置
Ivani et al. A gesture recognition algorithm in a robot therapy for ASD children
WO2018113260A1 (zh) 情绪表达的方法、装置和机器人
CN113392743B (zh) 异常动作检测方法、装置、电子设备和计算机存储介质
Vijayvargiya et al. PC-GNN: Pearson Correlation-Based Graph Neural Network for Recognition of Human Lower Limb Activity Using sEMG Signal
CN112597847A (zh) 人脸姿态估计方法、装置、电子设备和存储介质
JP7102080B2 (ja) 未来の潜在表現を予測するエンコーダのプログラム、装置及び方法
CN116309056A (zh) 图像重建方法、装置和计算机存储介质
CN113571190B (zh) 一种肺功能下降预测装置及其预测方法
Xu et al. Inception-LSTM human motion recognition with channel attention mechanism
CN115662510A (zh) 因果参数的确定方法、装置、设备以及存储介质
Elhalwagy et al. Hybridization of capsule and lstm networks for unsupervised anomaly detection on multivariate data
JP5061808B2 (ja) 感情判定方法
Chen et al. A Unified Framework for Generative Data Augmentation: A Comprehensive Survey

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6922284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150