JP2020154654A - 推定プログラム、推定装置および推定方法 - Google Patents

推定プログラム、推定装置および推定方法 Download PDF

Info

Publication number
JP2020154654A
JP2020154654A JP2019051976A JP2019051976A JP2020154654A JP 2020154654 A JP2020154654 A JP 2020154654A JP 2019051976 A JP2019051976 A JP 2019051976A JP 2019051976 A JP2019051976 A JP 2019051976A JP 2020154654 A JP2020154654 A JP 2020154654A
Authority
JP
Japan
Prior art keywords
data
compression
estimation
degree
data group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019051976A
Other languages
English (en)
Other versions
JP7205328B2 (ja
Inventor
健人 上村
Taketo Uemura
健人 上村
優 安富
Masaru Yasutomi
優 安富
孝 河東
Takashi Kato
孝 河東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019051976A priority Critical patent/JP7205328B2/ja
Priority to US16/811,108 priority patent/US11145062B2/en
Publication of JP2020154654A publication Critical patent/JP2020154654A/ja
Application granted granted Critical
Publication of JP7205328B2 publication Critical patent/JP7205328B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

【課題】特定のタスクに対応する情報を手間なく自動で推定する。【解決手段】推定装置1は、特定のタスクに対応したデータ群21で自己符号化器を学習する。推定装置1は、該学習した自己符号化器を用いて、データ群21に含まれるデータについて、部分毎の圧縮の度合いを算出する。推定装置1は、該算出した部分毎の圧縮の度合いに基づいて、特定のタスクに対応したデータについてのデータ群21に含まれる他のデータとの共通部分を推定する。【選択図】図1

Description

本発明は、推定プログラムなどに関する。
機械学習では、例えば、画像データ群から所定のタスクを学習する。所定のタスクには、車が撮影された画像から車のメーカを判別することや、医療用のCT(Computed Tomography)画像から病気のリスクを予測することなどが挙げられる。
機械学習において、ニューラルネットワークを使用した次元圧縮のアルゴリズムとしてオートエンコーダ(自己符号化器)が知られている。かかるオートエンコーダにより、意味付けされた特徴情報および意味付けされない特徴情報が示す特徴を有するデータを生成する技術が開示されている(例えば、特許文献1参照)。
国際公開第2017/168870号
従来の技術では、画像データ群から、特定のタスクに必要でない、学習への利用を避けたい情報を選択的に除外する方法がなかった。言い換えれば、従来の技術では、画像データ群から、特定のタスクに必要な情報を手間なく自動で推定することができないという問題がある。
かかる問題について説明する。機械学習において、学習対象となるデータ群には、機械学習のタスクに必要な情報だけでなく、当該タスクに直接必要でない情報が含まれる。例えば、車が撮影された画像から車のメーカを判別するというタスクの場合に、画像に含まれるナンバープレートの情報や、歩行者や背景部分の情報は、機械学習への利用に、不要な情報もしくは明示的に避けたい情報である。すなわち、かかる情報は、車のメーカを判別するというタスクに直接必要でない情報である。ところが、同じデータ群であってもタスク毎に必要な情報は異なるため、一律の基準やルールでは、タスク毎に必要な情報を自動で推定することは難しい。すなわち、従来の技術では、特定のタスクに必要な情報を手間なく自動で推定することが難しい。
本発明は、1つの側面では、特定のタスクに対応する情報を手間なく自動で推定することを目的とする。
1つの態様では、推定プログラムは、コンピュータに、特定のタスクに対応したデータ群で自己符号化器を学習し、該学習した前記自己符号化器を用いて、前記データ群に含まれるデータについて、部分毎の圧縮の度合いを算出し、該合算出した部分毎の圧縮の度合いに基づいて、前記特定のタスクに対応した前記データにおける他のデータとの共通要素を推定する、処理を実行させる。
1実施態様によれば、特定のタスクに対応する情報を手間なく自動で推定することが可能となる。
図1は、実施例に係る推定装置の構成を示す機能ブロック図である。 図2は、実施例に係るAEモデルの一例を示す図である。 図3は、実施例に係るAE学習処理の一例を示す図である。 図4Aは、実施例に係る圧縮度合い算出処理の一例を示す図(1)である。 図4Bは、実施例に係る圧縮度合い算出処理の一例を示す図(2)である。 図5は、実施例に係る推定処理の一例を示す図である。 図6Aは、実施例に係る推定処理の別の例を示す図(1)である。 図6Bは、実施例に係る推定処理の別の例を示す図(2)である。 図7は、実施例に係るAE学習処理のフローチャートの一例を示す図である。 図8は、実施例に係る圧縮度合い算出処理のフローチャートの一例を示す図である。 図9は、推定プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示する推定プログラム、推定装置および推定方法の実施例を図面に基づいて詳細に説明する。なお、本発明は、実施例により限定されるものではない。
[実施例に係る推定装置の構成]
図1は、実施例に係る推定装置の構成を示す機能ブロック図である。図1に示す推定装置1は、特定のタスクに対応したデータ群で自己符号化器を学習し、学習した自己符号化器を用いて、データ群に含まれるデータの部分毎の圧縮率の差異により、当該データ内の必要な情報(データ群の共通の情報)を推定する。ここでいう自己符号化器とは、オートエンコーダ(AE:Auto Encoder)のことをいう。
推定装置1は、制御部10および記憶部20を有する。
制御部10は、CPU(Central Processing Unit)などの電子回路に対応する。そして、制御部10は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部10は、AE学習部11と、圧縮度合い算出部12と、推定部13とを有する。なお、AE学習部11は、学習部の一例である。圧縮度合い算出部12は、算出部の一例である。推定部13は、推定部の一例である。
記憶部20は、例えば、RAM、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。記憶部20は、データ群21と、AEモデルパラメータ22と、推定結果23とを有する。
データ群21は、特定のタスクに対応する画像データの集合である。特定のタスクとは、例えば、車が撮影された画像から車のメーカを判別するというタスクであったり、医療で用いられるCT画像から病気のリスクを予測するというタスクであったりする。データ群21は、このような特定のタスクに対応する画像データの集合である。そして、データ群21の各データには、特定のタスクに必要な情報だけでなく、特定のタスクに不要な情報も含まれている。不要な情報の一例として、車のメーカを判別するというタスクの場合に、車の背景、ナンバープレート、歩行者などの情報がある。また、不要な情報の別の一例として、個人情報などのプライバシーに関連する情報がある。
AEモデルパラメータ22は、AEの入力と出力とが一致するように学習した結果を示すAEモデルの調整されたパラメータである。パラメータには、AEに含まれるエンコーダおよびデコーダのそれぞれの重みが含まれる。なお、AEモデルパラメータ22は、AE学習部11によって調整される。
推定結果23は、特定のタスクに対応するデータ群21の共通の情報を推定した結果である。なお、推定結果23は、後述する推定部13によって生成される。
AE学習部11は、特定のタスクに対応したデータ群21でAEを学習する。例えば、AE学習部11は、特定のタスクに対応した教師なしのデータ群21を用いて、AEの入力と出力との誤差が小さくなるようにAEのパラメータを調整する。そして、AE学習部11は、特定のタスクに対応したAEモデルを生成する。そして、AE学習部11は、学習したAEのパラメータをAEモデルパラメータ22に保持する。
ここで、実施例に係るAE学習処理について、図2および図3を参照して説明する。図2は、実施例に係るAEモデルの一例を示す図である。図3は、実施例に係るAE学習処理の一例を示す図である。ここでは、特定のタスクを「車が撮影された画像から車のメーカを判別する」というタスクとして説明する。
図2に示すように、AE30は、エンコーダf31と、圧縮データ(ベクトル)z32と、デコーダg33とを含んで構成される。エンコーダf31は、符号化器であり、入力データxを圧縮する。圧縮した特徴が、圧縮データ(ベクトル)z32に設定される。デコーダg33は、復号化器であり、圧縮データ(ベクトル)z32を復元して復元データx´を生成する。
図3に示すように、AE学習部11は、特定のタスクに対応した教師なしの対象データ群Dのそれぞれのデータを入力する。AE学習部11は、復元データx´と入力データxとが一致するようにAEを学習する。すなわち、AE学習部11は、復元データx´と入力データxとの誤差が小さくなるように、エンコーダf31およびデコーダg32のそれぞれのパラメータ(例えば重み)を調整する。つまり、AE学習部11は、エンコーダf31により対象データ群Dの圧縮を学習するが、対象データ群Dに共通する情報(要素)ほど高い圧縮率で圧縮がなされ、圧縮した特徴を圧縮データ(ベクトル)z32に設定する。なお、圧縮データ(ベクトル)z32は、エンコーダf31とデコーダg32との中間に位置する圧縮した特徴であるので、以降、「中間特徴量」という場合がある。
図1に戻って、圧縮度合い算出部12は、学習したAEを用いて、データ群21に含まれるデータについて、部分(要素)毎の圧縮の度合いを算出する。例えば、圧縮度合い算出部12は、学習済みのAEを用いて、データ群21に含まれるデータを入力して学習させることにより得られる第1の圧縮データ(ベクトル)z32(第1中間特徴量)を生成する。圧縮度合い算出部12は、データの要素を変化させた(加工した)データを入力して学習させることにより得られる第2の圧縮データ(ベクトル)z32(第2中間特徴量)を生成する。ここでいう要素は、予め定められた大きさの四角形であっても良いし、円形であっても良いし、1ピクセルであっても良い。圧縮度合い算出部12は、第1の圧縮データ(ベクトル)z32(第1中間特徴量)と第2の圧縮データ(ベクトル)z32(第2中間特徴量)とを用いてデータの要素毎の圧縮の度合いを算出する。
データの要素毎の圧縮の度合いは、例えば、以下の式(1)で表わすことができる。ここでいう式(1)は、データxの要素xiの変化の度合いに基づいて圧縮の度合いが計算されることを表わしている。なお、iは、インデックスを示す。式(1)の左辺のciは、データxの要素xiの圧縮の度合いを示す指標を示す。式(1)の右辺のf(x)は、データxの圧縮データ(ベクトル)(中間特徴量)zを示す。
Figure 2020154654
すなわち、圧縮度合い算出部12は、データxの要素xiを微小量変化させたときに、対応する圧縮データ(ベクトル)(中間特徴量)zがどの程度変化するかの度合いを圧縮の度合いとして算出する。例えば、要素xiについて、変化の度合いが小さければ、圧縮の度合いが高くなる(式(1)では、圧縮の度合いを示す指標は小さくなる)。これは、要素xiについて、高い圧縮率で圧縮がなされ、共通の程度が高いことを意味する。つまり、AEは、データ群21の多くのデータに共通する要素ほど高い圧縮率で圧縮がなされることから、圧縮度合い算出部12は、要素の圧縮の度合いから当該要素の、他のデータの要素との共通の程度を推定することが可能となる。
なお、式(1)は、データxの要素xiの変化に対する中間特徴量z(=f(x))のノルム(||z||)の変化量を、圧縮の度合いを示す指標ciとした。しかしながら、式(1)を変形して、データxの要素xiの変化に対する中間特徴量z(=f(x))のノルム(||z||)の変化量の逆数を、圧縮の度合いを示す指標ciとしても良い。
また、圧縮度合い算出部12は、以下の方法で、圧縮の度合いを算出しても良い。
一例として、圧縮度合い算出部12は、データxのxijの変化に対する中間特徴量z(=f(x))のノルム(||z||)の変化量を、圧縮の度合いを示す指標として算出しても良い。xijは、データxの位置(i,j)のピクセル値を示す。データxのxijの圧縮の度合いを示す指標pijは、例えば、以下の式(2)で表わされる。
Figure 2020154654
また、別の一例として、圧縮度合い算出部12は、データxのxijの圧縮の度合いを示す指標pijに対してxijと復元点のピクセル値x´ijとの復元誤差で重み付けした値を圧縮の度合いを示す指標として算出しても良い。データxのxijの圧縮の度合いを示す指標pijは、例えば、以下の式(3)で表わされる。かかる方法は、AEの復元誤差が残っている場合に有効である。これにより、圧縮度合い算出部12は、AEの復元誤差が残っている場合に、圧縮の度合いを示す指標を復元誤差で補正することで、圧縮の度合いを示す指標の信頼性を確保できる。
Figure 2020154654
また、別の一例として、圧縮度合い算出部12は、データxのxijの圧縮の度合いを示す指標pijに対してxijの周囲を考慮した重みを付けた値を圧縮の度合いを示す指標として算出しても良い。データxのxijの圧縮の度合いを示す指標pijは、例えば、以下の式(4)で表わされる。かかる方法は、自然を撮影した画像など隣接ピクセル同士に連続性がある場合やノイズを含む場合に有効である。これにより、圧縮度合い算出部12は、後述する補助画像が滑らかになり、何らかの異常値やノイズに対する頑健性を向上させることができる。なお、qijは、重み付けの分布を示し、xijを中心とした一定範囲の一様分布や正規分布などであれば良い。
Figure 2020154654
また、別の一例として、圧縮度合い算出部12は、上記の方法の組合せで、データxのxijの圧縮の度合いを示す指標を算出しても良い。
推定部13は、部分(要素)毎の圧縮の度合いに基づいて、特定のタスクに対応したデータについてのデータ群21に含まれる他のデータとの共通要素を推定する。例えば、推定部13は、データ群21に含まれる各データについて、要素毎の圧縮の度合いを示す指標を用いて、補助画像を生成する。一例として、推定部13は、要素毎の圧縮の度合いを示す指標を並べて、補助画像としてヒートマップを生成する。さらに具体的には、推定部13は、圧縮の度合いを示す指標の算出に式(1)が適用された場合には、圧縮の度合いを示す指標が小さい要素ほど強調した要素となるような補助画像を生成する。つまり、推定部13は、圧縮の度合いが高いほど強調した要素となるような補助画像を生成すれば良い。そして、推定部13は、補助画像を用いて、強調した要素を共通要素として推定する。言い換えれば、推定部13は、強調のない要素を非共通な要素として推定する。そして、推定部13は、データ毎に、補助画像とともに推定した共通要素を推定結果23に保持する。このようにして、推定部13は、特定のタスクに対応する必要な情報を推定することができる。言い換えれば、推定部13は、特定のタスクに不要な情報を推定することができる。
[圧縮度合い算出処理の一例]
図4Aおよび図4Bは、実施例に係る圧縮度合い算出処理の一例を示す図である。ここでは、図3と同様に、特定のタスクを「車が撮影された画像から車のメーカを判別する」というタスクとして説明する。
図4Aに示すように、圧縮度合い算出部12は、対象データ群Dに含まれるデータxを学習済みのAEに入力して学習させることにより得られる第1の圧縮データ(ベクトル)z32(第1中間特徴量)を生成する。
図4Bに示すように、圧縮度合い算出部12は、データの要素を変化させたデータxを学習済みのAEに入力して学習させることにより得られる第2の圧縮データ(ベクトル)z32(第2中間特徴量)を生成する。ここでは、圧縮度合い算出部12は、画像内の一部の要素を順番に変化させたそれぞれのデータxをAEに入力して第2の圧縮データ(ベクトル)z32を生成する。
そして、圧縮度合い算出部12は、第1の圧縮データ(ベクトル)z32(第1中間特徴量)と第2の圧縮データ(ベクトル)z32(第2中間特徴量)とを用いてデータの要素毎の圧縮の度合いを算出する。
[推定処理の一例]
図5は、実施例に係る推定処理の一例を示す図である。ここでは、図3、図4Aおよび図4Bと同様に、特定のタスクを「車が撮影された画像から車のメーカを判別する」というタスクとして説明する。また、圧縮の度合いを示す指標は、式(1)により算出された場合とする。
図5に示すように、推定部13は、元画像について、要素毎の圧縮の度合いを示す指標を並べて、補助画像としてヒートマップG0を生成する。ここでは、推定部13は、圧縮の度合いを示す指標が小さい要素ほど強調した要素となるようなヒートマップG0を生成する。つまり、推定部13は、圧縮の度合いが高いほど強調した要素となるようなヒートマップG0を生成する。そして、推定部13は、ヒートマップG0を用いて、強調した要素を共通要素として推定する。ここでは、「車体」が強調した要素群となるので、「車体」が共通要素として推定される。
この後、推定部13は、ヒートマップの情報を用いて、前述した二値化画像(マスク画像)やタスクの学習などに利用しても良い。
[推定処理の別の例]
なお、推定部13は、さらに、以下の方法で、補助画像からマスク画像へ変換しても良い。図6Aおよび図6Bは、実施例に係る推定処理の別の例を示す図である。ここでは、図3、図4Aおよび図4Bと同様に、特定のタスクを「車が撮影された画像から車のメーカを判別する」というタスクとして説明する。また、圧縮の度合いを示す指標は、式(1)により算出された場合とする。
図6Aに示すように、推定部13は、元画像について、要素毎の圧縮の度合いを示す指標を並べて、補助画像としてヒートマップG0を生成する。ここでは、ヒートマップG0は、圧縮の度合いが高い(圧縮の度合いを示す指標が小さい)ほど強調した要素となるように生成される。推定部13は、同じ元画像に対して、教師なしの二値化手法を適用し、二値化による領域分割を行う。そして、推定部13は、ヒートマップG0と二値化による領域分割とを用いて、ヒートマップG0内の各指標値が予め定められた閾値より小さい値の要素を二値化による領域に変換する。これにより、推定部13は、元画像の画素値に直接依存しない方法で共通要素を示す領域を元画像から分割することができる。すなわち、推定部13は、特定のタスクに対応する必要な情報を精度良く推定することができる。
図6Bに示すように、推定部13は、元画像について、要素毎の圧縮の度合いを示す指標を並べて、補助画像としてヒートマップG0を生成する。ここでは、ヒートマップG0は、圧縮の度合いが高い(圧縮の度合いを示す指標が小さい)ほど強調した要素となるように生成される。推定部13は、同じ元画像に対して、教師なしの領域分割法を適用し、詳細な領域分割を行う。推定部13は、領域分割された領域毎に、ヒートマップに示す指標値の平均値を計算する。推定部13は、領域毎の平均値が予め定められた閾値より小さい平均値の領域の結合を行う。これにより、推定部13は、ビートマップのみでは復元要素などの精度が不足する場合であっても、共通要素を示す領域を元画像から分割することができる。すなわち、推定部13は、特定のタスクに対応する必要な情報を精度良く推定することができる。
[AE学習処理のフローチャート]
図7は、実施例に係るAE学習処理のフローチャートの一例を示す図である。図7に示すように、AE学習部11は、特定のタスクに対応したデータ群21を読み込む(ステップS11)。AE学習部11は、AEモデルを初期化する(ステップS12)。
AE学習部11は、AEモデルを学習する(ステップS13)。例えば、AE学習部11は、データ群21を用いて、AEの入力と出力との誤差が小さくなるようにAEのパラメータを学習する。
AE学習部11は、AEモデルの精度は十分か否かを判定する(ステップS14)。AEモデルの精度は十分でないと判定した場合には(ステップS14;No)、AE学習部11は、さらにAEモデルを学習すべく、ステップS13に移行する。
一方、AEモデルの精度は十分であると判定した場合には(ステップS14;Yes)、AE学習部11は、AEモデルを出力する(ステップS15)。そして、AE学習処理のプロセスは、終了する。
[圧縮度合い算出処理のフローチャート]
図8は、実施例に係る圧縮度合い算出処理のフローチャートの一例を示す図である。図8に示すように、圧縮度合い算出部12は、データ群21を読み込む(ステップS21)。圧縮度合い算出部12は、学習済みのAEモデルを読み込む(ステップS22)。
圧縮度合い算出部12は、データ群21からデータを選択する(ステップS23)。圧縮度合い算出部12は、選択したデータの要素毎に、圧縮の度合いを算出する(ステップS24)。例えば、圧縮度合い算出部12は、AEモデルを用いて、選択したデータを入力して学習させることにより得られる第1の圧縮データ(ベクトル)z32を生成する。圧縮度合い算出部12は、データの要素を変化させたデータを入力して学習させることにより得られる第2の圧縮データ(ベクトル)z32を生成する。そして、圧縮度合い算出部12は、第1の圧縮データ(ベクトル)z32と第2の圧縮データ(ベクトル)z32とを用いて、選択したデータの要素毎の圧縮の度合いを算出する。一例として、圧縮度合い算出部12は、選択したデータの要素を微小量変化させたときに、対応する圧縮データ(ベクトル)(中間特徴量)zがどの程度変化するかの度合いを圧縮の度合いを示す指標により算出する。
そして、推定部13は、選択したデータについて、要素毎の圧縮の度合いに基づいて、補助画像を生成する(ステップS25)。例えば、推定部13は、推定部13は、要素毎の圧縮の度合いを示す指標を並べて、補助画像としてヒートマップを生成する。
そして、圧縮度合い算出部12は、データ群21から全てのデータを選択したか否かを判定する(ステップS26)。全てのデータを選択していないと判定した場合には(ステップS26;No)、圧縮度合い算出部12は、次のデータを選択すべく、ステップS23に移行する。
一方、全てのデータを選択したと判定した場合には(ステップS26;Yes)、推定部13は、データ群21のそれぞれの補助画像を出力する(ステップS27)。そして、圧縮度合い算出処理のプロセスは、終了する。
なお、推定部13は、データ群21の各データについて、要素毎の圧縮の度合いに基づいて生成されたヒートマップなどの補助画像を用いて、強調した要素を共通要素として推定し、強調のない要素を非共通な要素として推定すると説明した。この後、推定装置1は、推定した共通要素および非共通な要素をタスクの学習などに利用しても良い。
例えば、推定装置1は、データ群21の各データについて、非共通な要素を不要な要素として削除(マスキング)したデータを生成し、生成した各データを特定のタスクの学習に利用させても良い。この結果、推定装置1は、不要な要素を削除(マスキング)したデータ群21´を用いて特定のタスクを学習させることで、特定のタスクの機械学習の精度を向上させることができる。なお、不要の要素には、例えば車のメーカを判別するというタスクの場合には、車の背景、ナンバープレート、歩行者などの情報がある。また、不要な要素には、例えば車のメーカを判別するというタスクの場合には、搭乗者の人種や性別などの倫理的に使うべきでない情報がある。また、不要な要素には、例えば車のメーカを判別するというタスクの場合には、車の背景の歩行者部分や個人情報部分などのプライバシー保護のために使うべきでない情報がある。
また、圧縮度合い算出部12は、AEの圧縮データ(ベクトル)(中間特徴量)を用いて、データ群21の各データの要素毎の圧縮度合いを算出する。ここでいうAEの中間特徴量の次元は、データ群21の各データより小さい必要がある。理想的な次元は、データ群21の共通部分が非共通部分より圧縮の度合いが高くなり、かつAEとして復元が完全にできるような次元である。但し、AEの中間特徴量の次元は、理想的な次元より小さくなっても良い。これは、AEの中間特徴量の次元が理想的な次元より小さくなっても、AEの復元が完全ではなくなり、次元に応じて各要素の圧縮の度合い自体の値が変化したりすることになるが、要素間の圧縮の度合いの高低は変化しないからである。すなわち、データの要素毎の圧縮の度合いの順序関係が保持されていれば良いからである。
[実施例の効果]
上記実施例によれば、推定装置1は、特定のタスクに対応したデータ群21で自己符号化器を学習する。推定装置1は、学習した自己符号化器を用いて、データ群21に含まれるデータについて、部分毎の圧縮の度合いを算出する。推定装置1は、算出した部分毎の圧縮の度合いに基づいて、特定のタスクに対応したデータについてのデータ群21に含まれる他のデータとの共通部分を推定する。かかる構成によれば、推定装置1は、特定のタスクに必要な情報を手間なく自動で推定することができる。言い換えれば、推定装置1は、特定のタスクに不要な情報を推定することができる。
また、上記実施例によれば、推定装置1は、特定のタスクに対応した教師なしのデータ群21を用いて、自己符号化器の入力と出力とが一致するように自己符号化器を学習する。推定装置1は、自己符号化器を用いて、データ群21に含まれるデータを入力して学習させることにより得られる第1中間特徴量を生成する。推定装置は、データの部分を加工したデータを入力して学習させることにより得られる第2中間特徴量を生成する。推定装置1は、第1中間特徴量と第2中間特徴量とを用いてデータの部分毎の圧縮の度合いを算出する。かかる構成によれば、推定装置は、圧縮率が高い部分は特定のタスクに対応したデータ群21の中で共通している部分であることから、特定のタスクに対応した共通情報を推定できる。
また、上記実施例によれば、推定装置1は、部分毎の圧縮の度合いを用いて、圧縮率が高い部分ほど強調した補助画像を生成することで、共通部分を推定する。かかる構成によれば、推定装置1は、生成した補助画像を視覚的に表示することで、特定のタスクに必要な情報および必要でない情報を確実に推定できる。
また、上記実施例によれば、推定装置1は、さらに、対象のデータを所定の手法で領域に分割し、分割した領域を用いて、補助画像から圧縮率が所定値より高い領域を共通部分として推定する。かかる構成によれば、推定装置1は、対象のデータを分割した領域を用いることで、特定のタスクに対応する必要な情報を精度良く推定することができる。
また、上記実施例によれば、推定装置1は、さらに、対象のデータを所定の手法で領域に分割し、分割した領域毎に補助画像から得られる圧縮の度合いの平均値を算出する。推定装置1は、分割した領域毎の平均値に基づいて分割した領域を結合し、結合した領域を共通部分として推定する。かかる構成によれば、推定装置1は、対象のデータを分割した領域を用いることで、特定のタスクに対応する必要な情報を精度良く推定することができる。
[その他]
なお、推定装置1は、データ群21を画像データの集合として、データ群21の共通の要素を推定する場合を説明した。しかしながら、推定装置1は、これに限定されず、データ群21を音声データの集合として、データ群21の共通の音声要素を推定しても良い。また、推定装置1は、データ群21を文字列データの集合として、データ群21の共通の文字列要素を推定しても良い。
また、上記実施例では、推定装置1は、既知のパーソナルコンピュータ、ワークステーションなどの情報処理装置に、上記した制御部10及び記憶部20などの各機能を搭載することによって実現することができる。
また、図示した推定装置1の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、推定装置1の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、圧縮度合い算出部12と、推定部13とを1つの部として統合しても良い。また、推定部13を、要素毎の圧縮の度合いに基づいてヒートマップを生成する生成部と、ヒートマップから共通要素を推定する推定部とに分離しても良い。また、記憶部20を推定装置1の外部装置としてネットワーク経由で接続するようにしても良い。
また、上記実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した推定装置1と同様の機能を実現する推定プログラムを実行するコンピュータの一例を説明する。図9は、推定プログラムを実行するコンピュータの一例を示す図である。
図9に示すように、コンピュータ200は、各種演算処理を実行するCPU203と、ユーザからのデータの入力を受け付ける入力装置215と、表示装置209を制御する表示制御部207とを有する。また、コンピュータ200は、記憶媒体からプログラムなどを読取るドライブ装置213と、ネットワークを介して他のコンピュータとの間でデータの授受を行う通信制御部217とを有する。また、コンピュータ200は、各種情報を一時記憶するメモリ201と、HDD(Hard Disk Drive)205を有する。そして、メモリ201、CPU203、HDD205、表示制御部207、ドライブ装置213、入力装置215、通信制御部217は、バス219で接続されている。
ドライブ装置213は、例えばリムーバブルディスク210用の装置である。HDD205は、推定プログラム205aおよび推定処理関連情報205bを記憶する。
CPU203は、推定プログラム205aを読み出して、メモリ201に展開し、プロセスとして実行する。かかるプロセスは、推定装置1の各機能部に対応する。推定処理関連情報205bは、データ群21、AEモデルパラメータ22および推定結果23に対応する。そして、例えばリムーバブルディスク210が、推定プログラム205aなどの各情報を記憶する。
なお、推定プログラム205aについては、必ずしも最初からHDD205に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、光磁気ディスク、IC(Integrated Circuit)カードなどの「可搬用の物理媒体」に当該プログラムを記憶させておく。そして、コンピュータ200がこれらから推定プログラム205aを読み出して実行するようにしても良い。
1 推定装置
10 制御部
11 AE学習部
12 圧縮度合い算出部
13 推定部
20 記憶部
21 データ群
22 AEモデルパラメータ
23 推定結果

Claims (8)

  1. コンピュータに、
    特定のタスクに対応したデータ群で自己符号化器を学習し、
    該学習した前記自己符号化器を用いて、前記データ群に含まれるデータについて、部分毎の圧縮の度合いを算出し、
    該算出した部分毎の圧縮の度合いに基づいて、前記特定のタスクに対応した前記データについての前記データ群に含まれる他のデータとの共通部分を推定する
    処理を実行させる推定プログラム。
  2. 該学習する処理は、特定のタスクに対応した教師なしの前記データ群を用いて、前記自己符号化器の入力と出力とが一致するように前記自己符号化器を学習し、
    該算出する処理は、前記自己符号化器を用いて、前記データ群に含まれるデータを入力して学習させることにより得られる第1中間特徴量を生成し、前記データの部分を加工したデータを入力して学習させることにより得られる第2中間特徴量を生成し、前記第1中間特徴量と前記第2中間特徴量とを用いて前記データの部分毎の圧縮の度合いを算出する
    ことを特徴とする請求項1に記載の推定プログラム。
  3. 該推定する処理は、前記部分毎の圧縮の度合いを用いて、前記データ群について圧縮率が高い部分ほど強調した補助画像を生成し、生成した前記補助画像に基づいて前記共通部分を推定する
    ことを特徴とする請求項1または請求項2に記載の推定プログラム。
  4. 該推定する処理は、さらに、対象のデータを所定の手法で領域に分割し、分割した領域を用いて、前記補助画像から圧縮率が所定値より高い領域を前記共通部分として推定する
    ことを特徴とする請求項3に記載の推定プログラム。
  5. 該推定する処理は、さらに、対象のデータを所定の手法で領域に分割し、分割した領域毎に前記補助画像から得られる前記圧縮の度合いの平均値を算出し、分割した領域毎の平均値に基づいて分割した領域を結合し、結合した領域を前記共通部分として推定する
    ことを特徴とする請求項3に記載の推定プログラム。
  6. 前記データ群は、画像データのデータ群、音声データのデータ群または文章データのデータ群であることを特徴とする請求項1に記載の推定プログラム。
  7. 特定のタスクに対応したデータ群で自己符号化器を学習する学習部と、
    前記学習部によって学習された前記自己符号化器を用いて、前記データ群に含まれるデータについて、部分毎の圧縮の度合いを算出する算出部と、
    前記算出部によって算出された部分毎の圧縮の度合いに基づいて、前記特定のタスクに対応した前記データについての前記データ群に含まれる他のデータとの共通部分を推定する推定部と、
    を有することを特徴とする推定装置。
  8. 特定のタスクに対応したデータ群で自己符号化器を学習し、
    該学習した前記自己符号化器を用いて、前記データ群に含まれるデータについて、部分毎の圧縮の度合いを算出し、
    該算出した部分毎の圧縮の度合いに基づいて、前記特定のタスクに対応した前記データについての前記データ群に含まれる他のデータとの共通部分を推定する
    処理をコンピュータが実行する推定方法。
JP2019051976A 2019-03-19 2019-03-19 推定プログラム、推定装置および推定方法 Active JP7205328B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019051976A JP7205328B2 (ja) 2019-03-19 2019-03-19 推定プログラム、推定装置および推定方法
US16/811,108 US11145062B2 (en) 2019-03-19 2020-03-06 Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051976A JP7205328B2 (ja) 2019-03-19 2019-03-19 推定プログラム、推定装置および推定方法

Publications (2)

Publication Number Publication Date
JP2020154654A true JP2020154654A (ja) 2020-09-24
JP7205328B2 JP7205328B2 (ja) 2023-01-17

Family

ID=72514459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051976A Active JP7205328B2 (ja) 2019-03-19 2019-03-19 推定プログラム、推定装置および推定方法

Country Status (2)

Country Link
US (1) US11145062B2 (ja)
JP (1) JP7205328B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005090974A (ja) * 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
WO2017168870A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法
JP2018018313A (ja) * 2016-07-28 2018-02-01 国立大学法人信州大学 画像判別装置及び画像判別方法
JP2018513507A (ja) * 2015-03-20 2018-05-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 人工ニューラルネットワークの関連性スコア割当て
JP2019003615A (ja) * 2017-04-27 2019-01-10 ダッソー システムズDassault Systemes オートエンコーダの学習

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6059314B1 (ja) 2015-09-17 2017-01-11 ヤフー株式会社 推定装置、推定方法及び推定プログラム
JP6522050B2 (ja) 2017-06-07 2019-05-29 ヤフー株式会社 判定装置、学習装置、判定方法及び判定プログラム
WO2019009449A1 (ko) * 2017-07-06 2019-01-10 삼성전자 주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
KR102061810B1 (ko) * 2018-03-23 2020-01-02 단국대학교 산학협력단 멀티모달 딥러닝 기반의 이종 센서 신호 처리를 위한 장치 및 방법
US11507846B2 (en) * 2018-03-26 2022-11-22 Nvidia Corporation Representing a neural network utilizing paths within the network to improve a performance of the neural network
US11544606B2 (en) * 2018-09-14 2023-01-03 Disney Enterprises, Inc. Machine learning based video compression
US11159789B2 (en) * 2018-10-24 2021-10-26 City University Of Hong Kong Generative adversarial network based intra prediction for video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005090974A (ja) * 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
JP2018513507A (ja) * 2015-03-20 2018-05-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 人工ニューラルネットワークの関連性スコア割当て
WO2017168870A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法
JP2018018313A (ja) * 2016-07-28 2018-02-01 国立大学法人信州大学 画像判別装置及び画像判別方法
JP2019003615A (ja) * 2017-04-27 2019-01-10 ダッソー システムズDassault Systemes オートエンコーダの学習

Also Published As

Publication number Publication date
JP7205328B2 (ja) 2023-01-17
US20200302611A1 (en) 2020-09-24
US11145062B2 (en) 2021-10-12

Similar Documents

Publication Publication Date Title
KR101871098B1 (ko) 이미지 처리 방법 및 장치
US10482352B2 (en) Information processing device and non-transitory computer readable medium
US10388018B2 (en) Image processing apparatus, image processing method, and storage medium
JP7030493B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20200380641A1 (en) Image processing apparatus, image processing method, and storage medium
US11373098B2 (en) Processing apparatus, learning apparatus, processing method, and nonvolatile recording medium
KR20150032822A (ko) 이미지를 필터링하기 위한 방법 및 장치
KR101786754B1 (ko) 나이 추정 장치 및 방법
JP2015191521A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5146797B2 (ja) パターン欠陥検査のための装置、その方法及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
US20200234139A1 (en) Learning method, learning apparatus, and computer-readable recording medium
JP4252308B2 (ja) 解像度向上方法及び装置
JP2020177582A (ja) 学習装置、学習方法、プログラムおよび認識装置
JP2000232384A (ja) データ処理装置およびデータ処理方法
JP2009294733A (ja) 画像処理装置および画像処理方法
JP2020154654A (ja) 推定プログラム、推定装置および推定方法
JP7395705B2 (ja) 推定装置、推定方法及びプログラム
CN114078149A (zh) 一种图像估计方法、电子设备及存储介质
JP2021086284A (ja) 画像処理装置、画像処理方法、及びプログラム
CN112801883A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
US11501417B2 (en) Image processing apparatus for estimating the number of specific objects in an image
CN115191928A (zh) 信息处理装置、信息处理方法、学习方法以及存储介质
CN111861931A (zh) 模型训练、图像增强方法和装置、电子设备及存储介质
CN111932514A (zh) 一种图像噪声水平估计、抑制方法、装置及电子设备
JP7458857B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R150 Certificate of patent or registration of utility model

Ref document number: 7205328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150