JP6569047B1 - 学習方法、コンピュータプログラム、分類器、及び生成器 - Google Patents

学習方法、コンピュータプログラム、分類器、及び生成器 Download PDF

Info

Publication number
JP6569047B1
JP6569047B1 JP2018222302A JP2018222302A JP6569047B1 JP 6569047 B1 JP6569047 B1 JP 6569047B1 JP 2018222302 A JP2018222302 A JP 2018222302A JP 2018222302 A JP2018222302 A JP 2018222302A JP 6569047 B1 JP6569047 B1 JP 6569047B1
Authority
JP
Japan
Prior art keywords
image data
neural network
convolutional neural
learning
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018222302A
Other languages
English (en)
Other versions
JP2020087103A (ja
Inventor
修二 奥野
修二 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TSUBASA FACTORY CO., LTD.
Original Assignee
TSUBASA FACTORY CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=67844752&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6569047(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by TSUBASA FACTORY CO., LTD. filed Critical TSUBASA FACTORY CO., LTD.
Priority to JP2018222302A priority Critical patent/JP6569047B1/ja
Application granted granted Critical
Publication of JP6569047B1 publication Critical patent/JP6569047B1/ja
Priority to US16/698,252 priority patent/US11620480B2/en
Publication of JP2020087103A publication Critical patent/JP2020087103A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】画像に対するニューラルネットワークを用いた学習に、人間の視覚を考慮させた学習方法、学習モデル、分類器及び生成器を提供する。【解決手段】学習方法は、画像データに対して畳み込みを行なう畳み込み層を含む畳み込みニューラルネットワーク、又は、画像データを出力する畳み込みニューラルネットワークを、情報量を削減させた画像データを所定の割合で含む学習用データで学習する。【選択図】図3

Description

本開示は、画像データに対して処理を施す畳み込みニューラルネットワークの学習方法、コンピュータプログラム、分類器、及び生成器に関する。
ニューラルネットワークを用いた画像認識、判別、画像生成方法等では、大量の教師データを必要とする。したがって教師データの数を水増しするために、画像データに対し拡大縮小、回転、反転、シフト、色変換、ノイズ付加等のデータ拡張を実施することで、認識性能の向上が達成できることが知られている(特許文献1等)。
特開2015−095212号公報
データ拡張は、元の画像の特徴を損なわないことが前提とされる。識別器のデータ拡張であれば識別結果(クラス)に影響がないように、画像に写っているものが何であるかの識別結果、即ち何に見えるかという見た目が相違しない程度に加工が行なわれている。
発明者は更に、画像データに含まれる、視覚に影響を及ぼさない要素に対する学習を省くことで、学習されるニューラルネットワークに、人間の視覚の仕組みを取り入れることができるのではないかとの知見を得た。
本開示は斯かる知見に基づいてなされたものであり、画像に対するニューラルネットワークを用いた学習に、人間の視覚を考慮させた学習方法、学習モデル、分類器及び生成器を提供することを目的とする。
本開示の学習方法は、画像データに対して畳み込みを行なう畳み込み層を含む畳み込みニューラルネットワーク、又は、画像データを出力する畳み込みニューラルネットワークを、情報量を削減させた画像データを所定の割合で含む学習用データで学習する。
本開示のコンピュータプログラムは、コンピュータに、画像データが入力された場合に、前記画像データに基づく画像の分類を出力するように定義された畳み込み層を含む畳み込みニューラルネットワークの定義データを記憶し、前記定義データに基づく畳み込みニューラルネットワークに、情報量を削減させた画像データを所定の割合で含む学習用データを与え、前記畳み込みニューラルネットワークを分類器として学習する処理を実行させる。
本開示のコンピュータプログラムは、コンピュータに、任意のデータが入力された場合に、特定の画像データを出力するように定義された畳み込み層を含む画像生成用の畳み込みニューラルネットワークの定義データと、前記画像生成用の畳み込みニューラルネットワークから出力された画像データ、又は他の画像データが入力された場合に、前記画像データに基づく画像の分類を出力するように定義された畳み込み層を含む分類用の畳み込みニューラルネットワークの定義データとを記憶し、前記分類用の畳み込みニューラルネットワークから出力される画像データ、又は前記分類用の畳み込みニューラルネットワークへ与える画像データの内の所定の割合の画像データの情報量を削減し、前記分類用の畳み込みニューラルネットワーク、及び、前記画像生成用の畳み込みニューラルネットワークをGANによって学習する処理を実行させる。
本開示の分類器は、画像データを入力する入力層と、前記画像データに基づく画像の分類を出力する出力層と、畳み込み層を含む畳み込みニューラルネットワークを含む中間層とを備え、コンピュータに、入力された画像データの分類を出力させるように、情報量を削減させた画像データを所定の割合で含む学習用の画像データと、該画像データの分類ラベルとを含む教師データによって学習されてある。
本開示の生成器は、任意のデータを入力する入力層と、前記データに基づいて生成される画像の画像データを出力する出力層と、畳み込み層を含む畳み込みニューラルネットワークを含む中間層とを備え、前記出力層から出力された画像データを、前記出力層から出力された画像データであるか否かを分類する分類用の畳み込みニューラルネットワークを含むGANにより、前記出力層から出力された画像データ、又は、前記分類用の畳み込みニューラルネットワークへ与える画像データの内の所定の割合の画像データの情報量を削減した学習用データを用いて学習されており、コンピュータに、入力された任意のデータに基づく画像データを出力させるように学習されてある。
本開示の学習方法、コンピュータプログラム、分類器、及び生成器により、人間の視覚を考慮させた学習を実行させ、画像データに対して視覚の仕組みを取り込んだ分類又は生成を行なうことが可能になる。
本実施の形態における画像処理装置の構成を示すブロック図である。 画像処理装置の機能ブロック図である。 分類器及び生成器の概要を示す説明図である。 学習処理手順の一例を示すフローチャートである。 学習用の画像データの数のSN比に対する分布の一例を示す図である。
以下、本願に係る学習方法、学習モデル、分類器及び生成器について、実施の形態を示す図面を参照しつつ説明する。なお本実施の形態では、学習方法、学習モデル、分類器及び生成器における処理を画像に対して処理を実行する画像処理装置に適用した例を挙げて説明する。
図1は、本実施の形態における画像処理装置1の構成を示すブロック図であり、図2は画像処理装置1の機能ブロック図である。画像処理装置1は、制御部10、画像処理部11、記憶部12、通信部13、表示部14及び操作部15を備える。なお画像処理装置1及び画像処理装置1における動作について以下では、1台のサーバコンピュータとして説明するが、複数のコンピュータによって処理を分散するようにして構成されてもよい。
制御部10は、CPU(Central Processing Unit )等のプロセッサ及びメモリ等を用い、装置の構成部を制御して各種機能を実現する。画像処理部11は、GPU(Graphics Processing Unit)又は専用回路等のプロセッサ及びメモリを用い、制御部10からの制御指示に応じて画像処理を実行する。なお、制御部10及び画像処理部11は、一体のハードウェアであってもよい。また制御部10及び画像処理部11は、CPU、GPU等のプロセッサ、メモリ、更には記憶部12及び通信部13を集積した1つのハードウェア(SoC:System On a Chip)として構成されていてもよい。
記憶部12は、ハードディスク又はフラッシュメモリを用いる。記憶部12には、画像処理プログラム1P、DL(Deep Learning )ライブラリ121L、分類器ライブラリ122L及び生成器ライブラリ123Lが記憶されている。また記憶部12には、1つの学習毎に作成される分類器112又は生成器113を定義する情報、学習済みの分類器112及び生成器113における各層の重み係数等を含むパラメータ情報等が記憶される。
通信部13は、インターネット等の通信網への通信接続を実現する通信モジュールである。通信部13は、ネットワークカード、無線通信デバイス又はキャリア通信用モジュールを用いる。
表示部14は、液晶パネル又は有機EL(Electro Luminescence)ディプレイ等を用いる。表示部14は、制御部10の指示による画像処理部11での処理によって画像を表示することが可能である。
操作部15は、キーボード又はマウス等のユーザインタフェースを含む。筐体に設けられた物理的ボタンを用いてもよい。及び表示部14に表示されるソフトウェアボタン等を用いてもよい。操作部15は、ユーザによる操作情報を制御部10へ通知する。
読取部16は、例えばディスクドライブを用い、光ディスク等を用いた記録媒体2に記憶してある画像処理プログラム2P、DLライブラリ21L、分類器ライブラリ22L及び生成器ライブラリ23Lを読み取ることが可能である。記憶部12に記憶してある画像処理プログラム1P、DLライブラリ121L、分類器ライブラリ122L及び生成器ライブラリ123Lは、記録媒体2から読取部16が読み取った画像処理プログラム2P、DLライブラリ21L、分類器ライブラリ22L及び生成器ライブラリ23Lを制御部10が記憶部12に複製したものであってもよい。
画像処理装置1の制御部10は、記憶部12に記憶してある画像処理プログラム1Pに基づき、学習処理実行部101、及び画像処理実行部102として機能する。また画像処理部11は、記憶部12に記憶してあるDLライブラリ121L、定義データ、パラメータ情報、及び分類器ライブラリ122Lに基づきメモリを用いて分類器112として機能する。同様にして画像処理部11は、記憶部12に記憶してあるDLライブラリ121L、定義データ、パラメータ情報、及び生成器ライブラリ123Lに基づきメモリを用いて生成器113として機能する。
学習処理実行部101は、記憶部12に記憶してあるDLライブラリ1L、及び分類器ライブラリ122Lと、後述するように与えられる教師データとに基づき、畳み込みニューラルネットワーク(以下、CNN(Convolutional Neural Network )と呼ぶ)を分類器112とするべく、パラメータを学習する処理を行なう。また学習処理実行部101は、記憶部12に記憶してあるDLライブラリ1L、及び生成器ライブラリ123Lと、後述するように与えられる教師データとに基づき、CNNを生成器113とするべく、パラメータを学習する処理を行なう。
画像処理実行部102は、学習済みの分類器112を用い、画像データを与えて出力される結果を取得する処理を実行する。又は、画像処理実行部102は、学習済みの生成器113を用い、種となるデータ(潜在変数と呼ばれるデータ、画像データ、又はテキストデータ等の任意のデータ)を生成器113に入力して生成される画像データを取得する処理を実行する。画像処理実行部102は、生成器113から出力された画像データを画像として描画し、表示部14へ出力させてもよい。
分類器112は、入力される画像データの特徴量を取り出し、取り出した特徴量に基づき、入力される画像データを分類する。本実施の形態では分類器112は、後述するように生成器113を学習するためのGAN(Generative Adversarial Networks)を構成するので、入力された画像データを、生成器113で生成された画像データ(生成器113由来の画像データ)と、それ以外の画像データとに分類する。生成器113は、入力される種となるデータから画像データを生成して出力する。分類器112は単体で用いられるように学習されてもよい。
図3は、分類器112及び生成器113の概要を示す説明図であり、図4は、学習処理手順の一例を示すフローチャートである。図3及び図4を参照して学習処理実行部101による学習処理について説明する。図3に示すように、生成器113はGANによって学習される。このため図3に示すように生成器113の出力を入力するように分類器112及び生成器113が接続されている。
分類器112は、学習されるパラメータにより定義される複数段の畳み込み層を含んで構成される。分類器112の構成はこれに限らず、プーリング層、全結合層等を含んでもよい。生成器113は、学習されるパラメータにより定義されるネットワークにより、入力された任意のデータから画像データを出力する。生成器113は、転置畳み込み層、畳み込み層、アップサンプリング等のネットワークを適宜組み合わせて画像データを出力するように構成されている。
制御部10は学習処理実行部101により、記憶部12のDLライブラリ121L、分類器ライブラリ122L及び生成器ライブラリ123Lに基づき、ネットワークを図3のように定義したデータを作成しておく。制御部10は、学習処理実行部101の機能により作成された定義データに基づいて、生成器113及び分類器112を作成する(ステップS1)。
制御部10は、生成器113由来の画像データ群として、種となるデータから未知のクラスを予測する予測メソッドによって画像データ群を生成器113から出力させる(ステップS2)。制御部10は、出力された画像データ群に生成器113で作成された画像データであることを示すラベルを付与する(ステップS3)。
制御部10は、生成器113由来でない画像データ群の教師データとして、分類器112の学習用に予め用意してある画像データに対し、情報量が削減させた画像データと、削減させない画像データとを設定情報に基づいて取得する(ステップS4)。ステップS4において制御部10は、予め用意してある画像データの内の所定の割合の画像データに対し、図3におけるフィルタを経由させるようにネットワークを定義してもよい。予め用意してある画像データは、学習の目的に応じた被写体が写っている写真画像、目的に応じたイラストが含まれている画像等である。制御部10は、得られた画像データに、生成器113由来でない画像データであることを示すラベルを付与する(ステップS5)。
ステップS4における「削減されている画像データ」は、人間の視覚上判別しにくい成分を欠損させた画像データとする処理を行なうフィルタによって取得される。分類器112の学習用の画像データを作成するフィルタの一例として、デジタル画像の圧縮アルゴリズムを適用する。フィルタは例えば、JPEG(Joint Photographic Experts Group)におけるDCT(Discrete Cosine Transform ;離散コサイン変換)、又はWavelet変換とすることが可能である。学習処理実行部101はその他、チャネル又は帯域毎の量子化を施すフィルタを用いて、情報が削減されている画像データを得てもよいし、チャネル又は帯域で分解して一定以下をデータカットするフィルタ用いて、情報が削減されている画像データを取得してもよい。
ステップS4における「設定情報」は、学習用に用いられる画像データ群に含まれる、削減されている画像データの割合、又は削減度合いに対する数の分布として記憶部12に定義データとして定義されている。一例では、削減されている画像データの削減度合いは一定の割合であり、削減されている画像データが所定の割合含まれるように定義されている。他の例では、学習用の画像データの全てが、削減されている画像データである。また、視覚上判別し易い部分の重要度を上げるようにして、チャネル又は帯域に視覚的な重みを与えた画像データ群を用いてもよい。また、図5に示すように、SN比が高い即ち削減する情報量が多い画像データを少なく、削減する情報量が少ない画像データは多くなるような数の分布として定義されていてもよい(図5A)。削除する情報量の多さは、量子化の荒さなどで分布してもよい。図5は、学習用の画像データの数のSN比に対する分布の一例を示す図である。図5に示すように、所定の分布を有する学習用データ以外にも、情報量を一律に削減した画像データ群によって学習が行なわれてもよいし(図5B)、削減される情報量の多少に対する画像データの数が一定となるような分布を有する学習用データを用いて学習が行なわれてもよい(図5C)。その他、情報量を一律に削減した画像データ群を50%、削減していない画像データ群を50%含む等、適宜設定されるとよい。
図3及び図4に戻り説明を続ける。
制御部10は学習処理実行部101の機能により、ステップS3及びステップS5により得られるラベル付きの画像データ群を分類器112に与え(ステップS6)、分類器112の損失関数を算出して学習させる(ステップS7)。これにより分類器112は、上述したように、予め用意されている画像データについては情報量が削減されている画像データを所定の割合で含む学習用の画像データ群を用いて学習される。
続いて制御部10は、学習処理実行部101の機能により、ステップS7の後の分類器112を含むネットワークの内の生成器113に、種となるデータを与える(ステップS8)。
ステップS8において生成器113に与えられる教師データは、入出力で対となる画像データであってもよい。この場合、教師データとなる画像データ群は、情報量が削減されていない画像データであってもよいが、情報量が削減された画像データを所定の割合で含むとしても、全ての画像データが、情報量が削減されていてもよい。
制御部10は、ステップS8によって生成器113から出力される画像データ群に基づいて生成器113における損失関数を算出して学習させる(ステップS9)。このとき制御部10は、分類器112の重み係数は固定とし、分類器112からの出力(生成器113由来のデータであるか否かのラベル)から、生成器113のパラメータを更新する。なお生成器113が上述したように、対となった画像データ(教師データ)を入力して学習するように定義されている場合、生成器113からの出力と、出力側の教師データとを分類器112に入力した場合の差分によって生成器113のパラメータを更新する。また、教師データとなる画像データと、生成器113から出力される画像データとを直接的に比較した差分を損失関数に含めて生成器113を学習させてもよい。
分類器112の学習時は、生成器113の学習は行なわず、生成器113の学習の際には分類器112の重み等のパラメータは固定させて実行する。なお、分類器112の学習と生成器113の学習とを同時に行なうように、定義データを作成して実行してもよい
制御部10は、学習処理実行部101の機能により、分類器112の出力結果が所定基準を満たすか否かを判断する(ステップS10)。制御部10は、所定基準を満たさないと判断された場合(S10:NO)、処理をステップS2に戻し、ステップS2−S9の処理を繰り返し実行する。
ステップS10において所定基準を満たすと判断された場合(S10:YES)、学習処理を終了させる。ステップS10における「所定基準」は例えば、分類器112の精度が半分、即ち生成器113由来の画像データであることを正確に分類できなくなったか否かである。他の例では「所定基準」は学習が所定回数以上であるかである。学習が十分に進行したか否かを判断するために他の基準を用いてもよい。
削減されているデータの使用は以下のようにしてもよい。GANにおける損失関数は、分類器112の成分と生成器113の成分とを含む。図4のフローチャートにおけるステップS7の分類器112の学習時には生成器113の成分を固定させて分類器112の成分を最適化(最大化)させ、ステップS9の生成器113の学習時には生成器113の成分のみが用いられる。この場合、学習処理実行部101として機能する制御部10は、ステップS7における分類器112の学習時の損失関数の演算にあたって、ステップS4に代替して、学習用に予め用意してある画像データに対して情報量を削減させずに取得し、その代わりに、ステップS3で取得する生成器113から出力される画像データの内の所定の割合の画像データの情報量を削減させ、これらを分類器112に与えてもよい。この場合、ステップS9における生成器113の学習時の損失関数の演算を、生成器113から出力される画像データに対して情報量の削減を施さず(図3における生成器113から分類器112の間にてフィルタを経由せず)に行なう。また学習処理実行部101として機能する制御部10は、ステップS7における分類器112の学習時の損失関数の演算にあたって、ステップS4における予め用意してある画像データに対し一律に情報量を削減させ、更に、ステップS3で取得する生成器113から出力される画像データに対しても、所定の割合の画像データの情報量を削減させ、これらを分類器112に与えてもよい。
また逆に、学習処理実行部101として機能する制御部10は、生成器113を学習させる場合、ステップS9における生成器113の学習時の損失関数の演算を、出力される画像データの内の所定の割合の画像データの情報量を削減して行なってもよい。この場合ステップS7における分類器112の学習時の損失関数の演算は、予め用意されている画像データと生成器113から出力される画像データとの両者又はいずれか一方について、情報量を削減させずに行なう。
このようにデータが削減されている画像データを用いて学習することにより、生成器113によって生成される画像データは、データとしては欠損していても見た目が十分な品質を持つデータとなり得る。つまり、視覚に影響を及ぼさない要素に対する学習を省くことで、学習されるニューラルネットワークに、人間の視覚の仕組みを取り入れることができる。視覚に影響を及ぼさない要素を省く処理として、本実施の形態で示したようにDCTといったこれまでに視覚的に劣化を感じさせない程度にデータを削減させる実績のある処理を施すとよい。
なお本実施の形態では、分類器112は生成器113の学習のために使用され、生成器113で生成された画像と、本物の画像とを分類するものとして学習された。これにより、画像処理実行部102は学習済みの生成器113を用いて、与えられた種となるデータを用いて、視覚に影響を及ぼさない情報量を省いてSN比は高くとも、見た目として遜色のない画像データを作成することができる。これに限らず、分類器112は単体で使用するものとして学習されてもよい。この場合、分類器112の使用目的に合わせて選択された学習用データの少なくとも一部に、人間の視覚上判別しにくい成分を欠損させた画像データを用いる。その他、CNNを含むネットワークでの画像データに関する学習時に、視覚に影響を及ぼさない要素に対する学習を省くことで、学習されるニューラルネットワークに、人間の視覚の仕組みを取り入れることができる。画像処理実行部102は学習済みの分類器112を用い、情報量が削減された画像データであるか否かに関わらず、分類目的に適合する画像であるか否かを判別することができる。
なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 画像処理装置
10 制御部
101 学習処理実行部
102 画像処理実行部
11 画像処理部
112 分類器
113 生成器
12 記憶部
1P 画像処理プログラム
121L DLライブラリ
122L 分類器ライブラリ
123L 生成器ライブラリ

Claims (11)

  1. 画像データに対して畳み込みを行なう畳み込み層を含む畳み込みニューラルネットワーク、又は、画像データを出力する畳み込みニューラルネットワークを、視覚上判別しにくい成分を欠損させて情報量を削減させた画像データを所定の割合で含む学習用データで学習する
    学習方法。
  2. 画像データが入力された場合に、前記画像データの分類を出力するように定義された畳み込み層を含む畳み込みニューラルネットワークに、
    視覚上判別しにくい成分を欠損させて情報量を削減させた画像データを所定の割合で含む学習用データを与え、
    前記畳み込みニューラルネットワークを分類器として学習する、学習方法。
  3. 任意のデータが入力された場合に、特定の画像データを出力するように定義された畳み込み層を含む画像生成用の畳み込みニューラルネットワークと、
    前記画像生成用の畳み込みニューラルネットワークから出力された画像データ、又は他の画像データが入力された場合に、前記画像データの分類を出力するように定義された畳み込み層を含む分類用の畳み込みニューラルネットワークとを用い、
    視覚上判別しにくい成分を欠損させて情報量を削減させた画像データを所定の割合で含む学習用データを用い、
    前記分類用の畳み込みニューラルネットワーク、及び、前記画像生成用の畳み込みニューラルネットワークをGAN(Generative Adversarial Networks)によって学習する
    学習方法。
  4. 前記分類用の畳み込みニューラルネットワークの損失関数を、前記画像生成用の畳み込みニューラルネットワークから出力された画像データ、及び前記他の画像データの両方、又はいずれか一方の内の所定の割合の画像データの情報量を削減させて前記分類用の畳み込みニューラルネットワークに与えて算出し、
    前記画像生成用の畳み込みニューラルネットワークの損失関数を、前記画像生成用の畳み込みニューラルネットワークから出力される画像データの情報量を削減させずに前記分類用の畳み込みニューラルネットワークに与えて算出する
    請求項3に記載の学習方法。
  5. 前記画像生成用の畳み込みニューラルネットワークの損失関数を、前記画像生成用の畳み込みニューラルネットワークから出力される画像データの内の所定の割合の画像データの情報量を削減させて前記分類用の畳み込みニューラルネットワークに与えて算出し、
    前記分類用の畳み込みニューラルネットワークの損失関数を、前記画像生成用の畳み込みニューラルネットワークから出力された画像データ、及び他の画像データの両方、又はいずれか一方の内の所定の割合の画像データの情報量を削減させずに前記分類用の畳み込みニューラルネットワークに与えて算出する
    請求項3に記載の学習方法。
  6. 画像データを出力する畳み込みニューラルネットワークの損失関数を、前記ニューラルネットワークから出力される画像データ、又は前記畳み込みニューラルネットワークへ与える画像データの内の所定の割合の画像データの情報量を削減させて算出する
    請求項1に記載の学習方法。
  7. 情報量を削減させた画像データは、視覚上判別しにくい成分から優先的に欠損させて作成する
    請求項1から6のいずれか1項に記載の学習方法。
  8. コンピュータに、
    画像データが入力された場合に、前記画像データに基づく画像の分類を出力するように定義された畳み込み層を含む畳み込みニューラルネットワークの定義データを記憶し、
    前記定義データに基づく畳み込みニューラルネットワークに、視覚上判別しにくい成分を欠損させて情報量を削減させた画像データを所定の割合で含む学習用データを与え、
    前記畳み込みニューラルネットワークを分類器として学習する
    処理を実行させるコンピュータプログラム。
  9. コンピュータに、
    任意のデータが入力された場合に、特定の画像データを出力するように定義された畳み込み層を含む画像生成用の畳み込みニューラルネットワークの定義データと、
    前記画像生成用の畳み込みニューラルネットワークから出力された画像データ、又は他の画像データが入力された場合に、前記画像データに基づく画像の分類を出力するように定義された畳み込み層を含む分類用の畳み込みニューラルネットワークの定義データとを記憶し、
    前記分類用の畳み込みニューラルネットワークから出力される画像データ、又は前記分類用の畳み込みニューラルネットワークへ与える画像データの内の所定の割合の画像データの視覚上判別しにくい成分を欠損させて情報量を削減し、
    前記分類用の畳み込みニューラルネットワーク、及び、前記画像生成用の畳み込みニューラルネットワークをGANによって学習する
    処理を実行させるコンピュータプログラム。
  10. 画像データを入力する入力層と、
    前記画像データに基づく画像の分類を出力する出力層と、
    畳み込み層を含む畳み込みニューラルネットワークを含む中間層と
    を備え、
    コンピュータに、入力された画像データの分類を出力させるように、視覚上判別しにくい成分を欠損させて情報量を削減させた画像データを所定の割合で含む学習用の画像データと、該画像データの分類ラベルとを含む教師データによって学習されてある分類器。
  11. 任意のデータを入力する入力層と、
    前記データに基づいて生成される画像の画像データを出力する出力層と、
    畳み込み層を含む畳み込みニューラルネットワークを含む中間層と
    を備え、
    前記出力層から出力された画像データを、前記出力層から出力された画像データであるか否かを分類する分類用の畳み込みニューラルネットワークを含むGANにより、前記出力層から出力された画像データ、又は、前記分類用の畳み込みニューラルネットワークへ与える画像データの内の所定の割合の画像データの視覚上判別しにくい成分を欠損させて情報量を削減した学習用データを用いて学習されており、
    コンピュータに、入力された任意のデータに基づく画像データを出力させるように学習されてある生成器。
JP2018222302A 2018-11-28 2018-11-28 学習方法、コンピュータプログラム、分類器、及び生成器 Active JP6569047B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018222302A JP6569047B1 (ja) 2018-11-28 2018-11-28 学習方法、コンピュータプログラム、分類器、及び生成器
US16/698,252 US11620480B2 (en) 2018-11-28 2019-11-27 Learning method, computer program, classifier, and generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222302A JP6569047B1 (ja) 2018-11-28 2018-11-28 学習方法、コンピュータプログラム、分類器、及び生成器

Publications (2)

Publication Number Publication Date
JP6569047B1 true JP6569047B1 (ja) 2019-09-04
JP2020087103A JP2020087103A (ja) 2020-06-04

Family

ID=67844752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222302A Active JP6569047B1 (ja) 2018-11-28 2018-11-28 学習方法、コンピュータプログラム、分類器、及び生成器

Country Status (2)

Country Link
US (1) US11620480B2 (ja)
JP (1) JP6569047B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021137415A1 (ko) * 2019-12-30 2021-07-08 포항공과대학교 산학협력단 머신 러닝에 기반한 이미지 처리 방법 및 장치
US11842283B2 (en) 2019-06-17 2023-12-12 Axell Corporation Learning method, computer program, classifier, generator, and processing system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112304952B (zh) * 2019-07-23 2024-04-02 纬创资通股份有限公司 影像辨识装置、影像辨识方法及其计算机程序产品
EP3920102A1 (en) * 2020-06-05 2021-12-08 HTC Corporation Machine learning method and machine learning system involving data augmentation
JPWO2022070342A1 (ja) * 2020-09-30 2022-04-07
US20230359904A1 (en) * 2020-09-30 2023-11-09 Nippon Telegraph And Telephone Corporation Training device, training method and training program
US11763135B2 (en) * 2021-03-01 2023-09-19 Robert Bosch Gmbh Concept-based adversarial generation method with steerable and diverse semantics
CN113691818B (zh) * 2021-08-25 2023-06-30 深圳龙岗智能视听研究院 视频目标检测方法、系统、存储介质、计算机视觉终端
CN115439702B (zh) * 2022-11-08 2023-03-24 武昌理工学院 一种基于频域处理的弱噪声图像分类方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032271A (ja) * 1998-07-10 2000-01-28 Sony Corp 画像生成装置及び方法
JP6208552B2 (ja) 2013-11-14 2017-10-04 株式会社デンソーアイティーラボラトリ 識別器、識別プログラム、及び識別方法
WO2018053340A1 (en) * 2016-09-15 2018-03-22 Twitter, Inc. Super resolution using a generative adversarial network
US10430685B2 (en) * 2016-11-16 2019-10-01 Facebook, Inc. Deep multi-scale video prediction
US10572979B2 (en) * 2017-04-06 2020-02-25 Pixar Denoising Monte Carlo renderings using machine learning with importance sampling
US11238623B2 (en) * 2017-05-01 2022-02-01 Preferred Networks, Inc. Automatic line drawing coloring program, automatic line drawing coloring apparatus, and graphical user interface program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11842283B2 (en) 2019-06-17 2023-12-12 Axell Corporation Learning method, computer program, classifier, generator, and processing system
WO2021137415A1 (ko) * 2019-12-30 2021-07-08 포항공과대학교 산학협력단 머신 러닝에 기반한 이미지 처리 방법 및 장치

Also Published As

Publication number Publication date
JP2020087103A (ja) 2020-06-04
US20200210783A1 (en) 2020-07-02
US11620480B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
JP6569047B1 (ja) 学習方法、コンピュータプログラム、分類器、及び生成器
US11334971B2 (en) Digital image completion by learning generation and patch matching jointly
EP3686848A1 (en) Semantic image synthesis for generating substantially photorealistic images using neural networks
CN111754596B (zh) 编辑模型生成、人脸图像编辑方法、装置、设备及介质
US20210089845A1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
US11727717B2 (en) Data-driven, photorealistic social face-trait encoding, prediction, and manipulation using deep neural networks
US10742990B2 (en) Data compression system
CN109598231A (zh) 一种视频水印的识别方法、装置、设备及存储介质
WO2018203549A1 (ja) 信号変更装置、方法、及びプログラム
US20230267381A1 (en) Neural trees
CN110288513B (zh) 用于改变人脸属性的方法、装置、设备和存储介质
CN112488923A (zh) 图像超分辨率重建方法、装置、存储介质及电子设备
CN113939870A (zh) 为基于生成和检索的应用学习有效音乐特征的技术
US20220101121A1 (en) Latent-variable generative model with a noise contrastive prior
KR20220131808A (ko) 이미지 분류 모델 생성 방법 및 장치
JP6723488B1 (ja) 学習装置及び推論装置
JP7482620B2 (ja) データ生成方法、データ表示方法、データ生成装置及びデータ表示システム
CN115631285A (zh) 基于统一驱动的人脸渲染方法、装置、设备及存储介质
CN113822790B (zh) 一种图像处理方法、装置、设备及计算机可读存储介质
WO2018123202A1 (ja) 動画像処理装置、表示装置、動画像処理方法、および制御プログラム
JP2022036131A (ja) 学習装置、推論装置、学習方法、推論方法、コンピュータシステムおよびプログラム
JP6947460B1 (ja) プログラム、情報処理装置、及び方法
US20240169701A1 (en) Affordance-based reposing of an object in a scene
US20230377214A1 (en) Identity-preserving image generation using diffusion models
Paul et al. An improved deepfake detection using deep learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181226

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190618

R150 Certificate of patent or registration of utility model

Ref document number: 6569047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250