JPWO2020105144A1 - 画像生成装置及び画像生成方法 - Google Patents

画像生成装置及び画像生成方法 Download PDF

Info

Publication number
JPWO2020105144A1
JPWO2020105144A1 JP2019553586A JP2019553586A JPWO2020105144A1 JP WO2020105144 A1 JPWO2020105144 A1 JP WO2020105144A1 JP 2019553586 A JP2019553586 A JP 2019553586A JP 2019553586 A JP2019553586 A JP 2019553586A JP WO2020105144 A1 JPWO2020105144 A1 JP WO2020105144A1
Authority
JP
Japan
Prior art keywords
image
unit
filter
convolution
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019553586A
Other languages
English (en)
Inventor
一之 宮澤
一之 宮澤
守屋 芳美
芳美 守屋
杉本 和夫
和夫 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020105144A1 publication Critical patent/JPWO2020105144A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成目標の画像である実画像に相当する画像を生成する画像生成部(2)と、画像生成部(2)により生成された画像が実画像であるか否かを識別する画像識別部(3)と、画像識別部(3)の識別結果を用いて、複数の畳み込みフィルタのフィルタ係数を更新するフィルタ係数更新部(4)と、複数の畳み込みフィルタの重要度に基づいて、複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するフィルタ削除部(6)とを備え、画像生成部(2)は、フィルタ係数更新部(4)によりフィルタ係数が更新された複数の畳み込みフィルタのうち、フィルタ削除部(6)により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、実画像に相当する画像を生成するように、画像生成装置を構成した。

Description

この発明は、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成対象の画像である実画像に相当する画像を生成する画像生成装置及び画像生成方法に関するものである。
以下の非特許文献1には、敵対的生成ネットワーク(GAN:Generative Adversarial Network)を用いて、低次元のノイズベクトルから写実的な画像を生成する画像生成装置が開示されている。
GANを用いる画像生成装置は、畳み込みニューラルネットワークを用いる生成器と、畳み込みニューラルネットワークを用いる識別器とを備えている。
生成器は、畳み込みニューラルネットワークを用いて、ノイズベクトルから、生成目標の画像(以下、「実画像」と称する)に近い画像(以下、「生成画像」と称する)を生成する。
識別器は、何らかの画像が入力されると、畳み込みニューラルネットワークを用いて、入力された画像が、生成器により生成された生成画像であるのか、実画像であるのかを識別する。
GANでは、生成器と識別器が、互いに敵対しながら、畳み込みニューラルネットワークの学習を行う。
具体的には、生成器は、識別器を騙せるように、出来るだけ、実画像であるか否かの識別が困難な写実的な画像が生成されるように、畳み込みニューラルネットワークの学習を行う。
一方、識別器は、生成器に騙されないように、入力された画像が、生成器により生成された生成画像であるのか、実画像であるのかを識別できるように学習を行う。
生成器と識別器が学習を繰り返すことで、生成器により最終的に生成される画像は、実画像であるか否かの識別が困難な画像になる。
Alec Radford, Luke Metz,and Soumith Chintala,"Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks," International Conference on Learning Representations(2016).
GANを用いる画像生成装置の生成器は、実画像であるか否かの識別が困難な生成画像を得るために、大規模な畳み込みニューラルネットワークを用いることがある。
生成器が用いる畳み込みニューラルネットワークの規模と、生成器の演算量とは正比例するため、生成器が大規模な畳み込みニューラルネットワークを用いる場合、生成器の演算量が極めて大きくなることがあるという課題があった。
なお、生成器の演算量が大きい場合、高速の画像生成が必要とされる組み込み機器、あるいは、メモリなどの計算資源が限られている組み込み機器などには、画像生成装置を適用することが困難である。
この発明は上記のような課題を解決するためになされたもので、画像の生成に用いる畳み込みニューラルネットワークの規模を削減することができる画像生成装置及び画像生成方法を得ることを目的とする。
この発明に係る画像生成装置は、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成目標の画像である実画像に相当する画像を生成する画像生成部と、画像生成部により生成された画像が実画像であるか否かを識別する画像識別部と、画像識別部の識別結果を用いて、複数の畳み込みフィルタのフィルタ係数を更新するフィルタ係数更新部と、複数の畳み込みフィルタの重要度に基づいて、複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するフィルタ削除部とを備え、画像生成部が、フィルタ係数更新部によりフィルタ係数が更新された複数の畳み込みフィルタのうち、フィルタ削除部により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、実画像に相当する画像を生成するようにしたものである。
この発明によれば、複数の畳み込みフィルタの重要度に基づいて、複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するフィルタ削除部を備え、画像生成部が、フィルタ係数更新部によりフィルタ係数が更新された複数の畳み込みフィルタのうち、フィルタ削除部により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、実画像に相当する画像を生成するように、画像生成装置を構成した。したがって、この発明に係る画像生成装置は、画像の生成に用いる畳み込みニューラルネットワークの規模を削減することができる。
実施の形態1に係る画像生成装置を示す構成図である。 実施の形態1に係る画像生成装置のハードウェアを示すハードウェア構成図である。 画像生成装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 画像生成装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である画像生成方法を示すフローチャートである。 畳み込みニューラルネットワークの概念を示す説明図である。 複数の畳み込みフィルタの出力に対するスケーリング係数α,α,α,・・・,αJ−1の乗算を示す説明図である。 畳み込みフィルタF1を段階的に削除する画像生成装置の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る画像生成装置を示す構成図である。図2は、実施の形態1に係る画像生成装置のハードウェアを示すハードウェア構成図である。
図1及び図2において、画像生成装置は、画像処理部8及び制御部9を備えている。
画像処理部8は、入力部1、画像生成部2、画像識別部3、フィルタ係数更新部4、スケーリング係数更新部5、フィルタ削除部6及び出力部7を備えている。
入力部1は、例えば、図2に示す入力回路11によって実現される。
入力部1は、入力信号として、ランダム数値列などのノイズベクトル、あるいは、生成目標の画像(以下、「実画像」と称する)と異なる画像などの入力を受け付ける。また、入力部1は、実画像の入力を受け付ける。
入力部1は、入力信号を画像生成部2に出力し、実画像を画像識別部3に出力する。
画像生成部2は、例えば、図2に示す画像生成回路12によって実現される。
画像生成部2は、複数の畳み込みフィルタF1を有する畳み込みニューラルネットワークN1を用いて、入力信号から、実画像に相当する画像(以下、「生成画像」と称する)を生成する。
画像生成部2は、生成画像を画像識別部3及び出力部7のそれぞれに出力する。
画像生成部2において、実画像であるか否かの識別が困難な写実的な画像が、生成画像として生成されるように、畳み込みニューラルネットワークN1の学習が行われ、フィルタ係数更新部4によって、複数の畳み込みフィルタF1のフィルタ係数が更新される。
画像識別部3は、例えば、図2に示す画像識別回路13によって実現される。
画像識別部3は、複数の畳み込みフィルタF2を有する畳み込みニューラルネットワークN2を用いて、生成画像が実画像であるか否かの識別処理を実施する。
画像識別部3は、生成画像が実画像であるか否かの識別結果と、スケーリング係数更新部5から出力されたそれぞれのスケーリング係数とから、画像生成部2における畳み込みニューラルネットワークN1の学習誤差を算出する。
画像識別部3は、学習誤差をフィルタ係数更新部4及びスケーリング係数更新部5のそれぞれに出力する。
画像識別部3において、生成画像と実画像が高精度に識別されるように、畳み込みニューラルネットワークN2の学習が行われ、フィルタ係数更新部4によって、複数の畳み込みフィルタF2のフィルタ係数が更新される。
フィルタ係数更新部4は、例えば、図2に示すフィルタ係数更新回路14によって実現される。
フィルタ係数更新部4は、画像識別部3の識別結果を用いて、複数の畳み込みフィルタF1のフィルタ係数を更新する。
具体的には、フィルタ係数更新部4は、画像識別部3により算出された学習誤差が小さくなるように、複数の畳み込みフィルタF1のフィルタ係数を更新する。
フィルタ係数更新部4は、複数の畳み込みフィルタF1の更新後のフィルタ係数を画像生成部2に出力する。
また、フィルタ係数更新部4は、画像識別部3によって、生成画像と実画像が高精度に識別されるように、複数の畳み込みフィルタF2のフィルタ係数を更新し、複数の畳み込みフィルタF2の更新後のフィルタ係数を画像識別部3に出力する。
スケーリング係数更新部5は、例えば、図2に示すスケーリング係数更新回路15によって実現される。
スケーリング係数更新部5は、画像識別部3により算出された学習誤差が小さくなるように、複数のスケーリング係数を更新する。スケーリング係数は、例えば、0〜1の係数である。
スケーリング係数更新部5は、更新後の複数のスケーリング係数を画像生成部2、画像識別部3及びフィルタ削除部6のそれぞれに出力する。
フィルタ削除部6は、例えば、図2に示すフィルタ削除回路16によって実現される。
フィルタ削除部6は、スケーリング係数更新部5による更新後のそれぞれのスケーリング係数に基づいて、複数の畳み込みフィルタF1の全てについて、各畳み込みフィルタF1の重要度を算出する。
フィルタ削除部6は、複数の畳み込みフィルタF1の重要度に基づいて、複数の畳み込みフィルタF1の中の1つ以上の畳み込みフィルタを削除する。
出力部7は、例えば、図2に示す出力回路17によって実現される。
出力部7は、画像生成部2から出力された生成画像を外部に出力する。
制御部9は、例えば、図2に示す制御回路18によって実現される。
制御部9は、画像処理部8の処理を制御する。また、制御部9は、学習結果として、畳み込みフィルタF1のフィルタ係数及びスケーリング係数などを保存する。
図1では、画像生成装置の構成要素である入力部1、画像生成部2、画像識別部3、フィルタ係数更新部4、スケーリング係数更新部5、フィルタ削除部6、出力部7及び制御部9のそれぞれが、図2に示すような専用のハードウェアで実現されるものを想定している。即ち、画像生成装置が、入力回路11、画像生成回路12、画像識別回路13、フィルタ係数更新回路14、スケーリング係数更新回路15、フィルタ削除回路16、出力回路17及び制御回路18で実現されるものを想定している。
ここで、入力回路11、画像生成回路12、画像識別回路13、フィルタ係数更新回路14、スケーリング係数更新回路15、フィルタ削除回路16、出力回路17及び制御回路18のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
画像生成装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、画像生成装置がソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
図3は、画像生成装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
画像生成装置がソフトウェア又はファームウェアなどで実現される場合、入力部1、画像生成部2、画像識別部3、フィルタ係数更新部4、スケーリング係数更新部5、フィルタ削除部6、出力部7及び制御部9の処理手順をコンピュータに実行させるためのプログラムがメモリ31に格納される。そして、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行する。
図4は、画像生成装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である画像生成方法を示すフローチャートである。
また、図2では、画像生成装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、画像生成装置がソフトウェア又はファームウェアなどで実現される例を示している。しかし、これは一例に過ぎず、画像生成装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェア又はファームウェアなどで実現されるものであってもよい。
次に、図1に示す画像生成装置の動作について説明する。
まず、入力部1は、入力信号の入力を受け付けるほか、実画像の入力を受け付ける。
入力部1は、受け付けた入力信号を画像生成部2に出力し、受け付けた実画像を画像識別部3に出力する。
フィルタ係数更新部4は、複数の畳み込みフィルタF1のフィルタ係数の初期値を画像生成部2に出力する。フィルタ係数の初期値は、例えば、乱数を用いて決定される。
スケーリング係数更新部5は、複数のスケーリング係数α,α,α,・・・,αJ−1の初期値を画像生成部2に出力する。スケーリング係数α,α,α,・・・,αJ−1の初期値は、例えば、1に決定される。
画像生成部2は、入力部1から入力信号を受けると、複数の畳み込みフィルタF1を有する畳み込みニューラルネットワークN1を用いて、入力信号から実画像に相当する生成画像を生成する(図4のステップST1)。
画像生成部2は、生成画像を画像識別部3に出力する。
以下、画像生成部2による生成画像の生成処理を具体的に説明する。
図5は、畳み込みニューラルネットワークの概念を示す説明図である。
畳み込みニューラルネットワークは、図5に示すように、複数の畳み込みフィルタによって複数の畳み込み層が構成されて、複数の畳み込み層が積み重ねられたものである。
まず、画像生成部2は、それぞれの畳み込み層において、当該畳み込み層に含まれる複数の畳み込みフィルタのフィルタ係数を用いて、入力信号に対するフィルタ処理をそれぞれ実施することで、入力信号の特徴を抽出する。
次に、画像生成部2は、図6に示すように、抽出した特徴を示している複数の畳み込みフィルタの出力であるフィルタ処理後のそれぞれの入力信号に対して、それぞれのスケーリング係数α,α,α,・・・,αJ−1を乗算する。
図6は、複数の畳み込みフィルタの出力に対するスケーリング係数α,α,α,・・・,αJ−1の乗算を示す説明図である。
画像生成部2は、当該畳み込み層が、最終段の畳み込み層でなければ、複数の畳み込みフィルタの出力として、スケーリング係数乗算後のそれぞれの入力信号を次段の畳み込み層に出力する。
当該畳み込み層が、最終段の畳み込み層であれば、スケーリング係数乗算後のそれぞれの入力信号は、画像生成部2により生成された生成画像に相当し、画像生成部2は、生成画像を画像識別部3に出力する。
画像識別部3は、複数の畳み込みフィルタF2を有する畳み込みニューラルネットワークN2を用いて、画像生成部2から出力された生成画像が、入力部1から出力された実画像であるか否かの識別処理を実施する(図4のステップST2)。
画像識別部3は、以下の式(1)に示すように、生成画像が実画像であるか否かの識別結果lGANと、複数の畳み込みフィルタF1の出力に対するスケーリング係数α,α,α,・・・,αJ−1とから、学習誤差Sを算出する(図4のステップST3)。
画像識別部3によって、生成画像が実画像であると識別された場合の識別結果lGANは、例えば、0であり、生成画像が実画像と異なる画像と識別された場合の識別結果lGANは、例えば、1である。

Figure 2020105144
式(1)において、g(α)は、例えば、スケーリング係数αの絶対値計算を行う関数である。Jは、複数の畳み込みフィルタF1のそれぞれに対応するスケーリング係数の数である。
λは、学習誤差Sに対するスケーリング係数αの影響度を調整するための変数であり、10−5などの任意の値が用いられる。
画像識別部3は、学習誤差Sをフィルタ係数更新部4及びスケーリング係数更新部5のそれぞれに出力する。
フィルタ係数更新部4は、画像識別部3から学習誤差Sを受けると、学習誤差Sが小さくなるように、複数の畳み込みフィルタF1のフィルタ係数を更新する(図4のステップST4)。畳み込みフィルタF1のフィルタ係数の更新処理自体は、公知の技術であるため詳細な説明を省略する。
フィルタ係数更新部4は、複数の畳み込みフィルタF1の更新後のフィルタ係数を画像生成部2に出力する。
また、フィルタ係数更新部4は、画像識別部3によって、生成画像と実画像が高精度に識別されるように、複数の畳み込みフィルタF2のフィルタ係数を更新し、複数の畳み込みフィルタF2の更新後のフィルタ係数を画像識別部3に出力する。畳み込みフィルタF2のフィルタ係数の更新処理自体は、公知の技術であるため詳細な説明を省略する。
スケーリング係数更新部5は、画像識別部3から学習誤差Sを受けると、学習誤差Sが小さくなるように、複数のスケーリング係数αを更新する(図4のステップST5)。スケーリング係数αの更新処理自体は、公知の技術であるため詳細な説明を省略する。
スケーリング係数更新部5は、更新後の複数のスケーリング係数αを画像生成部2、画像識別部3及びフィルタ削除部6のそれぞれに出力する。
制御部9は、ステップST1〜ST5の処理が反復されるように、画像生成部2、画像識別部3、フィルタ係数更新部4及びスケーリング係数更新部5の動作を制御する。
ステップST1〜ST5の処理が反復されることで、徐々に、学習誤差Sが小さくなっていく。
具体的には、制御部9は、ステップST1〜ST5の処理の反復回数が閾値未満であれば(図4のステップST6:YESの場合)、ステップST1〜ST5の処理を繰り返し実施させる。
制御部9は、ステップST1〜ST5の処理の反復回数が閾値に到達すると(図4のステップST6:NOの場合)、ステップST1〜ST5の処理を終了させる。
制御部9は、ステップST1〜ST5の処理を終了させると、学習結果として、処理終了時における複数の畳み込みフィルタF1のフィルタ係数及び処理終了時における複数のスケーリング係数αのそれぞれを保存する(図4のステップST7)。
なお、閾値は、制御部9の内部メモリに記憶されているものであってもよいし、外部から与えられるものであってもよい。
フィルタ削除部6は、畳み込みニューラルネットワークN1が有する複数の畳み込みフィルタF1の中で、重要度が低い畳み込みフィルタF1を削除することで、畳み込みニューラルネットワークN1の規模を削減する(図4のステップST8)。
重要度が低い畳み込みフィルタF1は、画像の生成に大きな影響を与えない畳み込みフィルタを意味する。
以下、フィルタ削除部6による畳み込みニューラルネットワークN1の規模の削減処理を具体的に説明する。
フィルタ削除部6は、制御部9により保存されている複数のスケーリング係数α(j=0,1,2,・・・,J−1)を取得する。
スケーリング係数αは、畳み込みフィルタF1の出力に乗算される係数であり、スケーリング係数αが大きい程、畳み込みフィルタF1の出力が大きくなる。出力が大きい畳み込みフィルタF1は、画像の生成に大きな影響を与え、出力が小さい畳み込みフィルタF1は、画像の生成に与える影響が小さい。
したがって、スケーリング係数αは、畳み込みフィルタF1の重要度を決定する要素となる。つまり、大きいスケーリング係数αが、出力に乗算される畳み込みフィルタF1は、重要度が高く、小さいスケーリング係数αが、出力に乗算される畳み込みフィルタF1は、重要度が低いと考えられる。
重要度が低い畳み込みフィルタF1は、画像の生成に与える影響が相対的に小さいため、削除されても、画像の生成精度に対する影響が相対的に小さい。
そこで、フィルタ削除部6は、以下の式(2)に示すように、スケーリング係数αに基づいて、スケーリング係数αが、出力に乗算される畳み込みフィルタF1の重要度Imを算出する。

Figure 2020105144
式(2)において、h(α)は、例えば、αが大きい程、大きな値を返す関数である。
フィルタ削除部6は、畳み込みニューラルネットワークN1が有する複数の畳み込みフィルタF1のうち、重要度Imが高い上位X%の畳み込みフィルタF1を残して、他の畳み込みフィルタF1を削除する。
あるいは、フィルタ削除部6は、複数の畳み込みフィルタF1のうち、重要度Imが設定値よりも高い畳み込みフィルタF1を残して、重要度Imが設定値以下の畳み込みフィルタF1を削除する。
ここで、上位X%及び設定値は、フィルタ削除部6の内部メモリに記憶されているものであってもよいし、外部から与えられるものであってもよい。
制御部9は、フィルタ削除部6による畳み込みニューラルネットワークN1の規模の削減処理が終了すると、規模削減後の学習結果として、削除されずに残っている畳み込みフィルタF1のフィルタ係数を保存する。また、制御部9は、削除されずに残っている畳み込みフィルタF1の出力に乗算するスケーリング係数αを保存する。
以上により、図1に示す画像生成装置の学習が完了する。
以降、入力部1が、入力信号の入力を受け付けると、画像生成部2が、学習が完了している畳み込みニューラルネットワークN1を用いて、入力信号から生成画像を生成する。
以下、画像生成部2による画像の生成処理を具体的に説明する。
まず、画像生成部2は、規模削減後の学習結果として、制御部9により保存されている畳み込みフィルタF1のフィルタ係数及びスケーリング係数αを取得する。
次に、画像生成部2は、取得したフィルタ係数及びスケーリング係数αを用いて、入力信号から生成画像を生成する。画像の生成処理自体は、学習時における画像の生成処理と同様である。
画像生成部2は、生成画像を出力部7に出力する。
出力部7は、画像生成部2から生成画像を受けると、生成画像を外部に出力する。
以上の実施の形態1は、複数の畳み込みフィルタF1の重要度に基づいて、複数の畳み込みフィルタF1の中の1つ以上の畳み込みフィルタを削除するフィルタ削除部6を備え、画像生成部2が、フィルタ係数更新部4によりフィルタ係数が更新された複数の畳み込みフィルタF1のうち、フィルタ削除部6により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークN1を用いて、入力信号から、実画像に相当する画像を生成するように、画像生成装置を構成した。したがって、画像生成装置は、画像の生成に用いる畳み込みニューラルネットワークN1の規模を削減することができる。
図1に示す画像生成装置では、画像生成部2が、規模削減後の学習結果として、制御部9により保存されている畳み込みフィルタF1のフィルタ係数及びスケーリング係数αを用いて、入力信号から生成画像を生成している。
しかし、これは一例に過ぎず、画像生成部2が、入力信号から生成画像を生成する前に、画像生成装置が、畳み込みニューラルネットワークN1を再学習するようにしてもよい。
具体的には、画像生成装置が、フィルタ削除部6により削除されずに残っている畳み込みフィルタF1を用いて、図4のステップST1〜ST7の処理を実施することで、畳み込みニューラルネットワークN1を再学習するようにしてもよい。
制御部9は、再学習結果として、再学習に伴う畳み込みフィルタF1の更新後のフィルタ係数と、再学習に伴う更新後のスケーリング係数αとを保存する。
画像生成部2は、再学習結果として、制御部9により保存されている畳み込みフィルタF1のフィルタ係数及びスケーリング係数αを用いて、入力信号から生成画像を生成する。
画像生成装置が、畳み込みニューラルネットワークN1を再学習することで、学習精度が高まり、さらに、実画像に近い生成画像を生成することができる。
図1に示す画像生成装置では、フィルタ削除部6が、スケーリング係数αに基づいて、畳み込みフィルタF1の重要度Imを算出している。しかし、これは一例に過ぎず、例えば、複数の畳み込みフィルタF1の重要度が事前に設定されているものであってもよい。
実施の形態2.
実施の形態1の画像生成装置では、フィルタ削除部6が、畳み込みニューラルネットワークN1が有する畳み込みフィルタF1を1つ以上削除している。
しかし、フィルタ削除部6が、畳み込みフィルタF1を一度に大幅削減すると、畳み込みニューラルネットワークN1の再学習を失敗する可能性がある。
実施の形態2では、画像生成部2、画像識別部3、フィルタ係数更新部4、スケーリング係数更新部5及びスケーリング係数更新部5におけるそれぞれの処理と、フィルタ削除部6の処理とを交互に繰り返すことで、畳み込みフィルタF1を段階的に削除する画像生成装置について説明する。
図7は、畳み込みフィルタF1を段階的に削除する画像生成装置の動作を示すフローチャートである。実施の形態2の画像生成装置の構成は、実施の形態1の画像生成装置と同様に、図1である。
以下、図7を参照しながら、実施の形態2の画像生成装置の動作を説明する。
実施の形態2の画像生成装置は、実施の形態1の画像生成装置と同様に、図4のステップST1〜ST7の処理を実施することで、畳み込みニューラルネットワークN1の学習を行う(図7のステップST11)。
フィルタ削除部6は、実施の形態1と同様に、制御部9により保存されている複数のスケーリング係数α(j=0,1,2,・・・,J−1)を取得する。
フィルタ削除部6は、上記の式(2)に示すように、スケーリング係数αに基づいて、スケーリング係数αが、出力に乗算される畳み込みフィルタF1の重要度Imを算出する。
フィルタ削除部6は、畳み込みニューラルネットワークN1が有する複数の畳み込みフィルタF1の中で、例えば、重要度Imが最も低い畳み込みフィルタF1を削除する(図7のステップST12)。
ここでは、複数の畳み込みフィルタF1の中で、重要度Imが最も低い畳み込みフィルタF1を削除している。しかし、畳み込みフィルタF1を段階的に削除するものであればよく、フィルタ削除部6が、例えば、複数の畳み込みフィルタF1の中で、重要度Imが最も低い畳み込みフィルタF1と、2番目に低い畳み込みフィルタF1とを削除するようにしてもよい。
実施の形態2の画像生成装置は、フィルタ削除部6により削除されずに残っている畳み込みフィルタF1を用いて、図4のステップST1〜ST7の処理を実施することで、畳み込みニューラルネットワークN1を再学習する(図7のステップST13)。
フィルタ削除部6は、削除せずに残っている畳み込みフィルタF1の数が目標数よりも多ければ(図7のステップST14:YESの場合)、残っている畳み込みフィルタF1の中で、例えば、重要度Imが最も低い畳み込みフィルタF1を削除する(図7のステップST12)。
目標数は、フィルタ削除部6の内部メモリに記憶されているものであってもよいし、外部から与えられるものであってもよい。
制御部9は、フィルタ削除部6により削除されずに残っている畳み込みフィルタF1の数が目標数以下であれば(図7のステップST14:NOの場合)、規模削減後の再学習結果として、削除されずに残っている畳み込みフィルタF1のフィルタ係数を保存する(図7のステップST15)。また、制御部9は、削除されずに残っている畳み込みフィルタF1の出力に乗算するスケーリング係数αを保存する(図7のステップST15)。
以上により、実施の形態2の画像生成装置の学習が完了する。
以上の実施の形態2は、画像生成部2、画像識別部3、フィルタ係数更新部4、スケーリング係数更新部5及びスケーリング係数更新部5におけるそれぞれの処理と、フィルタ削除部6の処理とを交互に繰り返すことで、畳み込みフィルタF1を段階的に削除するように、画像生成装置を構成した。したがって、実施の形態2の画像生成装置は、フィルタ削除部6が、畳み込みフィルタF1を一度に大幅削減する場合よりも、畳み込みニューラルネットワークN1の再学習を失敗する可能性を低減することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明は、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、実画像に相当する画像を生成する画像生成装置及び画像生成方法に適している。
1 入力部、2 画像生成部、3 画像識別部、4 フィルタ係数更新部、5 スケーリング係数更新部、6 フィルタ削除部、7 出力部、8 画像処理部、9 制御部、11 入力回路、12 画像生成回路、13 画像識別回路、14 フィルタ係数更新回路、15 スケーリング係数更新回路、16 フィルタ削除回路、17 出力回路、18 制御回路、31 メモリ、32 プロセッサ。
この発明に係る画像生成装置は、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成目標の画像である実画像に相当する画像を生成する画像生成部と、画像生成部により生成された画像が実画像であるか否かを識別する画像識別部と、画像識別部の識別結果を用いて、複数の畳み込みフィルタのフィルタ係数を更新するフィルタ係数更新部と、複数の畳み込みフィルタの重要度に基づいて、複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するフィルタ削除部とを備え、画像生成部が、フィルタ係数更新部によりフィルタ係数が更新された複数の畳み込みフィルタのうち、フィルタ削除部により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、実画像に相当する画像を生成し、画像生成部、画像識別部及びフィルタ係数更新部におけるそれぞれの処理と、フィルタ削除部の処理とを交互に繰り返すことで、畳み込みニューラルネットワークが有する畳み込みフィルタを段階的に削除するようにしたものである。

Claims (8)

  1. 複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成目標の画像である実画像に相当する画像を生成する画像生成部と、
    前記画像生成部により生成された画像が前記実画像であるか否かを識別する画像識別部と、
    前記画像識別部の識別結果を用いて、前記複数の畳み込みフィルタのフィルタ係数を更新するフィルタ係数更新部と、
    前記複数の畳み込みフィルタの重要度に基づいて、前記複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するフィルタ削除部とを備え、
    前記画像生成部は、前記フィルタ係数更新部によりフィルタ係数が更新された複数の畳み込みフィルタのうち、前記フィルタ削除部により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、前記実画像に相当する画像を生成することを特徴とする画像生成装置。
  2. 前記画像生成部は、
    前記畳み込みニューラルネットワークにおけるそれぞれの畳み込み層において、
    当該畳み込み層に含まれる複数の畳み込みフィルタのそれぞれを用いて、入力信号に対するフィルタ処理をそれぞれ実施したのち、フィルタ処理後のそれぞれの入力信号に対して、それぞれのスケーリング係数を乗算し、
    当該畳み込み層が最終段の畳み込み層でなければ、当該畳み込み層に含まれる複数の畳み込みフィルタが、スケーリング係数乗算後のそれぞれの入力信号を次段の畳み込み層に出力し、
    当該畳み込み層が最終段の畳み込み層であれば、当該畳み込み層に含まれる複数の畳み込みフィルタが、生成した画像として、スケーリング係数乗算後のそれぞれの入力信号を前記画像識別部に出力することを特徴とする請求項1記載の画像生成装置。
  3. 前記画像識別部は、前記画像生成部により生成された画像が前記実画像であるか否かの識別結果と、それぞれのスケーリング係数とから、前記画像生成部における前記畳み込みニューラルネットワークの学習誤差を算出し、
    前記フィルタ係数更新部は、前記画像識別部により算出された学習誤差が小さくなるように、前記複数の畳み込みフィルタのフィルタ係数を更新することを特徴とする請求項1記載の画像生成装置。
  4. 前記画像識別部により算出された学習誤差が小さくなるように、それぞれのスケーリング係数を更新するスケーリング係数更新部を備えたことを特徴とする請求項3記載の画像生成装置。
  5. 前記フィルタ削除部は、前記スケーリング係数更新部による更新後のそれぞれのスケーリング係数に基づいて、前記複数の畳み込みフィルタの重要度を算出することを特徴とする請求項4記載の画像生成装置。
  6. 前記画像識別部は、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、前記画像生成部により生成された画像が前記実画像であるか否かを識別することを特徴とする請求項1記載の画像生成装置。
  7. 前記画像生成部、前記画像識別部及び前記フィルタ係数更新部におけるそれぞれの処理と、前記フィルタ削除部の処理とを交互に繰り返すことで、前記畳み込みニューラルネットワークが有する畳み込みフィルタを段階的に削除することを特徴とする請求項1記載の画像生成装置。
  8. 画像生成部が、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成目標の画像である実画像に相当する画像を生成し、
    画像識別部が、前記画像生成部により生成された画像が前記実画像であるか否かを識別し、
    フィルタ係数更新部が、前記画像識別部の識別結果を用いて、前記複数の畳み込みフィルタのフィルタ係数を更新し、
    フィルタ削除部が、前記複数の畳み込みフィルタの重要度に基づいて、前記複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するものであり、
    前記画像生成部は、前記フィルタ係数更新部によりフィルタ係数が更新された複数の畳み込みフィルタのうち、前記フィルタ削除部により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、前記実画像に相当する画像を生成することを特徴とする画像生成方法。
JP2019553586A 2018-11-21 2018-11-21 画像生成装置及び画像生成方法 Pending JPWO2020105144A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/043000 WO2020105144A1 (ja) 2018-11-21 2018-11-21 画像生成装置及び画像生成方法

Publications (1)

Publication Number Publication Date
JPWO2020105144A1 true JPWO2020105144A1 (ja) 2021-02-15

Family

ID=70774657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553586A Pending JPWO2020105144A1 (ja) 2018-11-21 2018-11-21 画像生成装置及び画像生成方法

Country Status (3)

Country Link
JP (1) JPWO2020105144A1 (ja)
TW (1) TW202021341A (ja)
WO (1) WO2020105144A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102597079B1 (ko) * 2021-09-03 2023-10-31 연세대학교 산학협력단 n차원 텐서 곱 연산을 이용한 합성곱 신경망 압축 방법 및 장치
WO2024111476A1 (ja) * 2022-11-25 2024-05-30 ソニーセミコンダクタソリューションズ株式会社 情報処理方法、ニューラルネットワーク、情報処理装置、情報処理システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018520404A (ja) * 2015-04-28 2018-07-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018520404A (ja) * 2015-04-28 2018-07-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山下 隆義, イラストで学ぶディープラーニング, vol. 改訂第2版, JPN6019051817, 19 November 2018 (2018-11-19), JP, pages 81 - 83, ISSN: 0004294043 *

Also Published As

Publication number Publication date
TW202021341A (zh) 2020-06-01
WO2020105144A1 (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
JP7242903B2 (ja) 畳み込みニューラルネットワークに基づく発話源分離のための方法および装置
JPWO2018131405A1 (ja) 情報処理装置、方法及びコンピュータ可読記憶媒体
JP2019511033A5 (ja)
KR20200022739A (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
JP2017090912A (ja) ニューラルネットワークトレーニング装置及び方法と、音声認識装置及び方法
CN109859113B (zh) 模型生成方法、图像增强方法、装置及计算机可读存储介质
JP2016523402A (ja) ベイズの最適化を実施するためのシステムおよび方法
CN110598717B (zh) 图像特征的提取方法、装置及电子设备
CN107610146A (zh) 图像场景分割方法、装置、计算设备及计算机存储介质
JP2019197540A5 (ja)
WO2016107426A1 (en) Systems and methods to adaptively select execution modes
WO2020006762A1 (zh) 训练图像修复模型的方法、图像修复方法、装置、介质及设备
JP6816481B2 (ja) 削減条件特定方法、削減条件特定プログラム及び削減条件特定装置
JP2019003546A (ja) 多層ニューラルネットワークのニューロンの出力レベル調整方法
Wei et al. Deep unfolding with normalizing flow priors for inverse problems
JP2020087103A (ja) 学習方法、コンピュータプログラム、分類器、及び生成器
JPWO2020105144A1 (ja) 画像生成装置及び画像生成方法
JP2019185127A5 (ja) ニューラルネットワークの学習装置およびその制御方法
JP2014160456A (ja) 疎変数最適化装置、疎変数最適化方法および疎変数最適化プログラム
TWI806987B (zh) 用於訓練神經網路的方法及神經網路訓練系統
CN112308227A (zh) 神经网络架构搜索方法、装置、终端设备以及存储介质
KR102213177B1 (ko) 로봇에서의 음성인식 장치 및 방법
JP2023078578A (ja) 画像処理装置、学習システム、および、学習方法
JP2022151502A (ja) プログラム、情報処理装置、及び方法
JP7438544B2 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190927

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200630