JPWO2020105144A1 - 画像生成装置及び画像生成方法 - Google Patents
画像生成装置及び画像生成方法 Download PDFInfo
- Publication number
- JPWO2020105144A1 JPWO2020105144A1 JP2019553586A JP2019553586A JPWO2020105144A1 JP WO2020105144 A1 JPWO2020105144 A1 JP WO2020105144A1 JP 2019553586 A JP2019553586 A JP 2019553586A JP 2019553586 A JP2019553586 A JP 2019553586A JP WO2020105144 A1 JPWO2020105144 A1 JP WO2020105144A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- filter
- convolution
- image generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
GANを用いる画像生成装置は、畳み込みニューラルネットワークを用いる生成器と、畳み込みニューラルネットワークを用いる識別器とを備えている。
生成器は、畳み込みニューラルネットワークを用いて、ノイズベクトルから、生成目標の画像(以下、「実画像」と称する)に近い画像(以下、「生成画像」と称する)を生成する。
識別器は、何らかの画像が入力されると、畳み込みニューラルネットワークを用いて、入力された画像が、生成器により生成された生成画像であるのか、実画像であるのかを識別する。
具体的には、生成器は、識別器を騙せるように、出来るだけ、実画像であるか否かの識別が困難な写実的な画像が生成されるように、畳み込みニューラルネットワークの学習を行う。
一方、識別器は、生成器に騙されないように、入力された画像が、生成器により生成された生成画像であるのか、実画像であるのかを識別できるように学習を行う。
生成器と識別器が学習を繰り返すことで、生成器により最終的に生成される画像は、実画像であるか否かの識別が困難な画像になる。
生成器が用いる畳み込みニューラルネットワークの規模と、生成器の演算量とは正比例するため、生成器が大規模な畳み込みニューラルネットワークを用いる場合、生成器の演算量が極めて大きくなることがあるという課題があった。
なお、生成器の演算量が大きい場合、高速の画像生成が必要とされる組み込み機器、あるいは、メモリなどの計算資源が限られている組み込み機器などには、画像生成装置を適用することが困難である。
図1は、実施の形態1に係る画像生成装置を示す構成図である。図2は、実施の形態1に係る画像生成装置のハードウェアを示すハードウェア構成図である。
図1及び図2において、画像生成装置は、画像処理部8及び制御部9を備えている。
画像処理部8は、入力部1、画像生成部2、画像識別部3、フィルタ係数更新部4、スケーリング係数更新部5、フィルタ削除部6及び出力部7を備えている。
入力部1は、例えば、図2に示す入力回路11によって実現される。
入力部1は、入力信号として、ランダム数値列などのノイズベクトル、あるいは、生成目標の画像(以下、「実画像」と称する)と異なる画像などの入力を受け付ける。また、入力部1は、実画像の入力を受け付ける。
入力部1は、入力信号を画像生成部2に出力し、実画像を画像識別部3に出力する。
画像生成部2は、複数の畳み込みフィルタF1を有する畳み込みニューラルネットワークN1を用いて、入力信号から、実画像に相当する画像(以下、「生成画像」と称する)を生成する。
画像生成部2は、生成画像を画像識別部3及び出力部7のそれぞれに出力する。
画像生成部2において、実画像であるか否かの識別が困難な写実的な画像が、生成画像として生成されるように、畳み込みニューラルネットワークN1の学習が行われ、フィルタ係数更新部4によって、複数の畳み込みフィルタF1のフィルタ係数が更新される。
画像識別部3は、複数の畳み込みフィルタF2を有する畳み込みニューラルネットワークN2を用いて、生成画像が実画像であるか否かの識別処理を実施する。
画像識別部3は、生成画像が実画像であるか否かの識別結果と、スケーリング係数更新部5から出力されたそれぞれのスケーリング係数とから、画像生成部2における畳み込みニューラルネットワークN1の学習誤差を算出する。
画像識別部3は、学習誤差をフィルタ係数更新部4及びスケーリング係数更新部5のそれぞれに出力する。
画像識別部3において、生成画像と実画像が高精度に識別されるように、畳み込みニューラルネットワークN2の学習が行われ、フィルタ係数更新部4によって、複数の畳み込みフィルタF2のフィルタ係数が更新される。
フィルタ係数更新部4は、画像識別部3の識別結果を用いて、複数の畳み込みフィルタF1のフィルタ係数を更新する。
具体的には、フィルタ係数更新部4は、画像識別部3により算出された学習誤差が小さくなるように、複数の畳み込みフィルタF1のフィルタ係数を更新する。
フィルタ係数更新部4は、複数の畳み込みフィルタF1の更新後のフィルタ係数を画像生成部2に出力する。
また、フィルタ係数更新部4は、画像識別部3によって、生成画像と実画像が高精度に識別されるように、複数の畳み込みフィルタF2のフィルタ係数を更新し、複数の畳み込みフィルタF2の更新後のフィルタ係数を画像識別部3に出力する。
スケーリング係数更新部5は、画像識別部3により算出された学習誤差が小さくなるように、複数のスケーリング係数を更新する。スケーリング係数は、例えば、0〜1の係数である。
スケーリング係数更新部5は、更新後の複数のスケーリング係数を画像生成部2、画像識別部3及びフィルタ削除部6のそれぞれに出力する。
フィルタ削除部6は、スケーリング係数更新部5による更新後のそれぞれのスケーリング係数に基づいて、複数の畳み込みフィルタF1の全てについて、各畳み込みフィルタF1の重要度を算出する。
フィルタ削除部6は、複数の畳み込みフィルタF1の重要度に基づいて、複数の畳み込みフィルタF1の中の1つ以上の畳み込みフィルタを削除する。
出力部7は、画像生成部2から出力された生成画像を外部に出力する。
制御部9は、例えば、図2に示す制御回路18によって実現される。
制御部9は、画像処理部8の処理を制御する。また、制御部9は、学習結果として、畳み込みフィルタF1のフィルタ係数及びスケーリング係数などを保存する。
ここで、入力回路11、画像生成回路12、画像識別回路13、フィルタ係数更新回路14、スケーリング係数更新回路15、フィルタ削除回路16、出力回路17及び制御回路18のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
図3は、画像生成装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
図4は、画像生成装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である画像生成方法を示すフローチャートである。
また、図2では、画像生成装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、画像生成装置がソフトウェア又はファームウェアなどで実現される例を示している。しかし、これは一例に過ぎず、画像生成装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェア又はファームウェアなどで実現されるものであってもよい。
まず、入力部1は、入力信号の入力を受け付けるほか、実画像の入力を受け付ける。
入力部1は、受け付けた入力信号を画像生成部2に出力し、受け付けた実画像を画像識別部3に出力する。
スケーリング係数更新部5は、複数のスケーリング係数α0,α1,α2,・・・,αJ−1の初期値を画像生成部2に出力する。スケーリング係数α0,α1,α2,・・・,αJ−1の初期値は、例えば、1に決定される。
画像生成部2は、生成画像を画像識別部3に出力する。
図5は、畳み込みニューラルネットワークの概念を示す説明図である。
畳み込みニューラルネットワークは、図5に示すように、複数の畳み込みフィルタによって複数の畳み込み層が構成されて、複数の畳み込み層が積み重ねられたものである。
まず、画像生成部2は、それぞれの畳み込み層において、当該畳み込み層に含まれる複数の畳み込みフィルタのフィルタ係数を用いて、入力信号に対するフィルタ処理をそれぞれ実施することで、入力信号の特徴を抽出する。
図6は、複数の畳み込みフィルタの出力に対するスケーリング係数α0,α1,α2,・・・,αJ−1の乗算を示す説明図である。
画像生成部2は、当該畳み込み層が、最終段の畳み込み層でなければ、複数の畳み込みフィルタの出力として、スケーリング係数乗算後のそれぞれの入力信号を次段の畳み込み層に出力する。
当該畳み込み層が、最終段の畳み込み層であれば、スケーリング係数乗算後のそれぞれの入力信号は、画像生成部2により生成された生成画像に相当し、画像生成部2は、生成画像を画像識別部3に出力する。
画像識別部3は、以下の式(1)に示すように、生成画像が実画像であるか否かの識別結果lGANと、複数の畳み込みフィルタF1の出力に対するスケーリング係数α0,α1,α2,・・・,αJ−1とから、学習誤差Seを算出する(図4のステップST3)。
画像識別部3によって、生成画像が実画像であると識別された場合の識別結果lGANは、例えば、0であり、生成画像が実画像と異なる画像と識別された場合の識別結果lGANは、例えば、1である。
式(1)において、g(αj)は、例えば、スケーリング係数αjの絶対値計算を行う関数である。Jは、複数の畳み込みフィルタF1のそれぞれに対応するスケーリング係数の数である。
λは、学習誤差Seに対するスケーリング係数αjの影響度を調整するための変数であり、10−5などの任意の値が用いられる。
画像識別部3は、学習誤差Seをフィルタ係数更新部4及びスケーリング係数更新部5のそれぞれに出力する。
フィルタ係数更新部4は、複数の畳み込みフィルタF1の更新後のフィルタ係数を画像生成部2に出力する。
また、フィルタ係数更新部4は、画像識別部3によって、生成画像と実画像が高精度に識別されるように、複数の畳み込みフィルタF2のフィルタ係数を更新し、複数の畳み込みフィルタF2の更新後のフィルタ係数を画像識別部3に出力する。畳み込みフィルタF2のフィルタ係数の更新処理自体は、公知の技術であるため詳細な説明を省略する。
スケーリング係数更新部5は、更新後の複数のスケーリング係数αjを画像生成部2、画像識別部3及びフィルタ削除部6のそれぞれに出力する。
ステップST1〜ST5の処理が反復されることで、徐々に、学習誤差Seが小さくなっていく。
具体的には、制御部9は、ステップST1〜ST5の処理の反復回数が閾値未満であれば(図4のステップST6:YESの場合)、ステップST1〜ST5の処理を繰り返し実施させる。
制御部9は、ステップST1〜ST5の処理の反復回数が閾値に到達すると(図4のステップST6:NOの場合)、ステップST1〜ST5の処理を終了させる。
制御部9は、ステップST1〜ST5の処理を終了させると、学習結果として、処理終了時における複数の畳み込みフィルタF1のフィルタ係数及び処理終了時における複数のスケーリング係数αjのそれぞれを保存する(図4のステップST7)。
なお、閾値は、制御部9の内部メモリに記憶されているものであってもよいし、外部から与えられるものであってもよい。
重要度が低い畳み込みフィルタF1は、画像の生成に大きな影響を与えない畳み込みフィルタを意味する。
以下、フィルタ削除部6による畳み込みニューラルネットワークN1の規模の削減処理を具体的に説明する。
スケーリング係数αjは、畳み込みフィルタF1の出力に乗算される係数であり、スケーリング係数αjが大きい程、畳み込みフィルタF1の出力が大きくなる。出力が大きい畳み込みフィルタF1は、画像の生成に大きな影響を与え、出力が小さい畳み込みフィルタF1は、画像の生成に与える影響が小さい。
したがって、スケーリング係数αjは、畳み込みフィルタF1の重要度を決定する要素となる。つまり、大きいスケーリング係数αjが、出力に乗算される畳み込みフィルタF1は、重要度が高く、小さいスケーリング係数αjが、出力に乗算される畳み込みフィルタF1は、重要度が低いと考えられる。
重要度が低い畳み込みフィルタF1は、画像の生成に与える影響が相対的に小さいため、削除されても、画像の生成精度に対する影響が相対的に小さい。
式(2)において、h(αj)は、例えば、αjが大きい程、大きな値を返す関数である。
あるいは、フィルタ削除部6は、複数の畳み込みフィルタF1のうち、重要度Imjが設定値よりも高い畳み込みフィルタF1を残して、重要度Imjが設定値以下の畳み込みフィルタF1を削除する。
ここで、上位X%及び設定値は、フィルタ削除部6の内部メモリに記憶されているものであってもよいし、外部から与えられるものであってもよい。
以上により、図1に示す画像生成装置の学習が完了する。
以降、入力部1が、入力信号の入力を受け付けると、画像生成部2が、学習が完了している畳み込みニューラルネットワークN1を用いて、入力信号から生成画像を生成する。
まず、画像生成部2は、規模削減後の学習結果として、制御部9により保存されている畳み込みフィルタF1のフィルタ係数及びスケーリング係数αjを取得する。
次に、画像生成部2は、取得したフィルタ係数及びスケーリング係数αjを用いて、入力信号から生成画像を生成する。画像の生成処理自体は、学習時における画像の生成処理と同様である。
画像生成部2は、生成画像を出力部7に出力する。
出力部7は、画像生成部2から生成画像を受けると、生成画像を外部に出力する。
しかし、これは一例に過ぎず、画像生成部2が、入力信号から生成画像を生成する前に、画像生成装置が、畳み込みニューラルネットワークN1を再学習するようにしてもよい。
具体的には、画像生成装置が、フィルタ削除部6により削除されずに残っている畳み込みフィルタF1を用いて、図4のステップST1〜ST7の処理を実施することで、畳み込みニューラルネットワークN1を再学習するようにしてもよい。
制御部9は、再学習結果として、再学習に伴う畳み込みフィルタF1の更新後のフィルタ係数と、再学習に伴う更新後のスケーリング係数αjとを保存する。
画像生成部2は、再学習結果として、制御部9により保存されている畳み込みフィルタF1のフィルタ係数及びスケーリング係数αjを用いて、入力信号から生成画像を生成する。
画像生成装置が、畳み込みニューラルネットワークN1を再学習することで、学習精度が高まり、さらに、実画像に近い生成画像を生成することができる。
実施の形態1の画像生成装置では、フィルタ削除部6が、畳み込みニューラルネットワークN1が有する畳み込みフィルタF1を1つ以上削除している。
しかし、フィルタ削除部6が、畳み込みフィルタF1を一度に大幅削減すると、畳み込みニューラルネットワークN1の再学習を失敗する可能性がある。
実施の形態2では、画像生成部2、画像識別部3、フィルタ係数更新部4、スケーリング係数更新部5及びスケーリング係数更新部5におけるそれぞれの処理と、フィルタ削除部6の処理とを交互に繰り返すことで、畳み込みフィルタF1を段階的に削除する画像生成装置について説明する。
以下、図7を参照しながら、実施の形態2の画像生成装置の動作を説明する。
フィルタ削除部6は、実施の形態1と同様に、制御部9により保存されている複数のスケーリング係数αj(j=0,1,2,・・・,J−1)を取得する。
フィルタ削除部6は、上記の式(2)に示すように、スケーリング係数αjに基づいて、スケーリング係数αjが、出力に乗算される畳み込みフィルタF1の重要度Imjを算出する。
ここでは、複数の畳み込みフィルタF1の中で、重要度Imjが最も低い畳み込みフィルタF1を削除している。しかし、畳み込みフィルタF1を段階的に削除するものであればよく、フィルタ削除部6が、例えば、複数の畳み込みフィルタF1の中で、重要度Imjが最も低い畳み込みフィルタF1と、2番目に低い畳み込みフィルタF1とを削除するようにしてもよい。
フィルタ削除部6は、削除せずに残っている畳み込みフィルタF1の数が目標数よりも多ければ(図7のステップST14:YESの場合)、残っている畳み込みフィルタF1の中で、例えば、重要度Imjが最も低い畳み込みフィルタF1を削除する(図7のステップST12)。
目標数は、フィルタ削除部6の内部メモリに記憶されているものであってもよいし、外部から与えられるものであってもよい。
以上により、実施の形態2の画像生成装置の学習が完了する。
Claims (8)
- 複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成目標の画像である実画像に相当する画像を生成する画像生成部と、
前記画像生成部により生成された画像が前記実画像であるか否かを識別する画像識別部と、
前記画像識別部の識別結果を用いて、前記複数の畳み込みフィルタのフィルタ係数を更新するフィルタ係数更新部と、
前記複数の畳み込みフィルタの重要度に基づいて、前記複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するフィルタ削除部とを備え、
前記画像生成部は、前記フィルタ係数更新部によりフィルタ係数が更新された複数の畳み込みフィルタのうち、前記フィルタ削除部により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、前記実画像に相当する画像を生成することを特徴とする画像生成装置。 - 前記画像生成部は、
前記畳み込みニューラルネットワークにおけるそれぞれの畳み込み層において、
当該畳み込み層に含まれる複数の畳み込みフィルタのそれぞれを用いて、入力信号に対するフィルタ処理をそれぞれ実施したのち、フィルタ処理後のそれぞれの入力信号に対して、それぞれのスケーリング係数を乗算し、
当該畳み込み層が最終段の畳み込み層でなければ、当該畳み込み層に含まれる複数の畳み込みフィルタが、スケーリング係数乗算後のそれぞれの入力信号を次段の畳み込み層に出力し、
当該畳み込み層が最終段の畳み込み層であれば、当該畳み込み層に含まれる複数の畳み込みフィルタが、生成した画像として、スケーリング係数乗算後のそれぞれの入力信号を前記画像識別部に出力することを特徴とする請求項1記載の画像生成装置。 - 前記画像識別部は、前記画像生成部により生成された画像が前記実画像であるか否かの識別結果と、それぞれのスケーリング係数とから、前記画像生成部における前記畳み込みニューラルネットワークの学習誤差を算出し、
前記フィルタ係数更新部は、前記画像識別部により算出された学習誤差が小さくなるように、前記複数の畳み込みフィルタのフィルタ係数を更新することを特徴とする請求項1記載の画像生成装置。 - 前記画像識別部により算出された学習誤差が小さくなるように、それぞれのスケーリング係数を更新するスケーリング係数更新部を備えたことを特徴とする請求項3記載の画像生成装置。
- 前記フィルタ削除部は、前記スケーリング係数更新部による更新後のそれぞれのスケーリング係数に基づいて、前記複数の畳み込みフィルタの重要度を算出することを特徴とする請求項4記載の画像生成装置。
- 前記画像識別部は、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、前記画像生成部により生成された画像が前記実画像であるか否かを識別することを特徴とする請求項1記載の画像生成装置。
- 前記画像生成部、前記画像識別部及び前記フィルタ係数更新部におけるそれぞれの処理と、前記フィルタ削除部の処理とを交互に繰り返すことで、前記畳み込みニューラルネットワークが有する畳み込みフィルタを段階的に削除することを特徴とする請求項1記載の画像生成装置。
- 画像生成部が、複数の畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、生成目標の画像である実画像に相当する画像を生成し、
画像識別部が、前記画像生成部により生成された画像が前記実画像であるか否かを識別し、
フィルタ係数更新部が、前記画像識別部の識別結果を用いて、前記複数の畳み込みフィルタのフィルタ係数を更新し、
フィルタ削除部が、前記複数の畳み込みフィルタの重要度に基づいて、前記複数の畳み込みフィルタの中の1つ以上の畳み込みフィルタを削除するものであり、
前記画像生成部は、前記フィルタ係数更新部によりフィルタ係数が更新された複数の畳み込みフィルタのうち、前記フィルタ削除部により削除されずに残っている畳み込みフィルタを有する畳み込みニューラルネットワークを用いて、入力信号から、前記実画像に相当する画像を生成することを特徴とする画像生成方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/043000 WO2020105144A1 (ja) | 2018-11-21 | 2018-11-21 | 画像生成装置及び画像生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2020105144A1 true JPWO2020105144A1 (ja) | 2021-02-15 |
Family
ID=70774657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019553586A Pending JPWO2020105144A1 (ja) | 2018-11-21 | 2018-11-21 | 画像生成装置及び画像生成方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPWO2020105144A1 (ja) |
TW (1) | TW202021341A (ja) |
WO (1) | WO2020105144A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102597079B1 (ko) * | 2021-09-03 | 2023-10-31 | 연세대학교 산학협력단 | n차원 텐서 곱 연산을 이용한 합성곱 신경망 압축 방법 및 장치 |
WO2024111476A1 (ja) * | 2022-11-25 | 2024-05-30 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理方法、ニューラルネットワーク、情報処理装置、情報処理システム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018520404A (ja) * | 2015-04-28 | 2018-07-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性 |
-
2018
- 2018-11-21 JP JP2019553586A patent/JPWO2020105144A1/ja active Pending
- 2018-11-21 WO PCT/JP2018/043000 patent/WO2020105144A1/ja active Application Filing
-
2019
- 2019-05-22 TW TW108117638A patent/TW202021341A/zh unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018520404A (ja) * | 2015-04-28 | 2018-07-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性 |
Non-Patent Citations (1)
Title |
---|
山下 隆義, イラストで学ぶディープラーニング, vol. 改訂第2版, JPN6019051817, 19 November 2018 (2018-11-19), JP, pages 81 - 83, ISSN: 0004294043 * |
Also Published As
Publication number | Publication date |
---|---|
TW202021341A (zh) | 2020-06-01 |
WO2020105144A1 (ja) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7242903B2 (ja) | 畳み込みニューラルネットワークに基づく発話源分離のための方法および装置 | |
JPWO2018131405A1 (ja) | 情報処理装置、方法及びコンピュータ可読記憶媒体 | |
JP2019511033A5 (ja) | ||
KR20200022739A (ko) | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 | |
JP2017090912A (ja) | ニューラルネットワークトレーニング装置及び方法と、音声認識装置及び方法 | |
CN109859113B (zh) | 模型生成方法、图像增强方法、装置及计算机可读存储介质 | |
JP2016523402A (ja) | ベイズの最適化を実施するためのシステムおよび方法 | |
CN110598717B (zh) | 图像特征的提取方法、装置及电子设备 | |
CN107610146A (zh) | 图像场景分割方法、装置、计算设备及计算机存储介质 | |
JP2019197540A5 (ja) | ||
WO2016107426A1 (en) | Systems and methods to adaptively select execution modes | |
WO2020006762A1 (zh) | 训练图像修复模型的方法、图像修复方法、装置、介质及设备 | |
JP6816481B2 (ja) | 削減条件特定方法、削減条件特定プログラム及び削減条件特定装置 | |
JP2019003546A (ja) | 多層ニューラルネットワークのニューロンの出力レベル調整方法 | |
Wei et al. | Deep unfolding with normalizing flow priors for inverse problems | |
JP2020087103A (ja) | 学習方法、コンピュータプログラム、分類器、及び生成器 | |
JPWO2020105144A1 (ja) | 画像生成装置及び画像生成方法 | |
JP2019185127A5 (ja) | ニューラルネットワークの学習装置およびその制御方法 | |
JP2014160456A (ja) | 疎変数最適化装置、疎変数最適化方法および疎変数最適化プログラム | |
TWI806987B (zh) | 用於訓練神經網路的方法及神經網路訓練系統 | |
CN112308227A (zh) | 神经网络架构搜索方法、装置、终端设备以及存储介质 | |
KR102213177B1 (ko) | 로봇에서의 음성인식 장치 및 방법 | |
JP2023078578A (ja) | 画像処理装置、学習システム、および、学習方法 | |
JP2022151502A (ja) | プログラム、情報処理装置、及び方法 | |
JP7438544B2 (ja) | ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190927 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190927 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190927 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200630 |