JPWO2020003450A1 - データ処理システムおよびデータ処理方法 - Google Patents

データ処理システムおよびデータ処理方法 Download PDF

Info

Publication number
JPWO2020003450A1
JPWO2020003450A1 JP2020526814A JP2020526814A JPWO2020003450A1 JP WO2020003450 A1 JPWO2020003450 A1 JP WO2020003450A1 JP 2020526814 A JP2020526814 A JP 2020526814A JP 2020526814 A JP2020526814 A JP 2020526814A JP WO2020003450 A1 JPWO2020003450 A1 JP WO2020003450A1
Authority
JP
Japan
Prior art keywords
data
neural network
intermediate data
processing unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020526814A
Other languages
English (en)
Other versions
JP6994572B2 (ja
Inventor
陽一 矢口
陽一 矢口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2020003450A1 publication Critical patent/JPWO2020003450A1/ja
Application granted granted Critical
Publication of JP6994572B2 publication Critical patent/JP6994572B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

データ処理システム100は、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するニューラルネットワーク処理部130と、ニューラルネットワーク処理部130が学習データに対してニューラルネットワークにしたがった処理を実行することにより出力される出力データと、その学習データに対する理想的な出力データとの比較に基づいて、ニューラルネットワークの最適化対象パラメータを最適化する学習部と、を備える。ニューラルネットワーク処理部130は、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは中間層要素からの出力データを表す中間データであって、学習データに含まれるN(2以上の整数)個の学習サンプルのセットに基づくN個の中間データのそれぞれに対して、当該N個の中間データから選択した少なくとも1つの中間データを用いた演算を適用する攪乱処理を実行する。

Description

本発明は、データ処理システムおよびデータ処理方法に関する。
ニューラルネットワークは、1以上の非線形ユニットを含む数学的モデルであり、入力に対応する出力を予測する機械学習モデルである。多くのニューラルネットワークは、入力層と出力層の他に、1以上の中間層(隠れ層)をもつ。各中間層の出力は次の層(中間層または出力層)の入力となる。ニューラルネットワークの各層は、入力および自身のパラメータに応じて出力を生成する。
Alex Krizhevsky、Ilya Sutskever、Geoffrey E. Hinton、「ImageNet Classification with Deep Convolutional Neural Networks」、NIPS2012_4824
ニューラルネットワークの学習における問題のひとつとして学習データへの過適合が知られている。学習データへの過適合は、未知データに対する予測精度の悪化を引き起こす。
本発明はこうした状況に鑑みなされたものであり、その目的は、学習データへの過適合を抑止できる技術を提供することにある。
上記課題を解決するために、本発明のある態様のデータ処理システムは、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するニューラルネットワーク処理部と、ニューラルネットワーク処理部が学習データに対して処理を実行することにより出力される出力データと、その学習データに対する理想的な出力データとの比較に基づいて、ニューラルネットワークの最適化対象パラメータを最適化する学習部と、を備える。ニューラルネットワーク処理部は、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは中間層要素からの出力データを表す中間データであって、学習データに含まれるN(2以上の整数)個の学習サンプルのセットに基づくN個の中間データのそれぞれに対して、当該N個の中間データから選択した少なくとも1つの中間データを用いた演算を適用する攪乱処理を実行する。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、学習データへの過適合を抑止できる。
実施の形態に係るデータ処理システムの機能および構成を示すブロック図である。 ニューラルネットワークの構成の一例を模式的に示す図である。 データ処理システムによる学習処理のフローチャートを示す図である。 データ処理システムによる適用処理のフローチャートを示す図である。 ニューラルネットワークの構成の他の一例を模式的に示す図である。
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。
実施の形態を説明する前に、基礎となった知見を説明する。
ニューラルネットワークの学習において学習データそのもののみを学習すると、ニューラルネットワークは非常に多い最適化対象パラメータを持つため学習データに過適合した複雑な写像が得られてしまう。一般的なデータ増幅では、学習データの幾何形状、値等に摂動を加えることにより過適合を緩和できる。しかし、各学習データの近傍のみに摂動データが充填されるため、その効果は限定的である。Between Class Learningでは、2つの学習データおよび各々に対応する理想的な出力データを適当な比率で混合することでデータを増幅する。これにより、学習データの空間と出力データの空間で密に擬似データが充填され、より過適合を抑制できる。一方、学習の際、ネットワークの中間部の表現空間は学習されるデータを広い分布に表現できるよう学習される。よって本発明では、入力に近い層から出力に近い層まで多くの中間層でデータを混合することで中間部の表現空間を改善し、ネットワーク全体としても学習データへの過適合を抑制する方法を提案する。以下、具体的に説明する。
以下ではデータ処理装置を画像処理に適用する場合を例に説明するが、当業者によれば、データ処理装置を音声認識処理、自然言語処理、その他の処理にも適用可能であることが理解されよう。
図1は、実施の形態に係るデータ処理システム100の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウェア的には、コンピュータのCPU(central processing unit)をはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
データ処理システム100は、学習用の画像(学習データ)と、その画像に対する理想的な出力データである正解値とに基づいてニューラルネットワークの学習を行う「学習処理」と、学習済みのニューラルネットワークを未知の画像(未知データ)に適用し、画像分類、物体検出または画像セグメンテーションなどの画像処理を行う「適用処理」と、を実行する。
学習処理では、データ処理システム100は、学習用の画像に対してニューラルネットワークにしたがった処理を実行し、学習用の画像に対する出力データを出力する。そしてデータ処理システム100は、出力データが正解値に近づく方向にニューラルネットワークの最適化(学習)対象のパラメータ(以下、「最適化対象パラメータ」と呼ぶ)を更新する。これを繰り返すことにより最適化対象パラメータが最適化される。
適用処理では、データ処理システム100は、学習処理において最適化された最適化対象パラメータを用いて、画像に対してニューラルネットワークにしたがった処理を実行し、その画像に対する出力データを出力する。データ処理システム100は、出力データを解釈して、画像を画像分類したり、画像から物体検出したり、画像に対して画像セグメンテーションを行ったりする。
データ処理システム100は、取得部110と、記憶部120と、ニューラルネットワーク処理部130と、学習部140と、解釈部150と、を備える。主にニューラルネットワーク処理部130と学習部140により学習処理の機能が実現され、主にニューラルネットワーク処理部130と解釈部150により適用処理の機能が実現される。
取得部110は、学習処理においては、N(2以上の整数)個の学習用の画像(学習サンプル)のセットと、それらN個の学習用の画像のそれぞれに対応するN個の正解値とを取得する。また取得部110は、適用処理においては、処理対象の画像を取得する。なお、画像は、チャンネル数は特に問わず、例えばRGB画像であっても、また例えばグレースケール画像であってもよい。
記憶部120は、取得部110が取得した画像を記憶する他、ニューラルネットワーク処理部130、学習部140および解釈部150のワーク領域や、ニューラルネットワークのパラメータの記憶領域となる。
ニューラルネットワーク処理部130は、ニューラルネットワークにしたがった処理を実行する。ニューラルネットワーク処理部130は、ニューラルネットワークの入力層に対応する処理を実行する入力層処理部131と、中間層(隠れ層)に対応する処理を実行する中間層処理部132と、出力層に対応する処理を実行する出力層処理部133と、を含む。
図2は、ニューラルネットワークの構成の一例を模式的に示す図である。この例では、ニューラルネットワークは2つの中間層を含み、各中間層は畳み込み処理を行う中間層要素とプーリング処理を行う中間層要素とを含んで構成されている。なお、中間層の数は特に限定されず、例えば中間層の数が1であっても、3以上であってもよい。図示の例の場合、中間層処理部132は、各中間層の各要素の処理を実行する。
また、本実体の形態では、ニューラルネットワークは、少なくとも1つの攪乱要素を含む。図示の例では、ニューラルネットワークは各中間層の前後に攪乱要素を含んでいる。攪乱要素では、中間層処理部132は、この攪乱要素に対応する処理も実行する。
中間層処理部132は、学習処理時は、攪乱要素に対応する処理として攪乱処理を実行する。攪乱処理とは、中間層要素への入力データまたは中間層要素からの出力データを表す中間データであって、学習用の画像のセットに含まれるN個の学習用の画像に基づくN個の中間データのそれぞれに対して、当該N個の中間データから選択した少なくとも1つの中間データを用いた演算を適用する処理をいう。
具体的には、攪乱処理は、一例として以下の式(1)により与えられる。
Figure 2020003450
この例では、学習用の画像のセットに含まれるN個の学習用の画像のすべてがそれぞれ、当該N個の学習の画像のうちの他の画像を攪乱するのに用いられている。また、N個の学習用の画像のそれぞれに、他の画像が線形結合されている。
また、中間層処理部132は、適用処理時は、攪乱要素に対応する処理として攪乱処理の代わりに、つまり攪乱処理を実行せずに、以下の式(2)により与えられる処理を実行する。つまり、入力をそのまま出力する処理を実行する。
Figure 2020003450
学習部140は、ニューラルネットワークの最適化対象パラメータを最適化する。学習部140は、学習用の画像をニューラルネットワーク処理部130に入力することにより得られた出力と、その画像に対応する正解値とを比較する目的関数(誤差関数)により、誤差を算出する。学習部140は、算出された誤差に基づいて、勾配逆伝搬法等によりパラメータについての勾配を計算し、モーメンタム法に基づいてニューラルネットワークの最適化対象パラメータを更新する。
なお、逆伝搬で用いる、攪乱処理のベクトルxに対する偏微分は以下の式(3)により与えられる。
Figure 2020003450
取得部110による学習用の画像の取得と、ニューラルネットワーク処理部130による学習用画像に対するニューラルネットワークにしたがった処理と、学習部140による最適化対象パラメータの更新とを繰り返すことにより、最適化対象パラメータが最適化される。
また、学習部140は、学習を終了すべきか否かを判定する。学習を終了すべき終了条件は、例えば学習が所定回数行われたことや、外部から終了の指示を受けたことや、最適化対象パラメータの更新量の平均値が所定値に達したことや、算出された誤差が所定の範囲内に収まったことである。学習部140は、終了条件が満たされる場合、学習処理を終了させる。学習部140は、終了条件が満たされない場合、処理をニューラルネットワーク処理部130に戻す。
解釈部150は、出力層処理部133からの出力を解釈して、画像分類、物体検出または画像セグメンテーションを実施する。
実施の形態に係るデータ処理システム100の動作を説明する。
図3は、データ処理システム100による学習処理のフローチャートを示す。取得部110は、複数枚の学習用の画像を取得する(S10)。ニューラルネットワーク処理部130は、取得部110が取得した複数枚の学習用の画像のそれぞれに対して、ニューラルネットワークにしたがった処理を実行し、それぞれについての出力データを出力する(S12)。学習部140は、複数枚の学習用の画像のそれぞれについての出力データと、それぞれについての正解値とに基づいて、パラメータを更新する(S14)。学習部140は、終了条件が満たされるか否かを判定する(S16)。終了条件が満たされない場合(S16のN)、処理はS10に戻される。終了条件が満たされる場合(S16のY)、処理は終了する。
図4は、データ処理システム100による適用処理のフローチャートを示す。取得部110は、適用処理の対象の画像を取得する(S20)。ニューラルネットワーク処理部130は、取得部110が取得した画像に対して、最適化対象パラメータが最適化されたすなわち学習済みのニューラルネットワークにしたがった処理を実行し、出力データを出力する(S22)。解釈部150は、出力データを解釈し、対象の画像を画像分類したり、対象の画像から物体検出したり、対象の画像に対して画像セグメンテーションを行ったりする(S24)。
以上説明した実施の形態に係るデータ処理システム100によると、学習用の画像のセットに含まれるN個の学習用の画像に基づくN個の中間データのそれぞれが、当該N個の中間データから選択された少なくとも1つの中間データ、すなわち同質なデータを用いて攪乱される。同質なデータを用いた攪乱による合理的なデータ分布拡張により、学習データへの過適合が抑制される。
また、データ処理システム100によると、学習用の画像のセットに含まれるN個の学習用の画像のすべてがそれぞれ、当該N個の学習の画像のうちの他の画像を攪乱するのに用いられる。このため、すべてのデータを偏りなく学習させることができる。
また、データ処理システム100によると、適用処理時は攪乱処理を実行しないため、本発明を利用しない場合と同程度の処理時間で適用処理を実行できる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
(変形例1)
適用処理では、学習用の画像のセットに含まれるN個の学習用の画像に基づくN個の中間データのそれぞれを、当該N個の中間データから選択された少なくとも1つの中間データ、すなわち同質なデータを用いて攪乱すればよく、様々な変形例が考えられる。以下、変形例をいくつか説明する。
攪乱処理は、以下の式(4)により与えられてもよい。
Figure 2020003450
この場合、逆伝搬で用いる、攪乱処理のベクトルxに対する偏微分は以下の式(5)で与えられる。
Figure 2020003450
また、適用処理時に攪乱要素に対応する処理として実行される処理は、つまり攪乱処理の代わりとして実行される処理は、以下の式(6)により与えられる。スケールが揃うことによって適用処理における画像処理の精度が向上する。
Figure 2020003450
攪乱処理は、以下の式(7)により与えられてもよい。
Figure 2020003450
各kに関連する乱数は独立に得られる。また、逆伝搬は実施の形態の場合と同様に考えられる。
撹乱処理は、以下の式(8)により与えられてもよい。
Figure 2020003450
この場合、攪乱に用いるデータがランダムに選択されるため、攪乱のランダム性を強化できる。
撹乱処理は、以下の式(9)により与えられてもよい。
Figure 2020003450
撹乱処理は、以下の式(10)により与えられてもよい。
Figure 2020003450
(変形例2)
図5は、ニューラルネットワークの構成の他の一例を模式的に示す図である。この例では、畳み込み処理の後に攪乱要素を含む。つまり、既存手法であるResidual networksやDensely connected networksの各畳み込み処理の後に攪乱要素を含めたものに相当する。各中間層では、畳み込み処理を行う中間層要素に入力されるべき中間データと、当該中間データを当該中間層要素に入力することにより出力された中間データに対して攪乱処理を実行することにより得られる中間データとが統合される。別の言い方をすると、各中間層では、入出力関係が恒等写像である恒等写像経路と、経路に前記最適化対象パラメータを有する最適化対象経路とを統合する演算が実行される。本変形例によれば、恒等写像経路の恒等性を維持したまま最適化対象経路に撹乱を加えることで、学習をより安定させることができる。
(変形例3)
実施の形態では特に言及しなかったが、式(1)において、σを学習の繰り返し回数に応じて単調増加させてもよい。これにより学習が安定化する学習後期に、より過学習を抑えることができる。
100 データ処理システム、 130 ニューラルネットワーク処理部、 140 学習部。
本発明は、データ処理システムおよびデータ処理方法に関する。

Claims (8)

  1. 入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するニューラルネットワーク処理部と、
    前記ニューラルネットワーク処理部が学習データに対して前記処理を実行することにより出力される出力データと、その学習データに対する理想的な出力データとの比較に基づいて、前記ニューラルネットワークの最適化対象パラメータを最適化する学習部と、を備え、
    前記ニューラルネットワーク処理部は、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは前記中間層要素からの出力データを表す中間データであって、学習データに含まれるN(2以上の整数)個の学習サンプルのセットに基づくN個の中間データのそれぞれに対して、当該N個の中間データから選択した少なくとも1つの中間データを用いた演算を適用する攪乱処理を実行することを特徴とするデータ処理システム。
  2. 前記ニューラルネットワーク処理部は、攪乱処理として、N個の中間データのそれぞれに対して、当該N個の中間データから選択した少なくとも1つの中間データを線形結合することを特徴とする請求項1に記載のデータ処理システム。
  3. 前記ニューラルネットワーク処理部は、攪乱処理として、N個の中間データのそれぞれに対して、当該N個の中間データから選択した少なくとも1つの中間データを乱数倍したデータを足し合わせることを特徴とする請求項2に記載のデータ処理システム。
  4. 前記ニューラルネットワーク処理部は、攪乱処理として、N個の中間データのそれぞれに対して、当該N個の中間データからランダムに選択された少なくとも1つの中間データを用いた演算を適用することを特徴とする請求項1に記載のデータ処理システム。
  5. 前記ニューラルネットワーク処理部は、攪乱処理として、N個の中間データのうちのi(iは2以上N以下の整数)番目の中間データに対して、順序をランダムに並べ替えた当該N個の中間データのi番目の中間データを用いた演算を適用することを特徴とする請求項4に記載のデータ処理システム。
  6. 前記ニューラルネットワーク処理部は、中間層要素に入力されるべき中間データと、当該中間データを当該中間層要素に入力することにより出力された中間データに対して攪乱処理を実行することにより得られる中間データとを統合する処理を実行することを特徴とする請求項1に記載のデータ処理システム。
  7. 前記ニューラルネットワーク処理部は、適用処理時は、攪乱処理を実行しないことを特徴とする請求項1から6のいずれかに記載のデータ処理システム。
  8. 前記ニューラルネットワーク処理部は、適用処理時は、攪乱処理の代わりに、N個の中間データのうちのi番目の中間データに乗じられる係数の期待値を乗じた結果を当該i番目の中間データに対する出力データとして出力することを特徴とする請求項2に記載のデータ処理システム。
JP2020526814A 2018-06-28 2018-06-28 データ処理システムおよびデータ処理方法 Active JP6994572B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/024645 WO2020003450A1 (ja) 2018-06-28 2018-06-28 データ処理システムおよびデータ処理方法

Publications (2)

Publication Number Publication Date
JPWO2020003450A1 true JPWO2020003450A1 (ja) 2021-02-18
JP6994572B2 JP6994572B2 (ja) 2022-01-14

Family

ID=68986767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020526814A Active JP6994572B2 (ja) 2018-06-28 2018-06-28 データ処理システムおよびデータ処理方法

Country Status (4)

Country Link
US (1) US20210117793A1 (ja)
JP (1) JP6994572B2 (ja)
CN (1) CN112313676A (ja)
WO (1) WO2020003450A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160125572A1 (en) * 2014-11-05 2016-05-05 Korea Advanced Institute Of Science And Technology Device and method to generate image using image learning model
JP2017211939A (ja) * 2016-05-27 2017-11-30 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2018092610A (ja) * 2016-11-28 2018-06-14 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06110861A (ja) * 1992-09-30 1994-04-22 Hitachi Ltd 適応的制御システム
US10803582B2 (en) * 2016-07-04 2020-10-13 Nec Corporation Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160125572A1 (en) * 2014-11-05 2016-05-05 Korea Advanced Institute Of Science And Technology Device and method to generate image using image learning model
JP2017211939A (ja) * 2016-05-27 2017-11-30 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2018092610A (ja) * 2016-11-28 2018-06-14 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム

Also Published As

Publication number Publication date
WO2020003450A1 (ja) 2020-01-02
JP6994572B2 (ja) 2022-01-14
CN112313676A (zh) 2021-02-02
US20210117793A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
US10380479B2 (en) Acceleration of convolutional neural network training using stochastic perforation
US11676008B2 (en) Parameter-efficient multi-task and transfer learning
KR102011788B1 (ko) 계층적 시각 특징을 이용한 시각 질의 응답 장치 및 방법
US9536206B2 (en) Method and apparatus for improving resilience in customized program learning network computational environments
JP2020135011A (ja) 情報処理装置及び方法
US11789698B2 (en) Computer processing and outcome prediction systems and methods
US20240005166A1 (en) Minimum Deep Learning with Gating Multiplier
Wu et al. A L-BFGS based learning algorithm for complex-valued feedforward neural networks
CN112836820A (zh) 用于图像分类任务的深度卷积网络训方法、装置及系统
WO2019106132A1 (en) Gated linear networks
JP6942203B2 (ja) データ処理システムおよびデータ処理方法
Nikoloska et al. Time-warping invariant quantum recurrent neural networks via quantum-classical adaptive gating
Espinoza et al. Short term chaotic time series prediction using symmetric LS-SVM regression
CN113490955A (zh) 用于产生金字塔层的架构的系统和方法
US9336498B2 (en) Method and apparatus for improving resilience in customized program learning network computational environments
JP6994572B2 (ja) データ処理システムおよびデータ処理方法
JP2023078578A (ja) 画像処理装置、学習システム、および、学習方法
JP6942204B2 (ja) データ処理システムおよびデータ処理方法
Xu et al. A constructive algorithm for wavelet neural networks
JP7000586B2 (ja) データ処理システムおよびデータ処理方法
JP7055211B2 (ja) データ処理システムおよびデータ処理方法
Andersson et al. Sketch classification with neural networks: A comparative study of CNN and RNN on the Quick, Draw! data set
KR20240099929A (ko) 정수형 npu에서 동작하는 신경망을 위한 네트워크 파라미터 교정 방법 및 이를 위한 장치
Zhou et al. A non-orthogonal and multi-width RBF neural network for chaotic time series prediction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R151 Written notification of patent or utility model registration

Ref document number: 6994572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151