JP2018523182A - 深層畳み込みネットワークにおいて画像解像度を低減すること - Google Patents
深層畳み込みネットワークにおいて画像解像度を低減すること Download PDFInfo
- Publication number
- JP2018523182A JP2018523182A JP2017556142A JP2017556142A JP2018523182A JP 2018523182 A JP2018523182 A JP 2018523182A JP 2017556142 A JP2017556142 A JP 2017556142A JP 2017556142 A JP2017556142 A JP 2017556142A JP 2018523182 A JP2018523182 A JP 2018523182A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- dcn
- reduction factor
- adjusting
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
Description
[0001]本出願は、その開示全体が参照により本明細書に明確に組み込まれる、2015年4月28日に出願された「REDUCING IMAGE RESOLUTION IN DEEP CONVOLUTIONAL NETWORKS」と題する米国仮特許出願第62/154,084号の米国特許法第119条(e)項に基づく利益を主張する。
モデル圧縮および微調整
[0029]深層畳み込みネットワーク(DCN)など、深層ニューラルネットワークは、画像/ビデオ分類、音声認識、および/または顔認識などのいくつかの人工知能タスクにおいて使用される。従来のシステムでは、ニューラルネットワークモデルは、トレーニング例の大きいデータベースからトレーニングされる。さらに、たいていの場合、より大きいニューラルネットワークモデルは、より小さいニューラルネットワークモデルと比較して、より良い性能を達成する。モバイルデバイス、クラウドアプリケーション、ロボット、および/または車など、いくつかのデバイス上でニューラルネットワークモデルを展開するために、計算複雑さ、メモリフットプリント、および/または電力消費を低減することが望ましい。
深層畳み込みネットワークのための画像解像度低減
[0063]前に説明したように、深層畳み込みネットワーク(DCN)は、ニューラルネットワークのための画像分類および/または顔認識のために使用され得る。画像分類および/または顔認識の場合、画像解像度が入力画像のために指定される。さらに、異なる画像解像度がDCN内の様々な層のために指定され得る。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
深層畳み込みネットワーク(DCN)において画像解像度を低減する方法であって、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択することと、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節することとを備える、方法。
[C2]
前記低減ファクタを動的に選択することが、
各層のために前記低減ファクタをランダムに選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することとを備える、C1に記載の方法。
[C3]
前記低減ファクタを動的に選択することが、
前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することとを備える、C1に記載の方法。
[C4]
前記DCNを調節することが、前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節することをさらに備える、C1に記載の方法。
[C5]
前記DCNを調節することが、前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングすることをさらに備える、C1に記載の方法。
[C6]
前記DCNを調節することが、前記DCNを微調整することをさらに備える、C1に記載の方法。
[C7]
前記微調整することが、少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整することを備える、C6に記載の方法。
[C8]
前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、C7に記載の方法。
[C9]
元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶することと、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶することとをさらに備える、C1に記載の方法。
[C10]
深層畳み込みネットワーク(DCN)において画像解像度を低減するための装置であって、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択するための手段と、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節するための手段とを備える、装置。
[C11]
前記低減ファクタを動的に選択するための前記手段が、
各層のために前記低減ファクタをランダムに選択するための手段と、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するための手段とを備える、C10に記載の装置。
[C12]
前記低減ファクタを動的に選択するための前記手段が、
前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択するための手段と、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するための手段とを備える、C10に記載の装置。
[C13]
前記DCNを調節するための前記手段が、前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節するための手段をさらに備える、C10に記載の装置。
[C14]
前記DCNを調節するための前記手段が、前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングするための手段をさらに備える、C10に記載の装置。
[C15]
前記DCNを調節するための前記手段が、前記DCNを微調整するための手段をさらに備える、C10に記載の装置。
[C16]
微調整するための前記手段が、少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整するための手段を備える、C15に記載の装置。
[C17]
前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、C16に記載の装置。
[C18]
元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶するための手段と、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶するための手段とをさらに備える、C10に記載の装置。
[C19]
深層畳み込みネットワーク(DCN)において画像解像度を低減するための装置であって、
メモリユニットと、
前記メモリユニットに結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサが、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択することと、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節することと
を行うように構成された、装置。
[C20]
前記少なくとも1つのプロセッサが、
各層のために前記低減ファクタをランダムに選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することとを行うようにさらに構成された、C19に記載の装置。
[C21]
前記少なくとも1つのプロセッサが、
前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することとを行うようにさらに構成された、C19に記載の装置。
[C22]
前記少なくとも1つのプロセッサが、前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節するようにさらに構成された、C19に記載の装置。
[C23]
前記少なくとも1つのプロセッサが、前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングするようにさらに構成された、C19に記載の装置。
[C24]
前記少なくとも1つのプロセッサが、前記DCNを微調整するようにさらに構成された、C19に記載の装置。
[C25]
前記少なくとも1つのプロセッサが、少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整するようにさらに構成された、C24に記載の装置。
[C26]
前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、C25に記載の装置。
[C27]
前記少なくとも1つのプロセッサが、
元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶することと、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶することとを行うようにさらに構成された、C19に記載の装置。
[C28]
深層畳み込みネットワーク(DCN)において画像解像度を低減するための非一時的コンピュータ可読媒体であって、前記非一時的コンピュータ可読媒体がプログラムコードを記録しており、前記プログラムコードが、プロセッサによって実行され、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択するためのプログラムコードと、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節するためのプログラムコードとを備える、非一時的コンピュータ可読媒体。
[C29]
各層のために前記低減ファクタをランダムに選択するためのプログラムコードと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するためのプログラムコードとをさらに備える、C28に記載のコンピュータ可読媒体。
[C30]
前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択するためのプログラムコードと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するためのプログラムコードとをさらに備える、C28に記載のコンピュータ可読媒体。
[C31]
前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節するためのプログラムコードをさらに備える、C28に記載のコンピュータ可読媒体。
[C32]
前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングするためのプログラムコードをさらに備える、C28に記載のコンピュータ可読媒体。
[C33]
前記DCNを微調整するためのプログラムコードをさらに備える、C28に記載のコンピュータ可読媒体。
[C34]
少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整するためのプログラムコードをさらに備える、C33に記載のコンピュータ可読媒体。
[C35]
前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、C34に記載のコンピュータ可読媒体。
[C36]
元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶するためのプログラムコードと、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶するためのプログラムコードとをさらに備える、C28に記載のコンピュータ可読媒体。
Claims (36)
- 深層畳み込みネットワーク(DCN)において画像解像度を低減する方法であって、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択することと、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節することと
を備える、方法。 - 前記低減ファクタを動的に選択することが、
各層のために前記低減ファクタをランダムに選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することと
を備える、請求項1に記載の方法。 - 前記低減ファクタを動的に選択することが、
前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することと
を備える、請求項1に記載の方法。 - 前記DCNを調節することが、前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節することをさらに備える、請求項1に記載の方法。
- 前記DCNを調節することが、前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングすることをさらに備える、請求項1に記載の方法。
- 前記DCNを調節することが、前記DCNを微調整することをさらに備える、請求項1に記載の方法。
- 前記微調整することが、少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整することを備える、請求項6に記載の方法。
- 前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、請求項7に記載の方法。
- 元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶することと、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶することと
をさらに備える、請求項1に記載の方法。 - 深層畳み込みネットワーク(DCN)において画像解像度を低減するための装置であって、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択するための手段と、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節するための手段と
を備える、装置。 - 前記低減ファクタを動的に選択するための前記手段が、
各層のために前記低減ファクタをランダムに選択するための手段と、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するための手段と
を備える、請求項10に記載の装置。 - 前記低減ファクタを動的に選択するための前記手段が、
前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択するための手段と、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するための手段と
を備える、請求項10に記載の装置。 - 前記DCNを調節するための前記手段が、前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節するための手段をさらに備える、請求項10に記載の装置。
- 前記DCNを調節するための前記手段が、前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングするための手段をさらに備える、請求項10に記載の装置。
- 前記DCNを調節するための前記手段が、前記DCNを微調整するための手段をさらに備える、請求項10に記載の装置。
- 微調整するための前記手段が、少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整するための手段を備える、請求項15に記載の装置。
- 前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、請求項16に記載の装置。
- 元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶するための手段と、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶するための手段と
をさらに備える、請求項10に記載の装置。 - 深層畳み込みネットワーク(DCN)において画像解像度を低減するための装置であって、
メモリユニットと、
前記メモリユニットに結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサが、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択することと、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節することと
を行うように構成された、
装置。 - 前記少なくとも1つのプロセッサが、
各層のために前記低減ファクタをランダムに選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することと
を行うようにさらに構成された、請求項19に記載の装置。 - 前記少なくとも1つのプロセッサが、
前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択することと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節することと
を行うようにさらに構成された、請求項19に記載の装置。 - 前記少なくとも1つのプロセッサが、前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節するようにさらに構成された、請求項19に記載の装置。
- 前記少なくとも1つのプロセッサが、前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングするようにさらに構成された、請求項19に記載の装置。
- 前記少なくとも1つのプロセッサが、前記DCNを微調整するようにさらに構成された、請求項19に記載の装置。
- 前記少なくとも1つのプロセッサが、少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整するようにさらに構成された、請求項24に記載の装置。
- 前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、請求項25に記載の装置。
- 前記少なくとも1つのプロセッサが、
元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶することと、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶することと
を行うようにさらに構成された、請求項19に記載の装置。 - 深層畳み込みネットワーク(DCN)において画像解像度を低減するための非一時的コンピュータ可読媒体であって、前記非一時的コンピュータ可読媒体がプログラムコードを記録しており、前記プログラムコードが、プロセッサによって実行され、
前記DCNの各層において、入力画像に、適用されるべき低減ファクタを動的に選択するためのプログラムコードと、
各層のために選択された前記低減ファクタに少なくとも部分的に基づいて、前記DCNを調節するためのプログラムコードと
を備える、非一時的コンピュータ可読媒体。 - 各層のために前記低減ファクタをランダムに選択するためのプログラムコードと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するためのプログラムコードと
をさらに備える、請求項28に記載のコンピュータ可読媒体。 - 前記DCNの各層の計算複雑さおよび/または所与の層における前記入力画像の高周波成分中のエネルギーの部分に少なくとも部分的に基づいて、各層のために、前記低減ファクタを選択するためのプログラムコードと、
前記DCNの性能損失と複雑さのレベルとに少なくとも部分的に基づいて、各低減ファクタを調節するためのプログラムコードと
をさらに備える、請求項28に記載のコンピュータ可読媒体。 - 前記低減ファクタに少なくとも部分的に基づいて、前記DCNの各層における重みを調節するためのプログラムコードをさらに備える、請求項28に記載のコンピュータ可読媒体。
- 前記選択された低減ファクタに少なくとも部分的に基づいて、前記DCNのプーリング層におけるシナプス結合をトリミングするためのプログラムコードをさらに備える、請求項28に記載のコンピュータ可読媒体。
- 前記DCNを微調整するためのプログラムコードをさらに備える、請求項28に記載のコンピュータ可読媒体。
- 少なくとも1つの他の層における固定重みを維持しながら、選択された層を微調整するためのプログラムコードをさらに備える、請求項33に記載のコンピュータ可読媒体。
- 前記選択された層が畳み込み層を備え、前記最小1つの他の層が全結合層を備える、請求項34に記載のコンピュータ可読媒体。
- 元のDCNと前記調節されたDCNの両方のための1つの全結合層を記憶するためのプログラムコードと、
前記元のDCNのための第1の畳み込み層と、前記調節されたDCNのための第2の畳み込み層とを記憶するためのプログラムコードと
をさらに備える、請求項28に記載のコンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562154084P | 2015-04-28 | 2015-04-28 | |
US62/154,084 | 2015-04-28 | ||
US14/859,095 US9786036B2 (en) | 2015-04-28 | 2015-09-18 | Reducing image resolution in deep convolutional networks |
US14/859,095 | 2015-09-18 | ||
PCT/US2016/028493 WO2016176095A1 (en) | 2015-04-28 | 2016-04-20 | Reducing image resolution in deep convolutional networks |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018523182A true JP2018523182A (ja) | 2018-08-16 |
JP2018523182A5 JP2018523182A5 (ja) | 2019-05-09 |
JP6732795B2 JP6732795B2 (ja) | 2020-07-29 |
Family
ID=55967426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556142A Active JP6732795B2 (ja) | 2015-04-28 | 2016-04-20 | 深層畳み込みネットワークにおいて画像解像度を低減すること |
Country Status (5)
Country | Link |
---|---|
US (1) | US9786036B2 (ja) |
EP (1) | EP3289529B1 (ja) |
JP (1) | JP6732795B2 (ja) |
CN (1) | CN107533754B (ja) |
WO (1) | WO2016176095A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200037015A (ko) * | 2018-09-28 | 2020-04-08 | 한국과학기술원 | 컨텐츠 인지 신경망을 이용하여 실시간으로 적응형 비디오를 전송하는 방법 및 장치 |
JP2020187554A (ja) * | 2019-05-15 | 2020-11-19 | 株式会社スター精機 | 機械作業情報の記録方法及び確認方法 |
JP2020204863A (ja) * | 2019-06-17 | 2020-12-24 | 富士フイルム株式会社 | 学習装置、学習装置の作動方法、および学習装置の作動プログラム |
JP2021034008A (ja) * | 2019-08-13 | 2021-03-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | プロセッサチップ及びその制御方法 |
KR102268676B1 (ko) * | 2019-12-27 | 2021-06-23 | 중앙대학교 산학협력단 | 트리 구조 그래프 합성곱 신경망에 기반한 3차원 포인트 클라우드 생성 시스템 및 방법 |
JP2021530770A (ja) * | 2019-03-19 | 2021-11-11 | 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. | ビデオ処理方法、装置及びコンピュータ記憶媒体 |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417525B2 (en) | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
US9769367B2 (en) | 2015-08-07 | 2017-09-19 | Google Inc. | Speech and computer vision-based control |
US9836484B1 (en) * | 2015-12-30 | 2017-12-05 | Google Llc | Systems and methods that leverage deep learning to selectively store images at a mobile image capture device |
US9838641B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Low power framework for processing, compressing, and transmitting images at a mobile image capture device |
US10732809B2 (en) | 2015-12-30 | 2020-08-04 | Google Llc | Systems and methods for selective retention and editing of images captured by mobile image capture device |
US9836819B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Systems and methods for selective retention and editing of images captured by mobile image capture device |
US10225511B1 (en) | 2015-12-30 | 2019-03-05 | Google Llc | Low power framework for controlling image sensor mode in a mobile image capture device |
WO2017138220A1 (ja) * | 2016-02-12 | 2017-08-17 | ソニー株式会社 | 情報処理方法および情報処理装置 |
US10964326B2 (en) * | 2016-02-16 | 2021-03-30 | Carnegie Mellon University, A Pennsylvania Non-Profit Corporation | System and method for audio-visual speech recognition |
KR102223296B1 (ko) * | 2016-03-11 | 2021-03-04 | 매직 립, 인코포레이티드 | 콘볼루셔널 신경 네트워크들에서의 구조 학습 |
US10089717B2 (en) * | 2016-04-05 | 2018-10-02 | Flipboard, Inc. | Image scaling using a convolutional neural network |
US20170357894A1 (en) * | 2016-06-10 | 2017-12-14 | Apple Inc. | Data packing for convolution of artificial neural networks |
US11100398B2 (en) * | 2016-06-30 | 2021-08-24 | Cogniac, Corp. | Operating machine-learning models on different platforms |
US10354159B2 (en) * | 2016-09-06 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in an image using a contextual multiscale fast region-based convolutional neural network |
US10354362B2 (en) * | 2016-09-08 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network |
US11315018B2 (en) * | 2016-10-21 | 2022-04-26 | Nvidia Corporation | Systems and methods for pruning neural networks for resource efficient inference |
US20180129937A1 (en) | 2016-11-04 | 2018-05-10 | Salesforce.Com, Inc. | Quasi-recurrent neural network |
KR102631381B1 (ko) * | 2016-11-07 | 2024-01-31 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
US10740596B2 (en) * | 2016-11-08 | 2020-08-11 | Nec Corporation | Video security system using a Siamese reconstruction convolutional neural network for pose-invariant face recognition |
US10360494B2 (en) * | 2016-11-30 | 2019-07-23 | Altumview Systems Inc. | Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules |
CN108133222B (zh) * | 2016-12-01 | 2021-11-02 | 富士通株式会社 | 为数据库确定卷积神经网络cnn模型的装置和方法 |
US20180165845A1 (en) * | 2016-12-09 | 2018-06-14 | Free Construction Sp. Z o.o. | Method of Analysis of Visualised Data |
US10262218B2 (en) * | 2017-01-03 | 2019-04-16 | Qualcomm Incorporated | Simultaneous object detection and rigid transform estimation using neural network |
US11556780B2 (en) * | 2017-01-19 | 2023-01-17 | Nec Corporation | Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored |
KR101878490B1 (ko) * | 2017-03-10 | 2018-07-13 | 만도헬라일렉트로닉스(주) | 차선 인식 시스템 및 방법 |
US10678846B2 (en) * | 2017-03-10 | 2020-06-09 | Xerox Corporation | Instance-level image retrieval with a region proposal network |
WO2018184194A1 (en) | 2017-04-07 | 2018-10-11 | Intel Corporation | Methods and systems using improved convolutional neural networks for image processing |
US11164071B2 (en) * | 2017-04-18 | 2021-11-02 | Samsung Electronics Co., Ltd. | Method and apparatus for reducing computational complexity of convolutional neural networks |
WO2018213119A1 (en) | 2017-05-17 | 2018-11-22 | SigOpt, Inc. | Systems and methods implementing an intelligent optimization platform |
KR102548718B1 (ko) * | 2017-06-07 | 2023-06-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102413028B1 (ko) | 2017-08-16 | 2022-06-23 | 에스케이하이닉스 주식회사 | 중첩 신경망을 프루닝하는 방법 및 장치 |
CN108205580B (zh) * | 2017-09-27 | 2021-08-31 | 深圳市商汤科技有限公司 | 一种图像检索方法、装置及计算机可读存储介质 |
US10282237B1 (en) | 2017-10-30 | 2019-05-07 | SigOpt, Inc. | Systems and methods for implementing an intelligent application program interface for an intelligent optimization platform |
CN107967484B (zh) * | 2017-11-14 | 2021-03-16 | 中国计量大学 | 一种基于多分辨率的图像分类方法 |
US11270217B2 (en) | 2017-11-17 | 2022-03-08 | Intel Corporation | Systems and methods implementing an intelligent machine learning tuning system providing multiple tuned hyperparameter solutions |
US10785449B2 (en) * | 2017-12-08 | 2020-09-22 | Qualcomm Incorporated | Communicating using media content |
US11138505B2 (en) * | 2017-12-21 | 2021-10-05 | Fujitsu Limited | Quantization of neural network parameters |
CN108399382A (zh) | 2018-02-13 | 2018-08-14 | 阿里巴巴集团控股有限公司 | 车险图像处理方法和装置 |
US11875557B2 (en) | 2018-04-27 | 2024-01-16 | Carnegie Mellon University | Polynomial convolutional neural network with early fan-out |
CN108596836B (zh) * | 2018-05-09 | 2022-06-28 | 大国创新智能科技(东莞)有限公司 | 基于顶层生成深度学习的数据转换方法、系统、介质和设备 |
US11704567B2 (en) | 2018-07-13 | 2023-07-18 | Intel Corporation | Systems and methods for an accelerated tuning of hyperparameters of a model using a machine learning-based tuning service |
US10528891B1 (en) * | 2018-08-23 | 2020-01-07 | SigOpt, Inc. | Systems and methods for implementing an intelligent machine learning optimization platform for multiple tuning criteria |
US10878292B2 (en) * | 2018-12-07 | 2020-12-29 | Goodrich Corporation | Automatic generation of a new class in a classification system |
US20200233855A1 (en) * | 2019-01-21 | 2020-07-23 | saf.ai | Methods For Self-Aware, Self-Healing, And Self-Defending Data |
US11157812B2 (en) | 2019-04-15 | 2021-10-26 | Intel Corporation | Systems and methods for tuning hyperparameters of a model and advanced curtailment of a training of the model |
US11410016B2 (en) | 2019-04-26 | 2022-08-09 | Alibaba Group Holding Limited | Selective performance of deterministic computations for neural networks |
US11797876B1 (en) * | 2019-06-26 | 2023-10-24 | Amazon Technologies, Inc | Unified optimization for convolutional neural network model inference on integrated graphics processing units |
US11049286B2 (en) | 2019-07-31 | 2021-06-29 | Hewlett Packard Enterprise Development Lp | Deep neural network color space optimization |
KR20210039197A (ko) * | 2019-10-01 | 2021-04-09 | 삼성전자주식회사 | 데이터를 처리하는 방법 및 장치 |
US11436761B2 (en) | 2020-03-18 | 2022-09-06 | International Business Machines Corporation | Preventing feature loss when compressing images |
CN112132113A (zh) * | 2020-10-20 | 2020-12-25 | 北京百度网讯科技有限公司 | 车辆再识别的方法、装置、训练方法以及电子设备 |
US11954910B2 (en) | 2020-12-26 | 2024-04-09 | International Business Machines Corporation | Dynamic multi-resolution processing for video classification |
US11956453B2 (en) * | 2021-06-15 | 2024-04-09 | Tencent America LLC | Content-adaptive online training for DNN-based cross component prediction with scaling factors |
US11949892B2 (en) | 2021-06-15 | 2024-04-02 | Tencent America LLC | Content-adaptive online training for DNN-based cross component prediction with low-bit precision |
FR3128551A1 (fr) * | 2021-10-25 | 2023-04-28 | Stmicroelectronics (Rousset) Sas | Procédé de détection d’événements ou d’éléments dans des signaux physiques par la mise en œuvre d’un réseau de neurones artificiel |
US20230140170A1 (en) * | 2021-10-28 | 2023-05-04 | Samsung Electronics Co., Ltd. | System and method for depth and scene reconstruction for augmented reality or extended reality devices |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4072491B2 (ja) * | 2003-10-23 | 2008-04-09 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム及びコンピュータ可読媒体 |
US7835549B2 (en) | 2005-03-07 | 2010-11-16 | Fujifilm Corporation | Learning method of face classification apparatus, face classification method, apparatus and program |
US8861842B2 (en) | 2010-02-05 | 2014-10-14 | Sri International | Method and apparatus for real-time pedestrian detection for urban driving |
US8873813B2 (en) | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
US9042645B2 (en) | 2012-05-16 | 2015-05-26 | Imec | Feature detection in numeric data |
US9060127B2 (en) * | 2013-01-23 | 2015-06-16 | Orcam Technologies Ltd. | Apparatus for adjusting image capture settings |
CN103544705B (zh) * | 2013-10-25 | 2016-03-02 | 华南理工大学 | 一种基于深度卷积神经网络的图像质量测试方法 |
US9202144B2 (en) | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
CN104462778A (zh) * | 2014-11-06 | 2015-03-25 | 华北电力大学 | 一种基于深度学习的pm2.5污染物测量方法 |
-
2015
- 2015-09-18 US US14/859,095 patent/US9786036B2/en active Active
-
2016
- 2016-04-20 CN CN201680024411.1A patent/CN107533754B/zh active Active
- 2016-04-20 EP EP16722460.9A patent/EP3289529B1/en active Active
- 2016-04-20 WO PCT/US2016/028493 patent/WO2016176095A1/en active Application Filing
- 2016-04-20 JP JP2017556142A patent/JP6732795B2/ja active Active
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200037015A (ko) * | 2018-09-28 | 2020-04-08 | 한국과학기술원 | 컨텐츠 인지 신경망을 이용하여 실시간으로 적응형 비디오를 전송하는 방법 및 장치 |
KR102129115B1 (ko) | 2018-09-28 | 2020-07-02 | 한국과학기술원 | 컨텐츠 인지 신경망을 이용하여 실시간으로 적응형 비디오를 전송하는 방법 및 장치 |
JP2021530770A (ja) * | 2019-03-19 | 2021-11-11 | 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. | ビデオ処理方法、装置及びコンピュータ記憶媒体 |
JP7086235B2 (ja) | 2019-03-19 | 2022-06-17 | 深▲セン▼市商▲湯▼科技有限公司 | ビデオ処理方法、装置及びコンピュータ記憶媒体 |
JP2020187554A (ja) * | 2019-05-15 | 2020-11-19 | 株式会社スター精機 | 機械作業情報の記録方法及び確認方法 |
JP2020204863A (ja) * | 2019-06-17 | 2020-12-24 | 富士フイルム株式会社 | 学習装置、学習装置の作動方法、および学習装置の作動プログラム |
JP7195220B2 (ja) | 2019-06-17 | 2022-12-23 | 富士フイルム株式会社 | 学習装置、学習装置の作動方法、および学習装置の作動プログラム |
JP2021034008A (ja) * | 2019-08-13 | 2021-03-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | プロセッサチップ及びその制御方法 |
JP7164561B2 (ja) | 2019-08-13 | 2022-11-01 | 三星電子株式会社 | プロセッサチップ及びその制御方法 |
US11681904B2 (en) | 2019-08-13 | 2023-06-20 | Samsung Electronics Co., Ltd. | Processor chip and control methods thereof |
US11842265B2 (en) | 2019-08-13 | 2023-12-12 | Samsung Electronics Co., Ltd. | Processor chip and control methods thereof |
KR102268676B1 (ko) * | 2019-12-27 | 2021-06-23 | 중앙대학교 산학협력단 | 트리 구조 그래프 합성곱 신경망에 기반한 3차원 포인트 클라우드 생성 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
EP3289529B1 (en) | 2024-04-24 |
US20160321784A1 (en) | 2016-11-03 |
US9786036B2 (en) | 2017-10-10 |
EP3289529A1 (en) | 2018-03-07 |
CN107533754A (zh) | 2018-01-02 |
CN107533754B (zh) | 2021-06-25 |
JP6732795B2 (ja) | 2020-07-29 |
WO2016176095A1 (en) | 2016-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6732795B2 (ja) | 深層畳み込みネットワークにおいて画像解像度を低減すること | |
US10438068B2 (en) | Adapting to appearance variations of a target object when tracking the target object in a video sequence | |
JP6862426B2 (ja) | トレーニングされた機械学習モデルのパフォーマンスを改善するための方法 | |
US10275719B2 (en) | Hyper-parameter selection for deep convolutional networks | |
KR102582194B1 (ko) | 선택적 역전파 | |
JP2018514852A (ja) | 逐次画像サンプリングおよび微調整された特徴の記憶 | |
JP6776331B2 (ja) | 未知クラスの検出および未知クラスのための分類器の初期化 | |
KR20170140214A (ko) | 신경망을 위한 훈련 기준으로서의 필터 특이성 | |
JP6869948B2 (ja) | ニューラルネットワークにおける転移学習 | |
JP2018506785A (ja) | モデル圧縮および微調整 | |
JP7037478B2 (ja) | 分類のための強制的なスパース性 | |
KR20180036709A (ko) | 미디어 분류 | |
JP2018518740A (ja) | バイアス項を介して深層ニューラルネットワーク中にトップダウン情報を組み込むこと | |
JP2018526723A (ja) | 画像中のオブジェクト検出のためのコンテキストベースの事前分布 | |
US10902312B2 (en) | Tracking axes during model conversion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6732795 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |