JP7140912B2 - 情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7140912B2 JP7140912B2 JP2021515573A JP2021515573A JP7140912B2 JP 7140912 B2 JP7140912 B2 JP 7140912B2 JP 2021515573 A JP2021515573 A JP 2021515573A JP 2021515573 A JP2021515573 A JP 2021515573A JP 7140912 B2 JP7140912 B2 JP 7140912B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- convolution
- neural network
- convolutional layer
- transformation matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 53
- 238000003860 storage Methods 0.000 title claims description 29
- 238000004590 computer program Methods 0.000 title claims description 15
- 238000003672 processing method Methods 0.000 title description 22
- 239000011159 matrix material Substances 0.000 claims description 417
- 230000009466 transformation Effects 0.000 claims description 153
- 238000013528 artificial neural network Methods 0.000 claims description 110
- 238000000034 method Methods 0.000 claims description 89
- 239000013598 vector Substances 0.000 claims description 86
- 238000012545 processing Methods 0.000 claims description 73
- 238000012549 training Methods 0.000 claims description 53
- 230000006870 function Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 2
- 238000000844 transformation Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
- Error Detection And Correction (AREA)
Description
(1)畳み込みパラメータを決定するために人間で設計する手法として、適切なグループ化数を探求するように煩雑な実験によって検証する必要があり、実際に応用する時に普及させにくい。
(2)ネットワーク全体の全ての畳み込み層に同じタイプのグループ化畳み込みポリシーを用いている従来の応用において、ネットワーク全体に適合するグループ化畳み込みポリシーを手動で選択することが困難であり、一方、このような操作手法によってニューラルネットワークの性能が最適になるとは限らない。
(3)ただ隣接するチャンネルの畳み込み特徴を同一のグループに分割するグループ化手法があり、このような実現しやすい手法においてそれぞれのチャンネルの特徴情報の関連性が無視されてきた。
(1)Uが図5における行列aの形式である時に、Uは全1行列であり、この変換行列を用いて新しい畳み込みカーネルを形成することは畳み込み操作の畳み込みカーネルを変えることに相当し、この時にメタ畳み込みは一般の畳み込み操作を表し、図3における畳み込み手法に対応し、この時にCin=8,Cout=4であり、グループ化数は1である。
(2)Uが図5における行列bの形式である時に、Uはブロック対角行列であり、この変換行列を用いて新しい畳み込みカーネルを形成し、メタ畳み込みはグループ化畳み込み操作を表し、図4における畳み込み手法に対応し、この時にCin=8,Cout=4であり、グループ化数は2である。
(3)Uが図5における行列cの形式である時に、Uはブロック対角行列であり、この変換行列を用いて新しい畳み込みカーネルを形成し、メタ畳み込みはグループ化数が4のグループ化畳み込み操作を表し、同様にCin=8,Cout=4である。
(4)Uが図5における行列dの形式である時に、Uは単位行列であり、この変換行列を用いて新しい畳み込みカーネルを形成し、メタ畳み込みは各チャンネルの特徴をそれぞれ単独して畳み込むグループ化畳み込み操作を表し、この時にCin=8,Cout=4であり、グループ化数は8である。
(5)Uが図5における行列gの行列である時に、メタ畳み込みはそれまではない畳み込み操作手法を表し、各Coutチャンネルの出力特徴は隣接するCinチャンネルの入力特徴を特定することで取得されるというわけでなく、この時に任意のチャンネルグループ化仕組みになる。ここで、行列gは、行列eとfによって得られる行列であってよく、また、図5におけるfは行列gに対応する畳み込み形式を表す。
畳み込み層に対応する前記変換行列を構成する行列ユニットを決定するステップであって、前記行列ユニットが第2行列を含むか、第1行列と第2行列を含み、ここで、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が異なることに応じて、前記畳み込み層に対応する変換行列が第1行列と第2行列を含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が同じであることに応じて、前記畳み込み層に対応する二値化行列が第2行列を含み、前記第1行列が単位行列を連結して形成されるものであり、前記第2行列が複数の部分行列の関数変換の内積によって得られるものであるS101と、
決定された行列ユニットに基づいて前記畳み込み層の変換行列を形成するS102と、を含んでよい。
各畳み込み層に対するゲートパラメータを取得するS1011と、
前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定するS1012と、
決定された前記部分行列に基づいて前記第2行列を形成するS1013と、を含む。
二値化ゲートベクトル中の要素を第1基礎行列に掛け、第1ベクトルを取得すること、
二値化ゲートベクトル中の要素を第2基礎行列に掛け、第2ベクトルを取得すること
前記第1ベクトルと前記第2基礎行列の加算結果と第2ベクトルの差によって対応する部分行列を取得することを含んでよい。
各畳み込み層の入力特徴の第1チャンネル数と出力特徴の第2チャンネル数を取得するS1031と、
第1チャンネル数が第2チャンネル数より大きいことに応じて、第1行列と第2行列の積を前記変換行列とするS1032と、
第1チャンネル数が第2チャンネル数より小さいことに応じて、第2行列と第1行列の積を前記変換行列とするS1033と、を含む。
受信された入力情報をニューラルネットワークに入力するための入力モジュール10と、
前記ニューラルネットワークによって前記入力情報を処理することであって、前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行する場合に、畳み込み層に対する変換行列を用いて畳み込み層の畳み込みカーネルを更新し、更新した畳み込みカーネルで前記畳み込み層の畳み込み処理をなすための情報処理モジュール20と、
前記ニューラルネットワークによって処理された処理結果を出力するための出力モジュール30と、を含む。
前記畳み込み層の畳み込みカーネルの空間次元を取得し、
前記畳み込みカーネルの空間次元に基づいて、畳み込み層に対応する前記変換行列に対して、前記畳み込みカーネルの空間次元に依存する回数のコピー処理を実行し、
コピー処理された変換行列と前記畳み込みカーネルに対してドット積処理を実行して、対応する畳み込み層の更新された畳み込みカーネルを得るために用いられる。
各畳み込み層に対するゲートパラメータを取得し、
前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定し、
決定された前記部分行列に基づいて前記第2行列を形成するために用いられる。
受信された配置情報によって、各畳み込み層に対するゲートパラメータを取得し、又は
前記ニューラルネットワークのトレーニング結果に基づいて、畳み込み層に対するゲートパラメータを決定するために用いられる。
各畳み込み層の入力特徴の第1チャンネル数と出力特徴の第2チャンネル数を取得し、
第1チャンネル数が第2チャンネル数より大きいことに応じて、第1行列と第2行列の積を前記変換行列とし、
第1チャンネル数が第2チャンネル数より小さいことに応じて、第2行列と第1行列の積を前記変換行列とするために用いられる。
符号関数を用いて前記ゲートパラメータに対して関数処理を行って、二値化ベクトルを取得し、
前記二値化ベクトルに基づいて二値化ゲートベクトルを取得し、前記二値化ゲートベクトル、第1基礎行列及び第2基礎行列に基づいて、複数の前記部分行列を得るために用いられる。
前記二値化ベクトルを前記二値化ゲートベクトルとし、又は
置換行列と前記二値化ベクトルの積の結果を前記二値化ゲートベクトルとするために用いられる。
前記二値化ゲートベクトル中の要素が第1数値である場合に、全1行列の部分行列を取得し、
前記二値化ゲートベクトル中の要素が第2数値である場合に、単位行列の部分行列を取得するために用いられる。
トレーニングサンプル及び教師となる真の検出結果を取得するステップと、
前記ニューラルネットワークを用いて前記トレーニングサンプルを処理して、予測結果を得るステップと、
前記予測結果と真の検出結果に対応する損失に基づいて、各ネットワーク層の畳み込みカーネルと変換行列を含む前記ニューラルネットワークのネットワークパラメータを、終了条件を満たすまでにフィードバック調整するステップと、を含む。
Claims (16)
- ニューラルネットワークに用いられる、少なくとも1つのプロセッサによる情報処理方法であって、
受信された入力情報をニューラルネットワークに入力するステップと、
前記少なくとも1つのプロセッサを用いて前記ニューラルネットワークによって前記入力情報を処理することであって、前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行する場合に、前記畳み込み層の畳み込みカーネルの空間次元に基づいて、前記畳み込み層に対応する変換行列に対してコピー処理を実行して、コピー処理された変換行列を用いて対応する前記畳み込み層の畳み込みカーネルを更新し、更新した畳み込みカーネルで前記畳み込み層の畳み込み処理をなすステップと、
前記ニューラルネットワークによって処理された処理結果を出力するステップと、を含むことを特徴とする情報処理方法。 - 前記畳み込み層の畳み込みカーネルの空間次元に基づいて、前記畳み込み層に対応する変換行列に対してコピー処理を実行して、コピー処理された変換行列を用いて対応する前記畳み込み層の畳み込みカーネルを更新するステップには、
前記少なくとも1つのプロセッサを用いるステップと、
前記畳み込み層の畳み込みカーネルの空間次元を取得するステップと、
前記畳み込みカーネルの空間次元に基づいて、畳み込み層に対応する前記変換行列に対して、前記畳み込みカーネルの空間次元に依存する回数のコピー処理を実行するステップと、
コピー処理された変換行列と前記畳み込みカーネルに対してドット積処理を実行して、対応する畳み込み層の更新された畳み込みカーネルを得るステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行するステップの前に、
前記少なくとも1つのプロセッサを用いるステップと、
畳み込み層に対応する前記変換行列を構成する行列ユニットを決定するステップであって、前記行列ユニットは、第1行列と第2行列、又は第2行列のみを含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が異なることに応じて、前記畳み込み層に対応する変換行列が第1行列と第2行列を含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が同じであることに応じて、前記畳み込み層に対応する変換行列が第2行列を含み、前記第1行列が単位行列を連結して形成されるものであり、前記第2行列が複数の部分行列の関数変換の内積によって得られるものであるステップと、
決定された行列ユニットに基づいて前記畳み込み層の変換行列を形成するステップと、を更に含むことを特徴とする請求項1又は2に記載の方法。 - 畳み込み層の変換行列を構成する第2行列を決定するステップには、
前記少なくとも1つのプロセッサを用いるステップと、
各畳み込み層に対するゲートパラメータを取得するステップと、
前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定するステップと、
決定された前記部分行列に基づいて前記第2行列を形成するステップと、を含むことを特徴とする請求項3に記載の方法。 - 前記各畳み込み層に対するゲートパラメータを取得するステップには、
前記少なくとも1つのプロセッサを用いるステップと、
受信された配置情報によって、各畳み込み層に対するゲートパラメータを取得するステップ、又は
前記ニューラルネットワークのトレーニング結果に基づいて、畳み込み層に対するゲートパラメータを決定するステップを含むことを特徴とする請求項4に記載の方法。 - 前記決定された行列ユニットに基づいて前記畳み込み層の変換行列を形成するステップには、
前記少なくとも1つのプロセッサを用いるステップと、
各畳み込み層の入力特徴の第1チャンネル数と出力特徴の第2チャンネル数を取得するステップと、
第1チャンネル数が第2チャンネル数より大きいことに応じて、第1行列と第2行列の積を前記変換行列とするステップと、
第1チャンネル数が第2チャンネル数より小さいことに応じて、第2行列と第1行列の積を前記変換行列とするステップと、を含むことを特徴とする請求項3~5のいずれか一項に記載の方法。 - 前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定するステップには、
前記少なくとも1つのプロセッサを用いるステップと、
符号関数を用いて前記ゲートパラメータに対して関数処理を行って、二値化ベクトルを取得するステップと、
前記二値化ベクトルに基づいて二値化ゲートベクトルを取得し、前記二値化ゲートベクトル、第1基礎行列及び第2基礎行列に基づいて、複数の前記部分行列を得るステップと、を含むことを特徴とする請求項4又は5に記載の方法。 - 前記二値化ベクトルに基づいて二値化ゲートベクトルを取得するステップには、
前記少なくとも1つのプロセッサを用いるステップと、
前記二値化ベクトルを前記二値化ゲートベクトルとするステップ、又は
置換行列と前記二値化ベクトルの積の結果を前記二値化ゲートベクトルとするステップを含むことを特徴とする請求項7に記載の方法。 - 前記二値化ゲートベクトル、第1基礎行列及び第2基礎行列に基づいて、複数の前記部分行列を得るステップには、
前記少なくとも1つのプロセッサを用いるステップと、
前記二値化ゲートベクトル中の要素が第1数値であることに応じて、全1行列の部分行列を取得するステップと、
前記二値化ゲートベクトル中の要素が第2数値であることに応じて、単位行列の部分行列を取得するステップと、を含むことを特徴とする請求項7又は8に記載の方法。 - 前記第1基礎行列が全1行列であり、第2基礎行列が単位行列であることを特徴とする請求項7~9のいずれか一項に記載の方法。
- 前記変換行列の次元が第1チャンネル数に第2チャンネル数を掛けたものであり、前記第1チャンネル数が畳み込み層の入力特徴のチャンネル数であり、前記第2チャンネル数が畳み込み層の出力特徴のチャンネル数であり、前記変換行列の要素が0と1の少なくとも1つを含むことを特徴とする請求項1~10のいずれか一項に記載の方法。
- 前記ニューラルネットワークをトレーニングするステップを更に含み、前記ニューラルネットワークをトレーニングするステップには、
前記少なくとも1つのプロセッサを用いるステップと、
トレーニングサンプル及び教師となる真の検出結果を取得するステップと、
前記ニューラルネットワークを用いて前記トレーニングサンプルを処理して、予測結果を得るステップと、
前記予測結果と真の検出結果に対応する損失に基づいて、各ネットワーク層の畳み込みカーネルと変換行列を含む前記ニューラルネットワークのネットワークパラメータを、終了条件を満たすまでにフィードバック調整するステップと、を含むことを特徴とする請求項1~11のいずれか一項に記載の方法。 - 受信された入力情報をニューラルネットワークに入力するための入力モジュールと、
前記ニューラルネットワークによって前記入力情報を処理することであって、前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行する場合に、前記畳み込み層の畳み込みカーネルの空間次元に基づいて、前記畳み込み層に対応する変換行列に対してコピー処理を実行して、コピー処理された変換行列を用いて対応する前記畳み込み層に対する変換行列を用いて畳み込み層の畳み込みカーネルを更新し、更新した畳み込みカーネルで前記畳み込み層の畳み込み処理をなすための情報処理モジュールと、
前記ニューラルネットワークによって処理された処理結果を出力するための出力モジュールと、を含むことを特徴とする情報処理装置。 - プロセッサと、
プロセッサ実行可能コマンドを記憶するためのメモリと、を含み、
前記プロセッサは、前記メモリに記憶されたコマンドを呼び出して請求項1~12のいずれか一項に記載の方法を実行するように構成されることを特徴とする電子機器。 - コンピュータプログラムコマンドが記憶されているコンピュータ読取可能記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると、請求項1~12のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ読取可能記憶媒体。
- コンピュータ読取可能コードを含み、前記コンピュータ読取可能コードが電子機器で動作すると、前記電子機器のプロセッサに請求項1~12のいずれか一項に記載の方法を実現するためのコマンドを実行させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910425613.2 | 2019-05-21 | ||
CN201910425613.2A CN110188865B (zh) | 2019-05-21 | 2019-05-21 | 信息处理方法及装置、电子设备和存储介质 |
PCT/CN2019/114448 WO2020232976A1 (zh) | 2019-05-21 | 2019-10-30 | 信息处理方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022500786A JP2022500786A (ja) | 2022-01-04 |
JP7140912B2 true JP7140912B2 (ja) | 2022-09-21 |
Family
ID=67717183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021515573A Active JP7140912B2 (ja) | 2019-05-21 | 2019-10-30 | 情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210089913A1 (ja) |
JP (1) | JP7140912B2 (ja) |
CN (1) | CN110188865B (ja) |
SG (1) | SG11202012467QA (ja) |
TW (1) | TWI738144B (ja) |
WO (1) | WO2020232976A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188865B (zh) * | 2019-05-21 | 2022-04-26 | 深圳市商汤科技有限公司 | 信息处理方法及装置、电子设备和存储介质 |
CN113191377A (zh) * | 2020-01-14 | 2021-07-30 | 北京京东乾石科技有限公司 | 用于处理图像的方法和装置 |
CN113032843B (zh) * | 2021-03-30 | 2023-09-15 | 北京地平线信息技术有限公司 | 用于获得和处理带数字签名信息的张量数据的方法和装置 |
CN113762472A (zh) * | 2021-08-24 | 2021-12-07 | 北京地平线机器人技术研发有限公司 | 一种神经网络的指令序列生成方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016090520A1 (en) | 2014-12-10 | 2016-06-16 | Xiaogang Wang | A method and a system for image classification |
CN107657314A (zh) | 2017-09-26 | 2018-02-02 | 济南浪潮高新科技投资发展有限公司 | 一种基于区间算法的神经网络卷积层设计方法 |
CN108304923A (zh) | 2017-12-06 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 卷积运算处理方法及相关产品 |
CN108537121A (zh) | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | 气象环境参数与图像信息融合的自适应遥感场景分类方法 |
CN109583586A (zh) | 2018-12-05 | 2019-04-05 | 东软睿驰汽车技术(沈阳)有限公司 | 一种卷积核处理方法及装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10576603B2 (en) * | 2014-04-22 | 2020-03-03 | Kla-Tencor Corporation | Patterned wafer geometry measurements for semiconductor process controls |
CN106326985A (zh) * | 2016-08-18 | 2017-01-11 | 北京旷视科技有限公司 | 神经网络训练方法和装置及数据处理方法和装置 |
US11210584B2 (en) * | 2017-01-31 | 2021-12-28 | International Business Machines Corporation | Memory efficient convolution operations in deep learning neural networks |
US10699160B2 (en) * | 2017-08-23 | 2020-06-30 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
CN107633295B (zh) * | 2017-09-25 | 2020-04-28 | 南京地平线机器人技术有限公司 | 用于适配神经网络的参数的方法和装置 |
US10410350B2 (en) * | 2017-10-30 | 2019-09-10 | Rakuten, Inc. | Skip architecture neural network machine and method for improved semantic segmentation |
US11636668B2 (en) * | 2017-11-10 | 2023-04-25 | Nvidia Corp. | Bilateral convolution layer network for processing point clouds |
CN108229679A (zh) * | 2017-11-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 卷积神经网络去冗余方法及装置、电子设备和存储介质 |
CN107993186B (zh) * | 2017-12-14 | 2021-05-25 | 中国人民解放军国防科技大学 | 一种基于Winograd算法的3D CNN加速方法及系统 |
CN108288088B (zh) * | 2018-01-17 | 2020-02-28 | 浙江大学 | 一种基于端到端全卷积神经网络的场景文本检测方法 |
CN108416427A (zh) * | 2018-02-22 | 2018-08-17 | 重庆信络威科技有限公司 | 卷积核堆积数据流、压缩编码以及深度学习算法 |
CN108537122B (zh) * | 2018-03-07 | 2023-08-22 | 中国科学院西安光学精密机械研究所 | 包含气象参数的图像融合采集系统及图像存储方法 |
CN108734169A (zh) * | 2018-05-21 | 2018-11-02 | 南京邮电大学 | 一种基于全卷积网络改进的场景文本提取方法 |
CN109165723B (zh) * | 2018-08-03 | 2021-03-19 | 北京字节跳动网络技术有限公司 | 用于处理数据的方法和装置 |
CN109460817B (zh) * | 2018-09-11 | 2021-08-03 | 华中科技大学 | 一种基于非易失存储器的卷积神经网络片上学习系统 |
US11449729B2 (en) * | 2018-11-08 | 2022-09-20 | Arm Limited | Efficient convolutional neural networks |
EP3671568A1 (en) * | 2018-12-17 | 2020-06-24 | IMEC vzw | Binary recurrent neural network inference technique |
CN110188865B (zh) * | 2019-05-21 | 2022-04-26 | 深圳市商汤科技有限公司 | 信息处理方法及装置、电子设备和存储介质 |
-
2019
- 2019-05-21 CN CN201910425613.2A patent/CN110188865B/zh active Active
- 2019-10-30 SG SG11202012467QA patent/SG11202012467QA/en unknown
- 2019-10-30 JP JP2021515573A patent/JP7140912B2/ja active Active
- 2019-10-30 WO PCT/CN2019/114448 patent/WO2020232976A1/zh active Application Filing
- 2019-12-09 TW TW108144946A patent/TWI738144B/zh active
-
2020
- 2020-12-02 US US17/110,202 patent/US20210089913A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016090520A1 (en) | 2014-12-10 | 2016-06-16 | Xiaogang Wang | A method and a system for image classification |
CN107657314A (zh) | 2017-09-26 | 2018-02-02 | 济南浪潮高新科技投资发展有限公司 | 一种基于区间算法的神经网络卷积层设计方法 |
CN108304923A (zh) | 2017-12-06 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 卷积运算处理方法及相关产品 |
CN108537121A (zh) | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | 气象环境参数与图像信息融合的自适应遥感场景分类方法 |
CN109583586A (zh) | 2018-12-05 | 2019-04-05 | 东软睿驰汽车技术(沈阳)有限公司 | 一种卷积核处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2020232976A1 (zh) | 2020-11-26 |
US20210089913A1 (en) | 2021-03-25 |
JP2022500786A (ja) | 2022-01-04 |
CN110188865B (zh) | 2022-04-26 |
TWI738144B (zh) | 2021-09-01 |
SG11202012467QA (en) | 2021-01-28 |
CN110188865A (zh) | 2019-08-30 |
TW202044068A (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7140912B2 (ja) | 情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN113591755B (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
CN110149541B (zh) | 视频推荐方法、装置、计算机设备及存储介质 | |
TWI773481B (zh) | 圖像處理方法及裝置、電子設備和電腦可讀儲存介質 | |
CN109829433B (zh) | 人脸图像识别方法、装置、电子设备及存储介质 | |
CN111581488B (zh) | 一种数据处理方法及装置、电子设备和存储介质 | |
TWI769775B (zh) | 目標重識別方法、電子設備和電腦可讀儲存介質 | |
TWI772668B (zh) | 一種目標對象處理方法、裝置、電子設備及儲存介質 | |
KR20210018850A (ko) | 비디오 수복 방법 및 장치, 전자 기기 및 기억 매체 | |
JP6678246B2 (ja) | 大域的最適化に基づく意味的セグメント化 | |
US20220392202A1 (en) | Imaging processing method and apparatus, electronic device, and storage medium | |
TWI721603B (zh) | 資料處理方法和資料處理裝置、電子設備和電腦可讀儲存媒體 | |
JP2022512023A (ja) | バッチ正規化データの処理方法及び装置、電子機器及び記憶媒体 | |
US20210158126A1 (en) | Method and device for compressing a neural network model for machine translation and storage medium | |
CN111242303B (zh) | 网络训练方法及装置、图像处理方法及装置 | |
WO2023230936A1 (zh) | 图像分割模型的训练方法、图像分割方法和装置 | |
CN104063424B (zh) | 网页图片的展现方法和展现装置 | |
CN109635926B (zh) | 用于神经网络的注意力特征获取方法、装置及存储介质 | |
US11948090B2 (en) | Method and apparatus for video coding | |
CN112259122A (zh) | 音频类型识别方法、装置及存储介质 | |
CN111694768A (zh) | 运算方法、装置及相关产品 | |
CN113486978A (zh) | 文本分类模型的训练方法、装置、电子设备及存储介质 | |
CN111626398A (zh) | 运算方法、装置及相关产品 | |
CN117577097A (zh) | 模型训练方法、装置、电子设备和介质 | |
CN116485728A (zh) | 抽油杆表面缺陷检测方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210319 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7140912 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |