JP2022500786A - 情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022500786A JP2022500786A JP2021515573A JP2021515573A JP2022500786A JP 2022500786 A JP2022500786 A JP 2022500786A JP 2021515573 A JP2021515573 A JP 2021515573A JP 2021515573 A JP2021515573 A JP 2021515573A JP 2022500786 A JP2022500786 A JP 2022500786A
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- convolution
- channels
- neural network
- convolution layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Error Detection And Correction (AREA)
- Complex Calculations (AREA)
Abstract
Description
(1)畳み込みパラメータを決定するために人間で設計する手法として、適切なグループ化数を探求するように煩雑な実験によって検証する必要があり、実際に応用する時に普及させにくい。
(2)ネットワーク全体の全ての畳み込み層に同じタイプのグループ化畳み込みポリシーを用いている従来の応用において、ネットワーク全体に適合するグループ化畳み込みポリシーを手動で選択することが困難であり、一方、このような操作手法によってニューラルネットワークの性能が最適になるとは限らない。
(3)ただ隣接するチャンネルの畳み込み特徴を同一のグループに分割するグループ化手法があり、このような実現しやすい手法においてそれぞれのチャンネルの特徴情報の関連性が無視されてきた。
(1)Uが図5における行列aの形式である時に、Uは全1行列であり、この変換行列を用いて新しい畳み込みカーネルを形成することは畳み込み操作の畳み込みカーネルを変えることに相当し、この時にメタ畳み込みは一般の畳み込み操作を表し、図3における畳み込み手法に対応し、この時にCin=8,Cout=4であり、グループ化数は1である。
(2)Uが図5における行列bの形式である時に、Uはブロック対角行列であり、この変換行列を用いて新しい畳み込みカーネルを形成し、メタ畳み込みはグループ化畳み込み操作を表し、図4における畳み込み手法に対応し、この時にCin=8,Cout=4であり、グループ化数は2である。
(3)Uが図5における行列cの形式である時に、Uはブロック対角行列であり、この変換行列を用いて新しい畳み込みカーネルを形成し、メタ畳み込みはグループ化数が4のグループ化畳み込み操作を表し、同様にCin=8,Cout=4である。
(4)Uが図5における行列dの形式である時に、Uは単位行列であり、この変換行列を用いて新しい畳み込みカーネルを形成し、メタ畳み込みは各チャンネルの特徴をそれぞれ単独して畳み込むグループ化畳み込み操作を表し、この時にCin=8,Cout=4であり、グループ化数は8である。
(5)Uが図5における行列gの行列である時に、メタ畳み込みはそれまではない畳み込み操作手法を表し、各Coutチャンネルの出力特徴は隣接するCinチャンネルの入力特徴を特定することで取得されるというわけでなく、この時に任意のチャンネルグループ化仕組みになる。ここで、行列gは、行列eとfによって得られる行列であってよく、また、図5におけるfは行列gに対応する畳み込み形式を表す。
畳み込み層に対応する前記変換行列を構成する行列ユニットを決定するステップであって、前記行列ユニットが第2行列を含むか、第1行列と第2行列を含み、ここで、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が異なることに応じて、前記畳み込み層に対応する変換行列が第1行列と第2行列を含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が同じであることに応じて、前記畳み込み層に対応する二値化行列が第2行列を含み、前記第1行列が単位行列を連結して形成されるものであり、前記第2行列が複数の部分行列の関数変換の内積によって得られるものであるS101と、
決定された行列ユニットに基づいて前記畳み込み層の変換行列を形成するS102と、を含んでよい。
各畳み込み層に対するゲートパラメータを取得するS1011と、
前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定するS1012と、
決定された前記部分行列に基づいて前記第2行列を形成するS1013と、を含む。
二値化ゲートベクトル中の要素を第1基礎行列に掛け、第1ベクトルを取得すること、
二値化ゲートベクトル中の要素を第2基礎行列に掛け、第2ベクトルを取得すること
前記第1ベクトルと前記第2基礎行列の加算結果と第2ベクトルの差によって対応する部分行列を取得することを含んでよい。
各畳み込み層の入力特徴の第1チャンネル数と出力特徴の第2チャンネル数を取得するS1031と、
第1チャンネル数が第2チャンネル数より大きいことに応じて、第1行列と第2行列の積を前記変換行列とするS1032と、
第1チャンネル数が第2チャンネル数より小さいことに応じて、第2行列と第1行列の積を前記変換行列とするS1033と、を含む。
受信された入力情報をニューラルネットワークに入力するための入力モジュール10と、
前記ニューラルネットワークによって前記入力情報を処理することであって、前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行する場合に、畳み込み層に対する変換行列を用いて畳み込み層の畳み込みカーネルを更新し、更新した畳み込みカーネルで前記畳み込み層の畳み込み処理をなすための情報処理モジュール20と、
前記ニューラルネットワークによって処理された処理結果を出力するための出力モジュール30と、を含む。
前記畳み込み層の畳み込みカーネルの空間次元を取得し、
前記畳み込みカーネルの空間次元に基づいて、畳み込み層に対応する前記変換行列に対して、前記畳み込みカーネルの空間次元に依存する回数のコピー処理を実行し、
コピー処理された変換行列と前記畳み込みカーネルに対してドット積処理を実行して、対応する畳み込み層の更新された畳み込みカーネルを得るために用いられる。
各畳み込み層に対するゲートパラメータを取得し、
前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定し、
決定された前記部分行列に基づいて前記第2行列を形成するために用いられる。
受信された配置情報によって、各畳み込み層に対するゲートパラメータを取得し、又は
前記ニューラルネットワークのトレーニング結果に基づいて、畳み込み層に対するゲートパラメータを決定するために用いられる。
各畳み込み層の入力特徴の第1チャンネル数と出力特徴の第2チャンネル数を取得し、
第1チャンネル数が第2チャンネル数より大きいことに応じて、第1行列と第2行列の積を前記変換行列とし、
第1チャンネル数が第2チャンネル数より小さいことに応じて、第2行列と第1行列の積を前記変換行列とするために用いられる。
符号関数を用いて前記ゲートパラメータに対して関数処理を行って、二値化ベクトルを取得し、
前記二値化ベクトルに基づいて二値化ゲートベクトルを取得し、前記二値化ゲートベクトル、第1基礎行列及び第2基礎行列に基づいて、複数の前記部分行列を得るために用いられる。
前記二値化ベクトルを前記二値化ゲートベクトルとし、又は
置換行列と前記二値化ベクトルの積の結果を前記二値化ゲートベクトルとするために用いられる。
前記二値化ゲートベクトル中の要素が第1数値である場合に、全1行列の部分行列を取得し、
前記二値化ゲートベクトル中の要素が第2数値である場合に、単位行列の部分行列を取得するために用いられる。
トレーニングサンプル及び教師となる真の検出結果を取得するステップと、
前記ニューラルネットワークを用いて前記トレーニングサンプルを処理して、予測結果を得るステップと、
前記予測結果と真の検出結果に対応する損失に基づいて、各ネットワーク層の畳み込みカーネルと変換行列を含む前記ニューラルネットワークのネットワークパラメータを、終了条件を満たすまでにフィードバック調整するステップと、を含む。
Claims (31)
- ニューラルネットワークに用いられる情報処理方法であって、
受信された入力情報をニューラルネットワークに入力するステップと、
前記ニューラルネットワークによって前記入力情報を処理することであって、前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行する場合に、畳み込み層に対する変換行列を用いて畳み込み層の畳み込みカーネルを更新し、更新した畳み込みカーネルで前記畳み込み層の畳み込み処理をなすステップと、
前記ニューラルネットワークによって処理された処理結果を出力するステップと、を含むことを特徴とする情報処理方法。 - 前記畳み込み層に対する変換行列を用いて畳み込み層の畳み込みカーネルを更新するステップには、
前記畳み込み層の畳み込みカーネルの空間次元を取得するステップと、
前記畳み込みカーネルの空間次元に基づいて、畳み込み層に対応する前記変換行列に対して、前記畳み込みカーネルの空間次元に依存する回数のコピー処理を実行するステップと、
コピー処理された変換行列と前記畳み込みカーネルに対してドット積処理を実行して、対応する畳み込み層の更新された畳み込みカーネルを得るステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行するステップの前に、
畳み込み層に対応する前記変換行列を構成する行列ユニットを決定するステップであって、前記行列ユニットは、第1行列と第2行列、又は第2行列のみを含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が異なることに応じて、前記畳み込み層に対応する変換行列が第1行列と第2行列を含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が同じであることに応じて、前記畳み込み層に対応する変換行列が第2行列を含み、前記第1行列が単位行列を連結して形成されるものであり、前記第2行列が複数の部分行列の関数変換の内積によって得られるものであるステップと、
決定された行列ユニットに基づいて前記畳み込み層の変換行列を形成するステップと、を更に含むことを特徴とする請求項1又は2に記載の方法。 - 畳み込み層の変換行列を構成する第2行列を決定するステップには、
各畳み込み層に対するゲートパラメータを取得するステップと、
前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定するステップと、
決定された前記部分行列に基づいて前記第2行列を形成するステップと、を含むことを特徴とする請求項3に記載の方法。 - 前記各畳み込み層に対するゲートパラメータを取得するステップには、
受信された配置情報によって、各畳み込み層に対するゲートパラメータを取得するステップ、又は
前記ニューラルネットワークのトレーニング結果に基づいて、畳み込み層に対するゲートパラメータを決定するステップを含むことを特徴とする請求項4に記載の方法。 - 前記決定された行列ユニットに基づいて前記畳み込み層の変換行列を形成するステップには、
各畳み込み層の入力特徴の第1チャンネル数と出力特徴の第2チャンネル数を取得するステップと、
第1チャンネル数が第2チャンネル数より大きいことに応じて、第1行列と第2行列の積を前記変換行列とするステップと、
第1チャンネル数が第2チャンネル数より小さいことに応じて、第2行列と第1行列の積を前記変換行列とするステップと、を含むことを特徴とする請求項3〜5のいずれか一項に記載の方法。 - 前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定するステップには、
符号関数を用いて前記ゲートパラメータに対して関数処理を行って、二値化ベクトルを取得するステップと、
前記二値化ベクトルに基づいて二値化ゲートベクトルを取得し、前記二値化ゲートベクトル、第1基礎行列及び第2基礎行列に基づいて、複数の前記部分行列を得るステップと、を含むことを特徴とする請求項4又は5に記載の方法。 - 前記二値化ベクトルに基づいて二値化ゲートベクトルを取得するステップには、
前記二値化ベクトルを前記二値化ゲートベクトルとするステップ、又は
置換行列と前記二値化ベクトルの積の結果を前記二値化ゲートベクトルとするステップを含むことを特徴とする請求項7に記載の方法。 - 前記二値化ゲートベクトル、第1基礎行列及び第2基礎行列に基づいて、複数の前記部分行列を得るステップには、
前記二値化ゲートベクトル中の要素が第1数値であることに応じて、全1行列の部分行列を取得するステップと、
前記二値化ゲートベクトル中の要素が第2数値であることに応じて、単位行列の部分行列を取得するステップと、を含むことを特徴とする請求項7又は8に記載の方法。 - 前記第1基礎行列が全1行列であり、第2基礎行列が単位行列であることを特徴とする請求項7〜9のいずれか一項に記載の方法。
- 前記決定された前記部分行列に基づいて前記第2行列を形成するステップには、
複数の前記部分行列に対して内積演算を行って、前記第2行列を得るステップを含むことを特徴とする請求項4〜10のいずれか一項に記載の方法。 - 前記入力情報は、文字情報、画像情報、映像情報、音声情報の少なくとも1種を含むことを特徴とする請求項1〜11のいずれか一項に記載の方法。
- 前記変換行列の次元が第1チャンネル数に第2チャンネル数を掛けたものであり、前記第1チャンネル数が畳み込み層の入力特徴のチャンネル数であり、前記第2チャンネル数が畳み込み層の出力特徴のチャンネル数であり、前記変換行列の要素が0と1の少なくとも1つを含むことを特徴とする請求項1〜12のいずれか一項に記載の方法。
- 前記ニューラルネットワークをトレーニングするステップを更に含み、前記ニューラルネットワークをトレーニングするステップには、
トレーニングサンプル及び教師となる真の検出結果を取得するステップと、
前記ニューラルネットワークを用いて前記トレーニングサンプルを処理して、予測結果を得るステップと、
前記予測結果と真の検出結果に対応する損失に基づいて、各ネットワーク層の畳み込みカーネルと変換行列を含む前記ニューラルネットワークのネットワークパラメータを、終了条件を満たすまでにフィードバック調整するステップと、を含むことを特徴とする請求項1〜13のいずれか一項に記載の方法。 - 受信された入力情報をニューラルネットワークに入力するための入力モジュールと、
前記ニューラルネットワークによって前記入力情報を処理することであって、前記ニューラルネットワークの畳み込み層によって畳み込み処理を実行する場合に、畳み込み層に対する変換行列を用いて畳み込み層の畳み込みカーネルを更新し、更新した畳み込みカーネルで前記畳み込み層の畳み込み処理をなすための情報処理モジュールと、
前記ニューラルネットワークによって処理された処理結果を出力するための出力モジュールと、を含むことを特徴とする情報処理装置。 - 前記情報処理モジュールは、更に、
前記畳み込み層の畳み込みカーネルの空間次元を取得し、
前記畳み込みカーネルの空間次元に基づいて、畳み込み層に対応する前記変換行列に対して、前記畳み込みカーネルの空間次元に依存する回数のコピー処理を実行し、
コピー処理された変換行列と前記畳み込みカーネルに対してドット積処理を実行して、対応する畳み込み層の更新された畳み込みカーネルを得るために用いられることを特徴とする請求項15に記載の装置。 - 前記情報処理モジュールは、更に、畳み込み層に対応する前記変換行列を構成する行列ユニットを決定し、決定された行列ユニットに基づいて前記畳み込み層の変換行列を形成するために用いられ、前記行列ユニットは、第1行列と第2行列、又は第2行列のみを含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が異なることに応じて、前記畳み込み層に対応する変換行列が第1行列と第2行列を含み、前記畳み込み層の入力特徴のチャンネル数と出力特徴のチャンネル数が同じであることに応じて、前記畳み込み層に対応する変換行列が第2行列を含み、前記第1行列が単位行列を連結して形成されるものであり、前記第2行列が複数の部分行列の関数変換の内積によって得られるものであることを特徴とする請求項15又は16に記載の装置。
- 前記情報処理モジュールは、更に、
各畳み込み層に対するゲートパラメータを取得し、
前記ゲートパラメータに基づいて前記第2行列を構成する部分行列を決定し、
決定された前記部分行列に基づいて前記第2行列を形成するために用いられることを特徴とする請求項17に記載の装置。 - 前記情報処理モジュールは、更に、
受信された配置情報によって、各畳み込み層に対するゲートパラメータを取得し、又は
前記ニューラルネットワークのトレーニング結果に基づいて、畳み込み層に対するゲートパラメータを決定するために用いられることを特徴とする請求項18に記載の装置。 - 前記情報処理モジュールは、更に、
各畳み込み層の入力特徴の第1チャンネル数と出力特徴の第2チャンネル数を取得し、
第1チャンネル数が第2チャンネル数より大きいことに応じて、第1行列と第2行列の積を前記変換行列とし、
第1チャンネル数が第2チャンネル数より小さいことに応じて、第2行列と第1行列の積を前記変換行列とするために用いられることを特徴とする請求項17〜19のいずれか一項に記載の装置。 - 前記情報処理モジュールは、更に、
符号関数を用いて前記ゲートパラメータに対して関数処理を行って、二値化ベクトルを取得し、
前記二値化ベクトルに基づいて二値化ゲートベクトルを取得し、前記二値化ゲートベクトル、第1基礎行列及び第2基礎行列に基づいて、複数の前記部分行列を得るために用いられることを特徴とする請求項18又は19に記載の装置。 - 前記情報処理モジュールは、更に、
前記二値化ベクトルを前記二値化ゲートベクトルとし、又は
置換行列と前記二値化ベクトルの積の結果を前記二値化ゲートベクトルとするために用いられることを特徴とする請求項21に記載の装置。 - 前記情報処理モジュールは、更に、
前記二値化ゲートベクトル中の要素が第1数値である場合に、全1行列の部分行列を取得し、
前記二値化ゲートベクトル中の要素が第2数値である場合に、単位行列の部分行列を取得するために用いられることを特徴とする請求項21又は22に記載の装置。 - 前記第1基礎行列が全1行列であり、第2基礎行列が単位行列であることを特徴とする請求項21〜23のいずれか一項に記載の装置。
- 前記情報処理モジュールは、更に、複数の前記部分行列に対して内積演算を行って、前記第2行列を得るために用いられることを特徴とする請求項18〜24のいずれか一項に記載の装置。
- 前記入力情報は、文字情報、画像情報、映像情報、音声情報の少なくとも1種を含むことを特徴とする請求項15〜25のいずれか一項に記載の装置。
- 前記変換行列の次元が第1チャンネル数に第2チャンネル数を掛けたものであり、前記第1チャンネル数が畳み込み層の入力特徴のチャンネル数であり、前記第2チャンネル数が畳み込み層の出力特徴のチャンネル数であり、前記変換行列の要素が0と1の少なくとも1つを含むことを特徴とする請求項15〜26のいずれか一項に記載の装置。
- 前記情報処理モジュールは、更に、前記ニューラルネットワークをトレーニングするために用いられ、前記ニューラルネットワークをトレーニングするステップには、
トレーニングサンプル及び教師となる真の検出結果を取得するステップと、
前記ニューラルネットワークを用いて前記トレーニングサンプルを処理して、予測結果を得るステップと、
前記予測結果と真の検出結果に対応する損失に基づいて、各ネットワーク層の畳み込みカーネルと変換行列を含む前記ニューラルネットワークのネットワークパラメータを、終了条件を満たすまでにフィードバック調整するステップと、を含むことを特徴とする請求項15〜27のいずれか一項に記載の装置。 - プロセッサと、
プロセッサ実行可能コマンドを記憶するためのメモリと、を含み、
前記プロセッサは、前記メモリに記憶されたコマンドを呼び出して請求項1〜14のいずれか一項に記載の方法を実行するように構成されることを特徴とする電子機器。 - コンピュータプログラムコマンドが記憶されているコンピュータ読取可能記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると、請求項1〜14のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ読取可能記憶媒体。
- コンピュータ読取可能コードを含み、前記コンピュータ読取可能コードが電子機器で動作すると、前記電子機器のプロセッサに請求項1〜14のいずれか一項に記載の方法を実現するためのコマンドを実行させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910425613.2A CN110188865B (zh) | 2019-05-21 | 2019-05-21 | 信息处理方法及装置、电子设备和存储介质 |
CN201910425613.2 | 2019-05-21 | ||
PCT/CN2019/114448 WO2020232976A1 (zh) | 2019-05-21 | 2019-10-30 | 信息处理方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022500786A true JP2022500786A (ja) | 2022-01-04 |
JP7140912B2 JP7140912B2 (ja) | 2022-09-21 |
Family
ID=67717183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021515573A Active JP7140912B2 (ja) | 2019-05-21 | 2019-10-30 | 情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210089913A1 (ja) |
JP (1) | JP7140912B2 (ja) |
CN (1) | CN110188865B (ja) |
SG (1) | SG11202012467QA (ja) |
TW (1) | TWI738144B (ja) |
WO (1) | WO2020232976A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188865B (zh) * | 2019-05-21 | 2022-04-26 | 深圳市商汤科技有限公司 | 信息处理方法及装置、电子设备和存储介质 |
CN113191377A (zh) * | 2020-01-14 | 2021-07-30 | 北京京东乾石科技有限公司 | 用于处理图像的方法和装置 |
CN113032843B (zh) * | 2021-03-30 | 2023-09-15 | 北京地平线信息技术有限公司 | 用于获得和处理带数字签名信息的张量数据的方法和装置 |
CN113762472A (zh) * | 2021-08-24 | 2021-12-07 | 北京地平线机器人技术研发有限公司 | 一种神经网络的指令序列生成方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016090520A1 (en) * | 2014-12-10 | 2016-06-16 | Xiaogang Wang | A method and a system for image classification |
CN107657314A (zh) * | 2017-09-26 | 2018-02-02 | 济南浪潮高新科技投资发展有限公司 | 一种基于区间算法的神经网络卷积层设计方法 |
CN108304923A (zh) * | 2017-12-06 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 卷积运算处理方法及相关产品 |
CN108537121A (zh) * | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | 气象环境参数与图像信息融合的自适应遥感场景分类方法 |
CN109583586A (zh) * | 2018-12-05 | 2019-04-05 | 东软睿驰汽车技术(沈阳)有限公司 | 一种卷积核处理方法及装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10576603B2 (en) * | 2014-04-22 | 2020-03-03 | Kla-Tencor Corporation | Patterned wafer geometry measurements for semiconductor process controls |
CN106326985A (zh) * | 2016-08-18 | 2017-01-11 | 北京旷视科技有限公司 | 神经网络训练方法和装置及数据处理方法和装置 |
US11210584B2 (en) * | 2017-01-31 | 2021-12-28 | International Business Machines Corporation | Memory efficient convolution operations in deep learning neural networks |
US10699160B2 (en) * | 2017-08-23 | 2020-06-30 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
CN107633295B (zh) * | 2017-09-25 | 2020-04-28 | 南京地平线机器人技术有限公司 | 用于适配神经网络的参数的方法和装置 |
US10410350B2 (en) * | 2017-10-30 | 2019-09-10 | Rakuten, Inc. | Skip architecture neural network machine and method for improved semantic segmentation |
US11636668B2 (en) * | 2017-11-10 | 2023-04-25 | Nvidia Corp. | Bilateral convolution layer network for processing point clouds |
CN108229679A (zh) * | 2017-11-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 卷积神经网络去冗余方法及装置、电子设备和存储介质 |
CN107993186B (zh) * | 2017-12-14 | 2021-05-25 | 中国人民解放军国防科技大学 | 一种基于Winograd算法的3D CNN加速方法及系统 |
CN108288088B (zh) * | 2018-01-17 | 2020-02-28 | 浙江大学 | 一种基于端到端全卷积神经网络的场景文本检测方法 |
CN108416427A (zh) * | 2018-02-22 | 2018-08-17 | 重庆信络威科技有限公司 | 卷积核堆积数据流、压缩编码以及深度学习算法 |
CN108537122B (zh) * | 2018-03-07 | 2023-08-22 | 中国科学院西安光学精密机械研究所 | 包含气象参数的图像融合采集系统及图像存储方法 |
CN108734169A (zh) * | 2018-05-21 | 2018-11-02 | 南京邮电大学 | 一种基于全卷积网络改进的场景文本提取方法 |
CN109165723B (zh) * | 2018-08-03 | 2021-03-19 | 北京字节跳动网络技术有限公司 | 用于处理数据的方法和装置 |
CN109460817B (zh) * | 2018-09-11 | 2021-08-03 | 华中科技大学 | 一种基于非易失存储器的卷积神经网络片上学习系统 |
US11449729B2 (en) * | 2018-11-08 | 2022-09-20 | Arm Limited | Efficient convolutional neural networks |
EP3671568A1 (en) * | 2018-12-17 | 2020-06-24 | IMEC vzw | Binary recurrent neural network inference technique |
CN110188865B (zh) * | 2019-05-21 | 2022-04-26 | 深圳市商汤科技有限公司 | 信息处理方法及装置、电子设备和存储介质 |
-
2019
- 2019-05-21 CN CN201910425613.2A patent/CN110188865B/zh active Active
- 2019-10-30 SG SG11202012467QA patent/SG11202012467QA/en unknown
- 2019-10-30 WO PCT/CN2019/114448 patent/WO2020232976A1/zh active Application Filing
- 2019-10-30 JP JP2021515573A patent/JP7140912B2/ja active Active
- 2019-12-09 TW TW108144946A patent/TWI738144B/zh active
-
2020
- 2020-12-02 US US17/110,202 patent/US20210089913A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016090520A1 (en) * | 2014-12-10 | 2016-06-16 | Xiaogang Wang | A method and a system for image classification |
CN107657314A (zh) * | 2017-09-26 | 2018-02-02 | 济南浪潮高新科技投资发展有限公司 | 一种基于区间算法的神经网络卷积层设计方法 |
CN108304923A (zh) * | 2017-12-06 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 卷积运算处理方法及相关产品 |
CN108537121A (zh) * | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | 气象环境参数与图像信息融合的自适应遥感场景分类方法 |
CN109583586A (zh) * | 2018-12-05 | 2019-04-05 | 东软睿驰汽车技术(沈阳)有限公司 | 一种卷积核处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110188865A (zh) | 2019-08-30 |
CN110188865B (zh) | 2022-04-26 |
TW202044068A (zh) | 2020-12-01 |
TWI738144B (zh) | 2021-09-01 |
US20210089913A1 (en) | 2021-03-25 |
WO2020232976A1 (zh) | 2020-11-26 |
JP7140912B2 (ja) | 2022-09-21 |
SG11202012467QA (en) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113569796B (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
WO2020215962A1 (zh) | 视频推荐方法、装置、计算机设备及存储介质 | |
JP6916970B2 (ja) | ビデオ処理方法及び装置、電子機器並びに記憶媒体 | |
JP2022500786A (ja) | 情報処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN113538517B (zh) | 目标追踪方法及装置、电子设备和存储介质 | |
TWI772668B (zh) | 一種目標對象處理方法、裝置、電子設備及儲存介質 | |
CN111581488B (zh) | 一种数据处理方法及装置、电子设备和存储介质 | |
CN109886392B (zh) | 数据处理方法和装置、电子设备和存储介质 | |
CN111242303B (zh) | 网络训练方法及装置、图像处理方法及装置 | |
TW202213185A (zh) | 目標重識別方法、電子設備和電腦可讀儲存介質 | |
JP2022533065A (ja) | 文字認識方法及び装置、電子機器並びに記憶媒体 | |
CN112070235A (zh) | 一种深度学习框架的异常定位方法、装置及存储介质 | |
CN109447258B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
CN112259122A (zh) | 音频类型识别方法、装置及存储介质 | |
CN110297970B (zh) | 信息推荐模型训练方法及装置 | |
CN109635926B (zh) | 用于神经网络的注意力特征获取方法、装置及存储介质 | |
CN111626398B (zh) | 运算方法、装置及相关产品 | |
CN111368748B (zh) | 网络训练方法及装置、图像识别方法及装置 | |
CN113537350B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN115862651A (zh) | 音频处理方法及其装置 | |
CN116028686A (zh) | 资源推荐方法、装置、电子设备及存储介质 | |
CN117372797A (zh) | 模型训练方法、图像处理方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210319 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7140912 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |