JP2022079947A - プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法 - Google Patents
プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法 Download PDFInfo
- Publication number
- JP2022079947A JP2022079947A JP2020190834A JP2020190834A JP2022079947A JP 2022079947 A JP2022079947 A JP 2022079947A JP 2020190834 A JP2020190834 A JP 2020190834A JP 2020190834 A JP2020190834 A JP 2020190834A JP 2022079947 A JP2022079947 A JP 2022079947A
- Authority
- JP
- Japan
- Prior art keywords
- pruning
- layer
- neural network
- deep neural
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013138 pruning Methods 0.000 title claims abstract description 213
- 238000007726 management method Methods 0.000 title claims description 70
- 238000013528 artificial neural network Methods 0.000 claims abstract description 168
- 238000010206 sensitivity analysis Methods 0.000 claims abstract description 80
- 238000003012 network analysis Methods 0.000 claims abstract description 76
- 238000001514 detection method Methods 0.000 claims abstract description 74
- 238000012545 processing Methods 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims description 101
- 230000008569 process Effects 0.000 claims description 82
- 238000004364 calculation method Methods 0.000 claims description 81
- 230000004913 activation Effects 0.000 claims description 16
- 230000006866 deterioration Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 6
- 239000010410 layer Substances 0.000 abstract description 152
- 239000011229 interlayer Substances 0.000 abstract description 18
- 238000010586 diagram Methods 0.000 description 27
- 238000003860 storage Methods 0.000 description 15
- 210000002569 neuron Anatomy 0.000 description 13
- 238000000513 principal component analysis Methods 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000005352 clarification Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
【解決手段】所定の入力データを受け付け、当該入力データを深層ニューラルネットワークに入力する加工済みデータに変換するデータ加工部と、入力データを深層ニューラルネットワークに入力した場合、各畳み込み演算層間感度分析を行い、各畳み込み演算層の検出精度への影響度を判定し、影響度に基づいて、各畳み込み演算層において畳み込み演算を行うための複数の重みフィルタに対するプルーニング率を決定するネットワーク分析部と、プルーニング率に基づいて、深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、プルーニング対象の重みフィルタに対するプルーニング処理を行うネットワークプルーニング部とを含むプルーニング管理装置。
【選択図】図1
Description
例えば、米国特許出願公開第2019/0279089号(特許文献1)には、「本開示は、圧縮、加速、および精度がネットワークプルーニングにおいて同時に達成できないという関連技術における問題を解決するニューラルネットワークプルーニングのための方法および装置を提供する。この方法では、ニューロンの活性化値に基づいて、プルーニングされるネットワーク層内のニューロンの(101)の重要度値を決定し、ニューロンと次のネットワーク層のニューロンとの間の接続重みに基づいて、プルーニングされるネットワーク層の各ニューロンの多様性値を決定し(102)、プルーニングされるネットワーク層から、ボリューム最大化ニューロン選択ポリシーに従ってプルーニングされるネットワーク層内のニューロンの重要度値および多様性値に基づいて保持されるニューロンを選択し(103)プルーニングされるネットワーク層から他のニューロンをプルーニングして(104)、プルーニングされたネットワーク層を取得する。上記の方法を使用すると、ニューラルネットワークの精度を維持しながら、良好な圧縮および加速効果を実現することができる」技術が記載されている。
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
(本開示の概要)
しかし、深層ニューラルネットワークは計算コストが高く、メモリを大量に消費するため、メモリ・計算リソースが限られている環境での利用が難しい。深層ニューラルネットワークを軽量化させ、計算リソースやメモリの使用量を抑えるためのプルーニング手段が存在するが、従来のプルーニング手段は、深層ニューラルネットワークにおけるフィルタの重みや活性化のみに基づいてプルーニングを行うため、深層ニューラルネットワークの検出精度に大きく貢献しているフィルタをプルーニングしてしまい、深層ニューラルネットワークの検出精度を低下させてしまうことがある。
入力データ加工:検出対象のオブジェクトが写る入力データに対して、検出対象のオブジェクトが強調され、当該オブジェクト以外の領域が除去されるように加工する。これにより、深層ニューラルネットワークのおけるどのフィルタがどのようなオブジェクトの検出に貢献しているかとの対応関係がより明確となる。
演算層間感度分析:深層ニューラルネットワークにおける演算層間感度分析を行い、各演算層の検出精度への影響度を判定する。これにより、各演算層が単独で評価される従来のプルーニング処理と異なり、演算層毎に、当該演算層をプルーニングした場合の検出精度への影響が考慮される。
演算層内感度分析:深層ニューラルネットワークにおける演算層の中で、それぞれの重みフィルタの重要度を判定する。
上記感度分析に基づいたプルーニング処理:演算層間感度分析及び演算層内感度分析に基づいて、深層ニューラルネットワークにおける各演算層毎に、プルーニングするフィルタの割合であるプルーニング率を判定する。
なお、データ加工部212によるデータ加工の詳細については後述するため、ここではその説明を省略する。
なお、ネットワーク分析部214による感度分析処理の詳細については後述するため、ここではその説明を省略する。
なお、ネットワークプルーニング部216によるプルーニング処理の詳細については後述するため、ここではその説明を省略する。
なお、図2では、深層ニューラルネットワーク220は、プルーニング管理装置210から独立したものとして示されているが、本開示はこれに限定されない。例えば、ある実施形態では、深層ニューラルネットワーク220とプルーニング管理装置210とが同一のハードウェアデバイスに格納されてもよい。
また、ある実施形態では、深層ニューラルネットワーク220は、図2に図示されていないクライアント端末に格納されてもよい。この場合、このクライアント端末は、通信ネットワークを介して、深層ニューラルネットワーク220に対するプルーニング処理要求をプルーニング管理装置210に送信し、深層ニューラルネットワーク220へのアクセス権限をプルーニング管理装置210に付与した後、プルーニング管理装置210は深層ニューラルネットワーク220に対するプルーニング処理を行ってもよい。
上述したように、データ加工部は、入力データを加工し、当該対象オブジェクトが強調される加工済みデータを生成してもよい。なお、データ加工部によるデータ加工の詳細については後述するため、ここではその説明を省略する。
なお、ネットワーク分析部による感度分析処理の詳細については後述するため、ここではその説明を省略する。
なお、ステップS366の終了後、深層ニューラルネットワークが所定の圧縮率基準を満たさない場合、本処理はステップS364へ戻り、所定の圧縮率基準を満たすまで、深層ニューラルネットワークに対する感度分析及びプルーニング処理を繰り返してもよい。所定の圧縮率基準が満たされると、本処理は終了する。
ステップS412では、ネットワーク分析部214は、プルーニング対象の深層ニューラルネットワークの各演算層における重みフィルタの特徴値を分析する。この特徴値は、例えば、重みフィルタの重みや、活性化値であってもよい。
次に、ステップS414では、ネットワーク分析部214は、ステップS412での重みフィルタの特徴の分析に基づいて、深層ニューラルネットワークにおける演算層毎に、当該演算層に含まれる重みフィルタの重要度を判定し、重みフィルタを重要度が高い順に並べた重みフィルタ重要度ランキングを生成する。ここでの重要度とは、オブジェクト検出に有用な特徴マップを生成する際の、各重みフィルタの重要性を定量的に示す尺度であり、上述したように、重みフィルタの重みや活性化値に基づいて判定されてもよい。
なお、演算層内感度分析410の詳細については後述するため、ここではその説明を省略する。
ステップS422では、ネットワーク分析部214は、プルーニング対象の深層ニューラルネットワークの各演算層の、深層ニューラルネットワークによる検出結果に対する影響度を判定する。ここでは、ネットワーク分析部214は、例えば深層ニューラルネットワークの検出精度の劣化率に基づいて各演算層の影響度を判定してもよく、PCA(Principal Component Analysis)によって各演算層の影響度を判定してもよい。
次に、ステップS424では、ネットワーク分析部214は、ステップS422で判定された各演算層の影響度に基づいて、プルーニングするフィルタの割合を示すプルーニング率を判定してもよい。
なお、演算層間感度分析420の詳細については後述するため、ここではその説明を省略する。
なお、以上説明した演算層内感度分析410と、演算層間感度分析420とは、並行(つまり、同時)に行われてもよく、順番に行われてもよい。
また、以上では、演算層内感度分析410と、演算層間感度分析420との二種類の感度分析の結果に基づいて深層ニューラルネットワークからプルーニングするフィルタを判定する一例を説明したが、本開示はこれに限定されず、演算層内感度分析410と、演算層間感度分析420との中から、1種類の感度分析に基づいてプルーニングするフィルタを判定してもよい。
ただし、検出精度の劣化を抑えるためには、演算層内感度分析410と、演算層間感度分析420との二種類の感度分析の結果に基づいて深層ニューラルネットワークからプルーニングするフィルタを判定することが望ましい。
ここで、重みファイルの重みの和を計算する手段は特に限定されず、任意の既存の手段を用いてもよい。
ここで、重みファイルの活性化値を計算する手段は特に限定されず、任意の既存の手段を用いてもよい。
なお、ここでの初期プルーニング率は、任意の値に設定されてもよい。しかし、深層ニューラルネットワークの軽量化と検出精度の劣化率とのバランスを考慮し、初期プルーニング率を50~60%に設定することが望ましい。
より具体的には、i番目の演算層の最終プルーニング率Piは、以下の数式1で求められる。
なお、ここで行われる主成分分析の手法は特に限定されず、深層ニューラルネットワークのi番目の演算層において、深層ニューラルネットワークによる検出処理の結果に対して影響度が高い重みフィルタを特定できれば任意の既存の手段であってもよい。
より具体的には、i番目の演算層の最終プルーニング率Piは、以下の数式2で求められる。
なお、加工済みデータを生成するための加工処理の詳細については図14を参照して説明するため、ここではその説明を省略する。
なお、加工済みデータを生成するための加工処理の詳細については図14を参照して説明する。
なお、特徴マップのクラスタリングの詳細については後述するため、ここではその説明を省略する。
図13に示すように、まず、入力データ205は、プルーニング管理装置210におけるデータ加工部212に入力される。上述したように、データ加工部212は、入力データ205を深層ニューラルネットワークに入力する加工済みデータ1310に変換するための機能部である。また、入力データ205は、深層ニューラルネットワーク220の検出精度を検証するために用いられる画像データである。
データ加工部212は、入力データ205を入力した後、本開示の実施形態に係るデータ加工処理を行うことで、入力データ205を加工済みデータ1310に変換する。
なお、データ加工部212によるデータ加工処理の詳細については図14を参照して説明する。
205 入力データ
210 プルーニング管理装置
212 データ加工部
214 ネットワーク分析部
216 ネットワークプルーニング部
220 深層ニューラルネットワーク
222 入力層
224 中間層
226 出力層
Claims (10)
- 深層ニューラルネットワークにおける重みフィルタをプルーニングするためのプルーニング管理装置であって、
前記深層ニューラルネットワークは、
入力層と、1層以上の中間層と、出力層とを畳み込み演算層として含み、
N層目の前記中間層は、N-1層目から出力される値を入力値として入力し、
前記入力値に対して、重み係数を有する複数の重みフィルタを用いて畳み込み演算を行うことで、N+1層目に出力する値を生成し、
前記プルーニング管理装置は、
所定の入力データを受け付け、当該入力データを前記深層ニューラルネットワークに入力する加工済みデータに変換するデータ加工部と、
前記入力データを前記深層ニューラルネットワークに入力した場合、各畳み込み演算層に対する感度分析を行い、前記各畳み込み演算層の検出精度への影響度を判定し、前記影響度に基づいて、前記各畳み込み演算層において前記畳み込み演算を行うための前記複数の重みフィルタに対するプルーニング率を決定するネットワーク分析部と、
前記プルーニング率に基づいて、前記深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、前記プルーニング対象の重みフィルタに対するプルーニング処理を行うネットワークプルーニング部と、
を含むことを特徴とするプルーニング管理装置。 - 前記ネットワーク分析部は、
前記検出精度の劣化率に基づいて前記各畳み込み演算層の前記影響度を判定する、
ことを特徴とする、請求項1に記載のプルーニング管理装置。 - 前記ネットワーク分析部は、
前記各畳み込み演算層に対する感度分析を行い、前記各畳み込み演算層において前記畳み込み演算を行うための各重みフィルタの重要度を示す重みフィルタ重要度ランキングを生成し、
前記ネットワークプルーニング部は、
前記重みフィルタ重要度ランキングと、前記プルーニング率とに基づいて、前記深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、前記プルーニング対象の重みフィルタに対するプルーニング処理を行う、
ことを特徴とする、請求項1に記載のプルーニング管理装置。 - 前記ネットワーク分析部は、
前記各畳み込み演算層に含まれる前記重みフィルタの重みの和に基づいて、前記各重みフィルタの重要度を示す重みフィルタ重要度ランキングを生成する、
ことを特徴とする、請求項3に記載のプルーニング管理装置。 - 前記ネットワーク分析部は、
前記各畳み込み演算層に含まれる前記重みフィルタの活性化値に基づいて、前記各重みフィルタの重要度を示す重みフィルタ重要度ランキングを生成する、
ことを特徴とする、請求項3に記載のプルーニング管理装置。 - 前記ネットワーク分析部は、
前記各畳み込み演算層によって生成される特徴マップに対するクラスタリング手法を行うことで、前記畳み込み演算層を所定の数のクラスタに分類し、
前記クラスタのそれぞれを比較することで、前記各畳み込み演算層の他の畳み込み演算層に対する冗長性を判定し、
前記ネットワークプルーニング部は、
前記各畳み込み演算層の他の畳み込み演算層に対する前記冗長性と、前記プルーニング率とに基づいて、前記深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、前記プルーニング対象の重みフィルタに対するプルーニング処理を行う、
ことを特徴とする、請求項1に記載のプルーニング管理装置。 - プルーニング管理システムであって、
前記プルーニング管理システムにおいて、
プルーニングの対象となる深層ニューラルネットワークと、
プルーニングを行うためのプルーニング管理装置とが通信ネットワークを介して接続されており、
前記深層ニューラルネットワークは、
入力層と、1層以上の中間層と、出力層とを畳み込み演算層として含み、
N層目の前記中間層は、N-1層目から出力される値を入力値として入力し、
前記入力値に対して、重み係数を有する複数の重みフィルタを用いて畳み込み演算を行うことで、N+1層目に出力する値を生成し、
前記プルーニング管理装置は、
所定の入力データを受け付け、当該入力データを前記深層ニューラルネットワークに入力する加工済みデータに変換するデータ加工部と、
前記入力データを前記深層ニューラルネットワークに入力した場合、各畳み込み演算層に対する感度分析を行い、前記各畳み込み演算層の検出精度への影響度を判定し、前記影響度に基づいて、前記各畳み込み演算層において前記畳み込み演算を行うための前記複数の重みフィルタに対するプルーニング率を決定するネットワーク分析部と、
前記プルーニング率に基づいて、前記深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、前記プルーニング対象の重みフィルタに対するプルーニング処理を行うネットワークプルーニング部と、
を含むことを特徴とするプルーニング管理システム。 - 前記ネットワーク分析部は、
前記各畳み込み演算層によって生成される特徴マップに対するクラスタリング手法を行うことで、前記畳み込み演算層を所定の数のクラスタに分類し、
前記クラスタのそれぞれを比較することで、前記各畳み込み演算層の他の畳み込み演算層に対する冗長性を判定し、
前記ネットワークプルーニング部は、
前記各畳み込み演算層の他の畳み込み演算層に対する前記冗長性と、前記プルーニング率とに基づいて、前記深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、前記プルーニング対象の重みフィルタに対するプルーニング処理を行う、
ことを特徴とする、請求項7に記載のプルーニング管理システム。 - 深層ニューラルネットワークにおける重みフィルタをプルーニングするためのプルーニング管理方法であって、
前記深層ニューラルネットワークは、
入力層と、1層以上の中間層と、出力層とを畳み込み演算層として含み、
N層目の前記中間層は、N-1層目から出力される値を入力値として入力し、
前記入力値に対して、重み係数を有する複数の重みフィルタを用いて畳み込み演算を行うことで、N+1層目に出力する値を生成し、
前記プルーニング管理方法は、
所定の入力データを受け付け、当該入力データを前記深層ニューラルネットワークに入力する加工済みデータに変換する工程と、
前記入力データを前記深層ニューラルネットワークに入力した場合、各畳み込み演算層に対する感度分析を行い、、前記各畳み込み演算層の検出精度への影響度を判定し、前記影響度に基づいて、前記各畳み込み演算層において前記畳み込み演算を行うための前記複数の重みフィルタに対するプルーニング率を決定する工程と、
前記プルーニング率に基づいて、前記深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、前記プルーニング対象の重みフィルタに対するプルーニング処理を行う工程と、
を含むことを特徴とするプルーニング管理方法。 - 前記プルーニング管理方法は、
前記各畳み込み演算層によって生成される特徴マップに対するクラスタリング手法を行うことで、前記畳み込み演算層を所定の数のクラスタに分類する工程と、
前記クラスタのそれぞれを比較することで、前記各畳み込み演算層の他の畳み込み演算層に対する冗長性を判定する工程と、
前記各畳み込み演算層の他の畳み込み演算層に対する前記冗長性と、前記プルーニング率とに基づいて、前記深層ニューラルネットワークにおけるプルーニング対象の重みフィルタを決定し、前記プルーニング対象の重みフィルタに対するプルーニング処理を行う工程と、
を更に含むことを特徴とする、請求項9に記載のプルーニング管理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190834A JP7502972B2 (ja) | 2020-11-17 | 2020-11-17 | プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190834A JP7502972B2 (ja) | 2020-11-17 | 2020-11-17 | プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022079947A true JP2022079947A (ja) | 2022-05-27 |
JP7502972B2 JP7502972B2 (ja) | 2024-06-19 |
Family
ID=81731558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020190834A Active JP7502972B2 (ja) | 2020-11-17 | 2020-11-17 | プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7502972B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116451771A (zh) * | 2023-06-14 | 2023-07-18 | 中诚华隆计算机技术有限公司 | 图像分类卷积神经网络压缩方法及芯粒器件数据分配方法 |
CN116684480A (zh) * | 2023-07-28 | 2023-09-01 | 支付宝(杭州)信息技术有限公司 | 信息推送模型的确定及信息推送的方法及装置 |
CN117912484A (zh) * | 2024-03-20 | 2024-04-19 | 北京建筑大学 | 一种剪枝可调的音频分离模型优化方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860826B (zh) | 2016-11-17 | 2024-08-13 | 北京图森智途科技有限公司 | 一种神经网络剪枝方法及装置 |
JP7043742B2 (ja) | 2017-05-22 | 2022-03-30 | コニカミノルタ株式会社 | 学習モデル作成装置 |
JP7099968B2 (ja) | 2019-01-31 | 2022-07-12 | 日立Astemo株式会社 | 演算装置 |
JP7150651B2 (ja) | 2019-03-22 | 2022-10-11 | 株式会社日立ソリューションズ・テクノロジー | ニューラルネットワークのモデル縮約装置 |
CN111738435B (zh) | 2020-06-22 | 2024-03-29 | 上海交通大学 | 一种基于移动设备的在线稀疏训练方法及系统 |
-
2020
- 2020-11-17 JP JP2020190834A patent/JP7502972B2/ja active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116451771A (zh) * | 2023-06-14 | 2023-07-18 | 中诚华隆计算机技术有限公司 | 图像分类卷积神经网络压缩方法及芯粒器件数据分配方法 |
CN116451771B (zh) * | 2023-06-14 | 2023-09-15 | 中诚华隆计算机技术有限公司 | 图像分类卷积神经网络压缩方法及芯粒器件数据分配方法 |
CN116684480A (zh) * | 2023-07-28 | 2023-09-01 | 支付宝(杭州)信息技术有限公司 | 信息推送模型的确定及信息推送的方法及装置 |
CN116684480B (zh) * | 2023-07-28 | 2023-10-31 | 支付宝(杭州)信息技术有限公司 | 信息推送模型的确定及信息推送的方法及装置 |
CN117912484A (zh) * | 2024-03-20 | 2024-04-19 | 北京建筑大学 | 一种剪枝可调的音频分离模型优化方法和装置 |
CN117912484B (zh) * | 2024-03-20 | 2024-05-17 | 北京建筑大学 | 一种剪枝可调的音频分离模型优化方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7502972B2 (ja) | 2024-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7502972B2 (ja) | プルーニング管理装置、プルーニング管理システム及びプルーニング管理方法 | |
US20180268296A1 (en) | Machine learning-based network model building method and apparatus | |
Dodge et al. | Visual saliency prediction using a mixture of deep neural networks | |
US20200218985A1 (en) | System and method for synthetic-model-based benchmarking of ai hardware | |
CN109242002A (zh) | 高维数据分类方法、装置及终端设备 | |
WO2022042123A1 (zh) | 图像识别模型生成方法、装置、计算机设备和存储介质 | |
US20200151573A1 (en) | Dynamic precision scaling at epoch granularity in neural networks | |
CN109063719B (zh) | 一种联合结构相似性和类信息的图像分类方法 | |
US20200042419A1 (en) | System and method for benchmarking ai hardware using synthetic ai model | |
US20220012502A1 (en) | Activity detection device, activity detection system, and activity detection method | |
Cao et al. | Improved support vector machine classification algorithm based on adaptive feature weight updating in the Hadoop cluster environment | |
CN107480621B (zh) | 一种基于人脸图像的年龄识别方法 | |
CN112529068B (zh) | 一种多视图图像分类方法、系统、计算机设备和存储介质 | |
CN111444807A (zh) | 目标检测方法、装置、电子设备和计算机可读介质 | |
WO2023185925A1 (zh) | 一种数据处理方法及相关装置 | |
TW202138999A (zh) | 用於卷積運算的資料劃分方法及處理器 | |
Zhang et al. | Feature relevance term variation for multi-label feature selection | |
CN114187465A (zh) | 分类模型的训练方法、装置、电子设备及存储介质 | |
US20230376659A1 (en) | Vlsi placement optimization using self-supervised graph clustering | |
Pang et al. | Salient object detection via effective background prior and novel graph | |
CN116363416A (zh) | 一种图像去重方法、装置、电子设备和存储介质 | |
Rutishauser et al. | Ternarized TCN for $\mu\mathrm {J}/\text {Inference} $ Gesture Recognition from DVS Event Frames | |
JP2022104911A (ja) | エンベッディング正規化方法およびこれを利用した電子装置 | |
JP2022151502A (ja) | プログラム、情報処理装置、及び方法 | |
Chen et al. | Deep self‐supervised transformation learning for leukocyte classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7502972 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |