JP2020109647A - 多層ニューラルネットワークモデルの学習及び適用方法、装置、並びに記憶媒体 - Google Patents
多層ニューラルネットワークモデルの学習及び適用方法、装置、並びに記憶媒体 Download PDFInfo
- Publication number
- JP2020109647A JP2020109647A JP2019229345A JP2019229345A JP2020109647A JP 2020109647 A JP2020109647 A JP 2020109647A JP 2019229345 A JP2019229345 A JP 2019229345A JP 2019229345 A JP2019229345 A JP 2019229345A JP 2020109647 A JP2020109647 A JP 2020109647A
- Authority
- JP
- Japan
- Prior art keywords
- channels
- filter
- network model
- input feature
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
図7は、本開示の第1の例示的な実施形態の多層ニューラルネットワークモデルについての学習方法のステップの概略フローチャートを説明する。例示的な本実施形態では、図6に示される多層ニューラルネットワークモデルの学習フローは、RAMを作業領域として使用し、並びにROM及び/又は外部メモリ15に格納された(ニューラルネットワーク順/逆伝播アルゴリズム等のような)プログラムをGPU/CPU11に実行させることにより実現される。
第1の例示的な実施形態に基づいてネットワークモデルの学習を実装した後、第2の実施形態は、学習されたネットワークモデルを適用する方法を説明する。図11は、第2の例示的な実施形態に係る適用方法の概略フローチャートを説明する。第2の例示的な実施形態では、図11に示される多層ニューラルネットワークモデルの処理フローは、RAMを作業領域として使用し、並びにROM及び/又は外部メモリ15に格納された(アプリケーションアルゴリズム等のような)プログラムをGPU/CPU11に実行させることにより実装される。
本開示の第3の例示的な実施形態は、畳み込み層の入力特徴マップを累算することによって実装される多層アプリケーションネットワークモデルの適用方法を説明しており、第3の実施形態の適用方法は、第1の実施形態の学習方法に基づく学習によって得られたネットワークモデルの学習方法であってもよいが、他の方法によって得られたネットワークモデルの適用を排除しない。図13は、第3の実施形態に係る適用方法のステップを示す概略フローチャートを示す。第3の例示的な実施形態では、図13に示される多層ニューラルネットワークモデルの処理フローは、RAMを作業領域として使用し、ROM及び/又は外部メモリ15に格納された(アプリケーションアルゴリズム等のような)プログラムをGPU/CPU11に実行させることにより実現される。
本開示の第4の例示的な実施形態は、多層ニューラルネットワークモデルの学習装置を説明し、それは本開示の第1の例示的な実施形態における学習方法と同じ発明概念を有する装置である。図15に示されるように、この学習装置は、拡張部31と、順伝播部32と、逆伝播部33とを備える。具体的には、拡張部31は、学習される多層ニューラルネットワークモデルにおける少なくとも1つの畳み込み層のフィルタチャネル数を予め拡張するために使用され、順伝播部32は、学習用データに基づいてチャネル数拡張フィルタを使用することにより畳み込み層のデータ計算を行うために使用され、逆伝播部33は、チャネル数を拡張した後のチャネルにおける同一チャネル上の重みの勾配値に従って、チャネル数を拡張する前のチャネル上の重みの勾配値を更新するために使用される。ネットワークモデルの学習が実装され、ここで、同一チャネルは、拡張前の同じチャネルを拡張することによって得られる。
本開示の第5の例示的な実施形態は、多層ニューラルネットワークモデルの適用装置を説明し、それは本開示の第2の例示的な実施形態における適用方法と同じ発明概念を有する装置である。図16に示されるように、この適用装置は、拡張部41と、順伝播部42と、出力部43とを有する。具体的には、拡張部41は、多層ニューラルネットワークモデルにおける少なくとも1つの畳み込み層のフィルタチャネル数を予め拡張し、順伝播部42は、タスク要求に対応するデータに基づいてチャネル数拡張フィルタを使用することにより畳み込み層のデータ計算を行い、出力部43は順伝播を行った後に適用結果を出力する。
本開示の第6の例示的な実施形態は、本開示の第3の例示的な実施形態における適用方法と同じ発明概念を有する装置である多層ニューラルネットワークモデルの適用装置を説明する。図17に示されるように、適用装置は、累算部51と、計算部52と、出力部53とを備えている。具体的には、累算部51は、順伝播中に少なくとも1つの畳み込み層について畳み込み層の複数の入力特徴マップを累算するために使用され、計算部52は、畳み込み層の累算された入力特徴マップ及びフィルタを使用することにより畳み込み層の畳み込み計算を行い、出力部53は、順伝播を完了した後に適用結果を出力する。
本発明の実施形態は1つ又は複数の上述の実施形態の機能を実行するために、記憶媒体に記録されたコンピュータ実行可能命令を読み出し、実行するシステム又は装置のコンピュータ(これはより完全に非一時的コンピュータ可読記憶媒体とも呼ばれる)によって実現され、かつ/又は1つ又は複数の上述の実施形態の機能を実行するために使用される1つ又は複数の回路(特定用途向け集積回路(ASIC)など)を含み、かつ/又は例えば、1つ又は複数の上述の実施形態の機能を実行するために記憶媒体からコンピュータ実行可能命令を読み出し、実行し、かつ/又は1つ又は複数の上述の実施形態の機能を実行するために1つ又は複数の回路を制御することによって、システム又は装置のコンピュータによって実行される方法によって実現されることも可能である。このコンピュータは、コンピュータ実行可能命令を読み出し及び実行するために、中央処理装置(CPU)、マイクロ処理装置(MPU)のような1つ以上のプロセッサを備えていてもよく、別個のコンピュータ又は別個のプロセッサのネットワークを含んでいてもよい。コンピュータ実行可能命令は、例えば、ネットワーク又は記憶媒体からコンピュータに提供されてもよい。この記憶媒体は、例えば、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、分散計算システムのストレージ、光ディスク(コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、又はブルーレイディスク(BD)(商標)のような)、フラッシュメモリデバイス、メモリカードなどのうちの1つ以上を含んでいてもよい。また、本発明の実施形態は、上述の実施形態の機能を実行するソフトウェア(プログラム)を、ネットワーク若しくは各種記憶媒体を介してシステム又は装置に提供し、並びに、そのシステム若しくは装置のコンピュータ又は中央処理装置(CPU)及びマイクロ処理部(MPU)によって、そのプログラムを読み出し及び実行することによっても実装され得る。本発明は例示的な実施形態を参照して説明されてきたが、本発明は開示された例示的な実施形態に限定されないことを理解されたい。以下の特許請求の範囲は、そのようなすべての修正及び同等の構造及び機能を包含するように、最も広い解釈を与えられるべきである。
Claims (21)
- 多層ニューラルネットワークモデルの少なくとも1つの畳み込み層について、前記畳み込み層のフィルタのチャネル数を拡張する工程と、
順伝播中に、アプリケーション要件に対応するデータに基づいて、前記チャネル数を拡張した後の前記フィルタを用いて前記畳み込み層のデータ計算を行う工程と、
前記順伝播を完了した後に適用結果を出力する工程と、
を備える、多層ニューラルネットワークモデルの適用方法。 - 前記フィルタの前記チャネル数は、前記フィルタの前記チャネルを複製することによって拡張される、請求項1に記載の適用方法。
- 前記チャネル数を拡張した後の前記フィルタの高さは、前記チャネル数を拡張する前の前記フィルタの高さ以上であり、
前記チャネル数を拡張した後の前記フィルタの幅は、前記チャネル数を拡張する前の前記フィルタの幅以上である、請求項1に記載の適用方法。 - 学習される多層ニューラルネットワークモデルの少なくとも1つの畳み込み層について、前記畳み込み層のフィルタのチャネル数を拡張する工程と、
順伝播中に、学習用データに基づいて、前記チャネル数を拡張した後のフィルタを用いて前記畳み込み層のデータ計算を行う工程と、
逆伝播中に、前記ネットワークモデルの学習を実現するために、前記チャネル数を拡張した後、前記チャネルの同一チャネル上の重みの勾配値に応じてチャネル数拡張前のチャネル上の重みの勾配値を更新する工程と、を備え、
前記同一のチャネルは、拡張前の同じチャネルを拡張することによって得られる、多層ニューラルネットワークモデルにおける学習方法。 - 前記フィルタの前記チャネル数は、前記フィルタの前記チャネルを複製することによって拡張される、請求項4に記載の学習方法。
- 前記チャネル数を拡張した後の前記フィルタの高さは、前記チャネル数を拡張する前の前記フィルタの高さ以上であり、及び、
前記チャネル数を拡張した後の前記フィルタの幅は、前記チャネル数を拡張する前の前記フィルタの幅以上である、請求項4に記載の学習方法。 - 前記チャネル数を拡張する前に、前記チャネル上の前記重みの前記勾配値を更新する工程は、
前記同一チャネル上の各重みの勾配値を決定する工程と、
前記同一チャネル上の同じ位置における重みの勾配値を平均し、前記勾配値が更新される、前記チャネル数を拡張する前の前記チャネル上の重みの前記位置における勾配値として、勾配平均値をとる工程と、
を備える、請求項4に記載の学習方法。 - 順伝播中に、少なくとも1つの畳み込み層について、前記畳み込み層の複数の入力特徴マップを累算し、前記畳み込み層の前記累算された入力特徴マップ及びフィルタを使用することによって前記畳み込み層の畳み込み計算を行う工程と、
前記順伝播を完了した後に適用結果を出力する工程と、
を備える、多層ニューラルネットワークモデルの適用方法。 - 前記複数の入力特徴マップを累算する工程は、
グループの入力特徴マップ数が前記畳み込み層のフィルタのチャネル数に等しくなり、多くとも1つのグループの入力特徴マップ数が前記フィルタの前記チャネル数よりも少なくなるように、前記複数の入力特徴マップをグループ化する工程と、
前記フィルタの前記チャネル数に等しい数の累算された入力特徴マップを得るために、各グループの前記入力特徴マップを累算する工程と、
を備える、請求項8に記載の適用方法。 - 前記適用方法の前の前記多層ニューラルネットワークモデルの学習方法において、前記フィルタの前記チャネル数を拡張することによって前記チャネル数拡張後のフィルタ及び前記入力特徴マップを使用して計算を実行する場合、各グループの前記入力特徴マップを累算する工程は、
前記複数の入力特徴マップにおける累算する前記入力特徴マップの位置が、前記学習方法において前記拡張された同一チャネルを用いて計算する入力特徴マップの位置と同じであり、前記同一チャネルが同じ拡張前のチャネルを拡張することによって得られている、という条件を満たす、各グループの入力特徴マップを累算する工程を備える、請求項9に記載の適用方法。 - 多層ニューラルネットワークモデルの少なくとも1つの畳み込み層のフィルタのチャネル数を予め拡張する拡張手段と、
アプリケーション要件に対応するデータに基づいて、前記チャネル数を拡張した後の前記フィルタを用いて畳み込み層のデータ計算を行う順伝播手段と、
順伝播を完了した後に適用結果を出力する出力手段と、
を備える、多層ニューラルネットワークモデルの適用装置。 - 前記拡張手段は、前記フィルタの前記チャネルを複製することによって前記フィルタの前記チャネル数を拡張する、請求項11に記載の適用装置。
- 学習される多層ニューラルネットワークモデルの少なくとも1つの畳み込み層のフィルタのチャネル数を予め拡張する拡張手段と、
学習用データに基づいて、前記チャネル数を拡張した後の前記フィルタを用いて前記畳み込み層のデータ計算を行う順伝播手段と、
前記ネットワークモデルの学習を実現するために、前記チャネル数を拡張した後、前記チャネルの同一チャネル上の重みの勾配値に応じて前記チャネル数を拡張する前のチャネル上の重みの勾配値を更新する逆伝播手段とを備え、
前記同一チャネルは、拡張前の同じチャネルを拡張することによって得られる、
多層ニューラルネットワークモデルにおける学習装置。 - 前記拡張手段は、前記フィルタの前記チャネルを複製することによって前記フィルタの前記チャネル数を拡張する、請求項13に記載の学習装置。
- 前記逆伝播手段は、前記同一チャネル上の各重みの勾配値を決定し、前記同一チャネル上の同じ位置における重みの勾配値を平均し、前記勾配値が更新される、前記チャネル数を拡張する前の前記チャネル上の重みの前記位置における勾配値として、勾配平均値をとる、請求項13に記載の学習装置。
- 順伝播中に、少なくとも1つの畳み込み層について、前記畳み込み層の複数の入力特徴マップを累算する累算手段と、
前記畳み込み層の前記累算された入力特徴マップ及びフィルタを使用することによって前記畳み込み層の畳み込み計算を行う計算手段と、
前記順伝播を完了した後に適用結果を出力する出力手段と、
を備える、多層ニューラルネットワークモデルの適用装置。 - 前記累算部が、
グループの入力特徴マップ数が前記畳み込み層の前記フィルタの前記チャネル数に等しくなり、多くとも1つのグループの入力特徴マップ数が前記フィルタの前記チャネル数よりも少なくなるように、前記複数の入力特徴マップをグループ化するために、並びに、
前記フィルタの前記チャネル数に等しい数の累算された入力特徴マップを得るために、各グループの前記入力特徴マップを累算するために、
使用される、請求項16に記載の適用装置。 - 前記適用方法の前の前記多層ニューラルネットワークモデルの学習方法において、前記フィルタの前記チャネル数を拡張することによって前記チャネル数拡張後のフィルタ及び前記入力特徴マップを使用して計算を実行する場合に、前記累算手段は、前記複数の入力特徴マップにおける累算する前記入力特徴マップの位置が、前記学習方法において前記拡張された同一チャネルを用いて計算する入力特徴マップの位置と同じであり、前記同一チャネルが同じ拡張前のチャネルを拡張することによって得られている、という条件とを満たす、各グループの入力特徴マップを累算するために使用される、請求項17に記載の適用装置。
- コンピュータによって実行されたときに、請求項1に記載の多層ニューラルネットワークモデルの適用方法を前記コンピュータに行わせる、プログラム。
- コンピュータによって実行されたときに、請求項4に記載の多層ニューラルネットワークモデルの学習方法を前記コンピュータに行わせる、プログラム。
- コンピュータによって実行されたときに、請求項8に記載の多層ニューラルネットワークモデルの適用方法を前記コンピュータに行わせる、プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811633954.0 | 2018-12-29 | ||
CN201811633954.0A CN111382833A (zh) | 2018-12-29 | 2018-12-29 | 多层神经网络模型的训练和应用方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020109647A true JP2020109647A (ja) | 2020-07-16 |
JP6890653B2 JP6890653B2 (ja) | 2021-06-18 |
Family
ID=71123080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019229345A Active JP6890653B2 (ja) | 2018-12-29 | 2019-12-19 | 多層ニューラルネットワークモデルの学習及び適用方法、装置、並びに記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11847569B2 (ja) |
JP (1) | JP6890653B2 (ja) |
CN (1) | CN111382833A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023075372A1 (ko) * | 2021-10-26 | 2023-05-04 | 삼성전자 주식회사 | 심층 신경망 연산을 수행하는 방법 및 전자 장치 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210076687A (ko) * | 2019-12-16 | 2021-06-24 | 삼성전자주식회사 | 뉴럴 프로세싱 장치 및 뉴럴 프로세싱 장치에서 뉴럴 네트워크를 처리하는 방법 |
CN111241985B (zh) * | 2020-01-08 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 一种视频内容识别方法、装置、存储介质、以及电子设备 |
US11295430B2 (en) * | 2020-05-20 | 2022-04-05 | Bank Of America Corporation | Image analysis architecture employing logical operations |
CN112468203B (zh) * | 2020-11-19 | 2022-07-26 | 杭州勒贝格智能系统股份有限公司 | 深度迭代神经网络用低秩csi反馈方法、存储介质及设备 |
CN112559870B (zh) * | 2020-12-18 | 2023-10-31 | 北京百度网讯科技有限公司 | 多模型融合方法、装置、电子设备和存储介质 |
CN112867010B (zh) * | 2021-01-14 | 2023-04-18 | 中国科学院国家空间科学中心 | 基于卷积神经网络的射频指纹嵌入式实时识别方法及系统 |
CN112785663B (zh) * | 2021-03-17 | 2024-05-10 | 西北工业大学 | 一种基于任意形状卷积核的图像分类网络压缩方法 |
CN113792770A (zh) * | 2021-08-31 | 2021-12-14 | 南京信息工程大学 | 一种基于属性描述的零样本滚动轴承故障诊断方法及系统 |
CN114995782B (zh) * | 2022-08-03 | 2022-10-25 | 上海登临科技有限公司 | 数据处理方法、装置、设备和可读存储介质 |
CN116781484B (zh) * | 2023-08-25 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、计算机设备及存储介质 |
CN117217318B (zh) * | 2023-11-07 | 2024-01-26 | 瀚博半导体(上海)有限公司 | 基于Transformer网络模型的文本生成方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102276339B1 (ko) * | 2014-12-09 | 2021-07-12 | 삼성전자주식회사 | Cnn의 근사화를 위한 학습 장치 및 방법 |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
GB201709672D0 (en) * | 2017-06-16 | 2017-08-02 | Ucl Business Plc | A system and computer-implemented method for segmenting an image |
CN107909008A (zh) * | 2017-10-29 | 2018-04-13 | 北京工业大学 | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 |
CN109754402B (zh) * | 2018-03-15 | 2021-11-19 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置以及存储介质 |
-
2018
- 2018-12-29 CN CN201811633954.0A patent/CN111382833A/zh active Pending
-
2019
- 2019-12-19 JP JP2019229345A patent/JP6890653B2/ja active Active
- 2019-12-19 US US16/721,606 patent/US11847569B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023075372A1 (ko) * | 2021-10-26 | 2023-05-04 | 삼성전자 주식회사 | 심층 신경망 연산을 수행하는 방법 및 전자 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20200210843A1 (en) | 2020-07-02 |
JP6890653B2 (ja) | 2021-06-18 |
CN111382833A (zh) | 2020-07-07 |
US11847569B2 (en) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020109647A (ja) | 多層ニューラルネットワークモデルの学習及び適用方法、装置、並びに記憶媒体 | |
CN110555450B (zh) | 人脸识别神经网络调整方法和装置 | |
JP6990813B2 (ja) | 多層ニューラルネットワークモデルの学習及び適用方法、装置、並びに記憶媒体 | |
JP6794593B2 (ja) | 多階層ニューラルネットワークモデルを最適化して適用する方法及び装置、及び記憶媒体 | |
CN110462639B (zh) | 信息处理设备、信息处理方法及计算机可读存储介质 | |
JP6998968B2 (ja) | ディープニューラルネットワークの実行方法、実行装置、学習方法、学習装置及びプログラム | |
US20230351187A1 (en) | Accelerating neural networks with one shot skip layer pruning | |
TW201835817A (zh) | 設計超級解析度深度卷積神經網路的裝置及方法 | |
CN110555508A (zh) | 人工神经网络调整方法和装置 | |
JP7345262B2 (ja) | データ圧縮装置、データ処理装置、データ圧縮方法、プログラム、及び学習済みモデル | |
JP6950756B2 (ja) | ニューラルネットワークのランク最適化装置および最適化方法 | |
JP7438517B2 (ja) | ニューラルネットワークの圧縮方法、ニューラルネットワーク圧縮装置、コンピュータプログラム、及び圧縮されたニューラルネットワークデータの製造方法 | |
TWI700647B (zh) | 電子裝置及類神經網路的壓縮方法 | |
CN110991621A (zh) | 一种基于通道数搜索卷积神经网络的方法 | |
US11995533B1 (en) | Executing replicated neural network layers on inference circuit | |
US20220405561A1 (en) | Electronic device and controlling method of electronic device | |
CN113554104B (zh) | 一种基于深度学习模型的图像分类方法 | |
CN117337437A (zh) | 减少用于训练神经网络的操作 | |
WO2022150093A1 (en) | Performing tensor operations using a programmable control engine | |
CN113177627A (zh) | 优化系统、重新训练系统及其方法及处理器和可读介质 | |
KR20210138382A (ko) | 뉴럴 네트워크에서의 다중 레벨 단계적 양자화 방법 및 장치 | |
KR20200023155A (ko) | 뉴럴 네트워크의 학습을 가속하는 방법 및 뉴럴 네트워크 시스템 | |
JP7454888B1 (ja) | ハードウェア特性を利用してニューラルネットワークモデルを軽量化する方法及び装置 | |
KR102464508B1 (ko) | 인공 신경망 모델을 경량화하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
US11886983B2 (en) | Reducing hardware resource utilization for residual neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201223 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210525 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6890653 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |