JP2021177368A - ニューラルネットワークモデルの処理方法及び装置 - Google Patents
ニューラルネットワークモデルの処理方法及び装置 Download PDFInfo
- Publication number
- JP2021177368A JP2021177368A JP2020217561A JP2020217561A JP2021177368A JP 2021177368 A JP2021177368 A JP 2021177368A JP 2020217561 A JP2020217561 A JP 2020217561A JP 2020217561 A JP2020217561 A JP 2020217561A JP 2021177368 A JP2021177368 A JP 2021177368A
- Authority
- JP
- Japan
- Prior art keywords
- output value
- value
- activation
- initial activation
- processing layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
Description
S1:第iの処理層(前記iは、前記N以下の正の整数である)の入力データを取得し、前記入力データを複数のカプセルノードに転化するステップであって、ここで、前記入力データは、j次元(前記jは、前記N以下の正の整数である)を有する複数のニューロンベクトルを含むステップと、
S2:前記複数のカプセルノードをアフィン変換して、前記複数のカプセルノードに対応するアフィンノードを生成するステップと、
S3:前記複数のカプセルノードに対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を決定するステップと、
S4:第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を生成するステップと、
S5:前記初期活性化出力値に対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を再決定し、再決定された前記第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を前記第iの処理層の活性化出力値として決定するステップと、を含む。
第iの処理層(前記iは、前記N以下の正の整数である)の入力データを取得し、前記入力データを複数のカプセルノードに転化するための取得モジュールであって、ここで、前記入力データは、j次元(前記jは、前記N以下の正の整数である)を有する複数のニューロンベクトルを含む取得モジュールと、
前記複数のカプセルノードをアフィン変換して、前記複数のカプセルノードに対応するアフィンノードを生成するための第1の生成モジュールと、
前記複数のカプセルノードに対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を決定するための決定モジュールと、
第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を生成するための第2の生成モジュールと、
前記初期活性化出力値に対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を再決定し、再決定された前記第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を前記第iの処理層の活性化出力値として決定するための第3の生成モジュールと、を含む。
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが第1の側面のニューラルネットワークモデルの処理方法を実行する。
であり、
ここで、jは、j番目のベクトルノードを表す。Sjは、j番目のベクトルノードの活性化前のベクトル値を表し、Vjは、j番目のベクトルノードの活性化後のベクトル値を表す。
は、ベクトル
のp階のノルムを表す。
であり、
のため、
という結論を導き出して、これにより、Squash活性化関数にスパース性不足の技術的な問題があることを引き起こす。
について導関数を求め、導関数
を取得し、式から、勾配がxの2乗の逆数とともに減少することがわかる。xが0.8より大きい場合、導関数
であり、活性化状態の高位更新が遅いという技術的な問題を引き起こす。
ステップS1、第iの処理層の入力データを取得し、入力データを複数のカプセルノードに転化する。
ステップ201、第iの処理層の入力データを取得し、前記入力データを複数のカプセルノードに転化する。
、
方向は、
である。
であり、ここで、hは、初期活性化出力値であり、gは、第2の出力値であり、dは、初期活性化入力値であり、||d||は、初期活性化入力値に対応するモジュラス長である。
ここで、Rulerは、活性化関数を表し、βは、第1の活性化閾値であり、αは、第2の活性化閾値であり、xは、初期活性化入力値である。まず、上記の式の導関数を取ると、導関数の値は、
であることがわかる。
||x||>βandk*||x||<α
の活性化区間において、導関数は、一定値である。パラメータαを合理的に設定することにより、例えばα=1である場合、活性化状態の最大値が1になるまで、同時に0から1の間の活性化状態での勾配が等しくなることを保証することができ、既存のニューラルネットワークの活性化関数の活性化状態の高位更新が遅いという問題を効率的に解決する。
第1の生成モジュール520は、複数のカプセルノードをアフィン変換して、複数のカプセルノードに対応するアフィンノードを生成することに用いられる。
決定モジュール530は、複数のカプセルノードに対応するアフィンノードに基づいて、第iの処理層の初期活性化入力値を決定することに用いられる。
第2の生成モジュール540は、第iの処理層の初期活性化入力値を活性化関数に入力して、第iの処理層の初期活性化出力値を生成することに用いられる。
第3の生成モジュール550は、初期活性化出力値に対応するアフィンノードに基づいて、第iの処理層の初期活性化入力値を再決定し、再決定された第iの処理層の初期活性化入力値を活性化関数に入力して、第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を第iの処理層の活性化出力値として決定することに用いられる。
初期重みに基づいて複数のカプセルノードに対応するアフィンノードに対して加重加算を行って、第iの処理層の初期活性化入力値を生成するための第1の生成ユニットを含むことができる。
初期活性化入力値に対応するモジュラス長を決定するための第1の決定ユニットと、
初期活性化入力値に対応するモジュラス長及び第1の活性化閾値に基づいて、第1の出力値を生成するための第2の生成ユニットと、
第1の出力値及び第1の活性化閾値より大きい第2の活性化閾値に基づいて、第2の出力値を生成するための第3の生成ユニットと、
第2の出力値及び初期活性化入力値に対応するモジュラス長に基づいて、初期活性化出力値を生成するための第4の生成ユニットと、を含むことができる。
初期活性化入力値に対応するモジュラス長が第1の活性化閾値より大きい場合、初期活性化入力値に対応するモジュラス長と第1の活性化閾値の差を計算し、差と、1と前記第1の活性化閾値との差の逆数である予め設定された傾きと、の積を第1の出力値とし、
初期活性化入力値に対応するモジュラス長が第1の活性化閾値より小さい場合、第1の出力値は、0であることにさらに用いられる。
第1の出力値が第2の活性化閾値より大きい場合、第2の活性化閾値を第2の出力値とし、及び
第1の出力値が第2の活性化閾値より小さい場合、第1の出力値を第2の出力値とすることにさらに用いられる。
ここで、hは、初期活性化出力値であり、gは、第2の出力値であり、dは、初期活性化入力値であり、||d||は、初期活性化入力値に対応するモジュラス長である。
初期活性化出力値に基づいて初期重みを更新し、更新された初期重みに基づいて初期活性化入力値を再生成し、再生成された初期活性化入力値を活性化関数に入力して、第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を第iの処理層の活性化出力値として決定することにさらに用いられる。
Claims (17)
- ニューラルネットワークモデルの処理方法であって、
前記ニューラルネットワークは、N層の処理層を含み、Nは、正の整数であり、前記方法は、
第iの処理層(前記iは、前記N以下の正の整数である)の入力データを取得し、前記入力データを複数のカプセルノードに転化するステップS1であって、前記入力データは、j次元(前記jは、前記N以下の正の整数である)を有する複数のニューロンベクトルを含むステップS1と、
前記複数のカプセルノードをアフィン変換して、前記複数のカプセルノードに対応するアフィンノードを生成するステップS2と、
前記複数のカプセルノードに対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を決定するステップS3と、
第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を生成するステップS4と、
前記初期活性化出力値に対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を再決定し、再決定された前記第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を前記第iの処理層の活性化出力値として決定するステップS5と、を含む、
ニューラルネットワークモデルの処理方法。 - 前記ステップS3は、
初期重みに基づいて前記複数のカプセルノードに対応するアフィンノードに対して加重加算を行って、前記第iの処理層の初期活性化入力値を生成するステップを含む、
ことを特徴とする請求項1に記載のニューラルネットワークモデルの処理方法。 - 前記ステップS4は、
前記初期活性化入力値に対応するモジュラス長を決定するステップと、
前記初期活性化入力値に対応するモジュラス長及び第1の活性化閾値に基づいて、第1の出力値を生成するステップと、
前記第1の出力値及び前記第1の活性化閾値より大きい第2の活性化閾値に基づいて、第2の出力値を生成するステップと、
前記第2の出力値及び前記初期活性化入力値に対応するモジュラス長に基づいて、前記初期活性化出力値を生成するステップと、を含む、
ことを特徴とする請求項1から2のいずれかに記載のニューラルネットワークモデルの処理方法。 - 前記初期活性化入力値に対応するモジュラス長及び第1の活性化閾値に基づいて、第1の出力値を生成するステップは、
前記初期活性化入力値に対応するモジュラス長が前記第1の活性化閾値より大きい場合、前記初期活性化入力値に対応するモジュラス長と前記第1の活性化閾値の差を計算し、前記差と、1と前記第1の活性化閾値との差の逆数である予め設定された傾きと、の積を前記第1の出力値とするステップと、
前記初期活性化入力値に対応するモジュラス長が前記第1の活性化閾値より小さい場合、前記第1の出力値は、0であるステップと、を含む、
ことを特徴とする請求項3に記載のニューラルネットワークモデルの処理方法。 - 前記第1の出力値及び第2の活性化閾値に基づいて、第2の出力値を生成するステップは、
前記第1の出力値が前記第2の活性化閾値より大きい場合、前記第2の活性化閾値を前記第2の出力値とするステップと、
前記第1の出力値が前記第2の活性化閾値より小さい場合、前記第1の出力値を前記第2の出力値とするステップと、を含む、
ことを特徴とする請求項3に記載のニューラルネットワークモデルの処理方法。 - 前記ステップS5は、
初期活性化出力値に基づいて初期重みを更新し、更新された初期重みに基づいて初期活性化入力値を再生成し、再生成された初期活性化入力値を活性化関数に入力して、第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を第iの処理層の活性化出力値として決定するステップを含む、
ことを特徴とする請求項3に記載のニューラルネットワークモデルの処理方法。 - ニューラルネットワークモデルの処理装置であって、
前記ニューラルネットワークは、N層の処理層を含み、Nは、正の整数であり、前記装置は、
第iの処理層の入力データを取得し、前記入力データを複数のカプセルノードに転化するための取得モジュールであって、前記入力データは、j次元を有する複数のニューロンベクトルを含み、iとjは、N以下の正の整数である取得モジュールと、
前記複数のカプセルノードをアフィン変換して、前記複数のカプセルノードに対応するアフィンノードを生成するための第1の生成モジュールと、
前記複数のカプセルノードに対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を決定するための決定モジュールと、
第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を生成するための第2の生成モジュールと、
前記初期活性化出力値に対応するアフィンノードに基づいて、前記第iの処理層の初期活性化入力値を再決定し、再決定された前記第iの処理層の初期活性化入力値を活性化関数に入力して、前記第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を前記第iの処理層の活性化出力値として決定するための第3の生成モジュールと、を含む、
ニューラルネットワークモデルの処理装置。 - 前記決定モジュールは、
初期重みに基づいて前記複数のカプセルノードに対応するアフィンノードに対して加重加算を行って、前記第iの処理層の初期活性化入力値を生成するための第1の生成ユニットを含む、
ことを特徴とする請求項8に記載のニューラルネットワークモデルの処理装置。 - 前記第2の生成モジュールは、
前記初期活性化入力値に対応するモジュラス長を決定するための第1の決定ユニットと、
前記初期活性化入力値に対応するモジュラス長及び第1の活性化閾値に基づいて、第1の出力値を生成するための第2の生成ユニットと、
前記第1の出力値及び前記第1の活性化閾値より大きい第2の活性化閾値に基づいて、第2の出力値を生成するための第3の生成ユニットと、
前記第2の出力値及び前記初期活性化入力値に対応するモジュラス長に基づいて、前記初期活性化出力値を生成するための第4の生成ユニットと、を含む、
ことを特徴とする請求項8から9に記載のニューラルネットワークモデルの処理装置。 - 前記第2の生成ユニットは、
前記初期活性化入力値に対応するモジュラス長が前記第1の活性化閾値より大きい場合、前記初期活性化入力値に対応するモジュラス長と前記第1の活性化閾値の差を計算し、前記差と、1と第1の活性化閾値との差の逆数である予め設定された傾きと、の積を前記第1の出力値とし、
前記初期活性化入力値に対応するモジュラス長が前記第1の活性化閾値より小さい場合、前記第1の出力値は、0であることにさらに用いられる、
ことを特徴とする請求項10に記載のニューラルネットワークモデルの処理装置。 - 前記第3の生成ユニットは、
前記第1の出力値が前記第2の活性化閾値より大きい場合、前記第2の活性化閾値を前記第2の出力値とし、及び
前記第1の出力値が前記第2の活性化閾値より小さい場合、前記第1の出力値を前記第2の出力値とすることにさらに用いられる、
ことを特徴とする請求項10に記載のニューラルネットワークモデルの処理装置。 - 前記第3の生成モジュールは、
初期活性化出力値に基づいて初期重みを更新し、更新された初期重みに基づいて初期活性化入力値を再生成し、再生成された初期活性化入力値を活性化関数に入力して、第iの処理層の初期活性化出力値を再生成し、このように予め設定された回数を繰り返し、最後に生成された第iの処理層の初期活性化出力値を第iの処理層の活性化出力値として決定することにさらに用いられる、
ことを特徴とする請求項10に記載のニューラルネットワークモデルの処理装置。 - 電子機器であって、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが請求項1〜7のいずれかに記載のニューラルネットワークモデルの処理方法を実行する、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1〜7のいずれかに記載のニューラルネットワークモデルの処理方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータ上で動作しているときに、請求項1〜7のいずれかに記載のニューラルネットワークモデルの処理方法を前記コンピュータに実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010390180.4A CN111709514A (zh) | 2020-05-08 | 2020-05-08 | 神经网络模型的处理方法和装置 |
CN202010390180.4 | 2020-05-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021177368A true JP2021177368A (ja) | 2021-11-11 |
JP7105297B2 JP7105297B2 (ja) | 2022-07-22 |
Family
ID=72536932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020217561A Active JP7105297B2 (ja) | 2020-05-08 | 2020-12-25 | ニューラルネットワークモデルの処理方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210350228A1 (ja) |
EP (1) | EP3907664A1 (ja) |
JP (1) | JP7105297B2 (ja) |
KR (1) | KR20210047832A (ja) |
CN (1) | CN111709514A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113159831A (zh) * | 2021-03-24 | 2021-07-23 | 湖南大学 | 一种基于改进的胶囊网络的评论文本情感分析方法 |
CN114444187B (zh) * | 2022-01-28 | 2023-07-18 | 河海大学 | 一种振动传递大数据与胶囊网络融合的桥梁损伤诊断方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10949737B2 (en) * | 2016-07-13 | 2021-03-16 | Samsung Electronics Co., Ltd. | Method for neural network and apparatus performing same method |
JP6901633B2 (ja) * | 2017-10-27 | 2021-07-14 | グーグル エルエルシーGoogle LLC | カプセルニューラルネットワーク |
US11514579B2 (en) * | 2018-06-04 | 2022-11-29 | University Of Central Florida Research Foundation, Inc. | Deformable capsules for object detection |
CN110046249A (zh) * | 2019-03-11 | 2019-07-23 | 中国科学院深圳先进技术研究院 | 胶囊网络的训练方法、分类方法、系统、设备及存储介质 |
-
2020
- 2020-05-08 CN CN202010390180.4A patent/CN111709514A/zh active Pending
- 2020-12-24 US US17/133,949 patent/US20210350228A1/en active Pending
- 2020-12-25 JP JP2020217561A patent/JP7105297B2/ja active Active
- 2020-12-28 EP EP20217352.2A patent/EP3907664A1/en active Pending
-
2021
- 2021-04-12 KR KR1020210046992A patent/KR20210047832A/ko not_active Application Discontinuation
Non-Patent Citations (1)
Title |
---|
REN,QIANG: "Adaptive Routing Between Capsules", ARXIV:1911.08119V1, JPN6021051846, 19 November 2019 (2019-11-19), ISSN: 0004673380 * |
Also Published As
Publication number | Publication date |
---|---|
CN111709514A (zh) | 2020-09-25 |
KR20210047832A (ko) | 2021-04-30 |
US20210350228A1 (en) | 2021-11-11 |
EP3907664A1 (en) | 2021-11-10 |
JP7105297B2 (ja) | 2022-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7166322B2 (ja) | モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
KR102514434B1 (ko) | 지식 표현 학습 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP7146991B2 (ja) | 音声スペクトル生成モデルの学習方法、装置、電子機器及びコンピュータプログラム製品 | |
KR102484617B1 (ko) | 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP7058304B2 (ja) | 異種グラフにおけるノード表現の生成方法、装置及び電子機器 | |
WO2022000802A1 (zh) | 深度学习模型的适配方法、装置及电子设备 | |
KR102567635B1 (ko) | 시맨틱 표현 모델을 트레이닝 하는 방법, 장치, 전자 기기 및 컴퓨터 기록 매체 | |
CN111259671B (zh) | 文本实体的语义描述处理方法、装置及设备 | |
JP7095209B2 (ja) | グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 | |
KR102441475B1 (ko) | 질문 분석 방법, 장치, 지식 기반 질문 응답 시스템 및 전자 기기 | |
JP7083939B2 (ja) | モデルの蒸留方法、装置、電子機器及び記憶媒体 | |
JP2022013600A (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
JP2022505015A (ja) | 知識グラフのベクトル表現生成方法、装置及び電子機器 | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
JP7044839B2 (ja) | エンドツーエンドモデルのトレーニング方法および装置 | |
JP2021177368A (ja) | ニューラルネットワークモデルの処理方法及び装置 | |
EP3866166B1 (en) | Method and apparatus for predicting mouth-shape feature, electronic device, storage medium and computer program product | |
KR102487260B1 (ko) | 이미지 처리 방법, 장치, 전자 기기 및 저장 매체 | |
JP2022028897A (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
KR20220003444A (ko) | 옵티마이저 학습 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
JP7300005B2 (ja) | 深層学習モデルの適応方法、装置及び電子機器 | |
CN116030235A (zh) | 目标检测模型训练方法、目标检测方法、装置和电子设备 | |
CN112053362B (zh) | 图像分割方法、装置、电子设备及存储介质 | |
CN115688796B (zh) | 用于自然语言处理领域中预训练模型的训练方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220401 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20220527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7105297 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |