JP7251613B2 - モデル生成装置、モデル生成方法、及び、プログラム - Google Patents
モデル生成装置、モデル生成方法、及び、プログラム Download PDFInfo
- Publication number
- JP7251613B2 JP7251613B2 JP2021511083A JP2021511083A JP7251613B2 JP 7251613 B2 JP7251613 B2 JP 7251613B2 JP 2021511083 A JP2021511083 A JP 2021511083A JP 2021511083 A JP2021511083 A JP 2021511083A JP 7251613 B2 JP7251613 B2 JP 7251613B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- parameters
- parameter
- domain
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Feedback Control In General (AREA)
Description
複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に目的の処理に使用するモデルを学習し、学習済のモデルのパラメータである学習済モデルパラメータを前記ソースドメイン毎に出力する学習手段と、
前記学習済モデルパラメータと、前記複数のソースドメインの差を示す媒介パラメータとの関連性を示す媒介パラメータ関連性情報を取得する関連性情報取得手段と、
前記学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むターゲットモデルのパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成手段と、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定手段と、
を備える。
複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に目的の処理に使用するモデルを学習し、学習済のモデルのパラメータである学習済モデルパラメータを前記ソースドメイン毎に出力し、
前記学習済モデルパラメータと、前記複数のソースドメインの差を示す媒介パラメータとの関連性を示す媒介パラメータ関連性情報を取得し、
前記学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むターゲットモデルのパラメータであるターゲットモデルパラメータを生成し、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する。
複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に目的の処理に使用するモデルを学習し、学習済のモデルのパラメータである学習済モデルパラメータを前記ソースドメイン毎に出力し、
前記学習済モデルパラメータと、前記複数のソースドメインの差を示す媒介パラメータとの関連性を示す媒介パラメータ関連性情報を取得し、
前記学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むターゲットモデルのパラメータであるターゲットモデルパラメータを生成し、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する処理をコンピュータに実行させる。
<基本原理>
まず、実施形態によるドメイン適応の基本原理を説明する。実施形態は、限られた量のターゲットドメインの評価用データを用いてドメイン適応を行う点に特徴を有する。ここで、「ドメイン」とは、例えばデータが得られた場所、時間、環境などの条件により規定されるデータの領域であり、これらの条件が共通するデータが同一のドメインのデータとなる。例えば、同じ場所で撮影された画像データであっても、時間が違ったり、カメラ特性が違ったりした場合は、異なるドメインの画像データとなる。また、同じ場所で同一のカメラで撮影された画像データであっても、撮影画像のスケール比、照明条件、カメラの向き、カメラの画角などの撮影条件が異なる場合は、異なるドメインの画像データとなる。以下では、モデルの学習に用いられるドメインを「ソースドメイン」と呼び、その学習により得られたモデルを適用するドメインを「ターゲットドメイン」と呼ぶ。
次に、本発明の第1実施形態について説明する。
[モデル生成装置]
まず、モデル生成装置について詳しく説明する。
(ハードウェア構成)
図2は、第1実施形態に係るモデル生成装置のハードウェア構成を示すブロック図である。モデル生成装置10は、コンピュータを用いて構成され、複数のソースドメインの学習用データを用いて、使用する認識モデルのパラメータを学習する。
次に、モデル生成装置10の機能構成について説明する。図3は、モデル生成装置10の機能構成を示すブロック図である。図示のように、モデル生成装置10は、機能的には、モデルパラメータ学習部15と、関連性情報生成部16と、を備える。
次に、モデル生成装置10により実行されるモデル生成処理について説明する。図4は、モデル生成処理のフローチャートである。この処理は、図2に示すプロセッサ11が、予め用意されたプログラムを実行することにより実現される。
次に、モデル調整装置について詳しく説明する。
(ハードウェア構成)
図5は、実施形態に係るモデル調整装置のハードウェア構成を示すブロック図である。モデル調整装置50は、コンピュータを用いて構成される。モデル調整装置50は、モデル生成装置10が生成したソースドメイン毎の学習済モデルパラメータと、媒介パラメータ関連性情報とを用いて、ターゲットドメインに適応した認識モデル(以下、「ターゲットモデル」とも呼ぶ。)のパラメータ(以下、「ターゲットモデルパラメータ」とも呼ぶ。)を生成する。
次に、モデル調整装置50の機能構成について説明する。図6は、モデル調整装置50の機能構成を示すブロック図である。図示のように、モデル調整装置50は、機能的には、媒介パラメータ反映部54と、性能評価部55と、評価結果保存部56と、媒介パラメータ調整部57と、パラメータ保存部58と、を備える。
次に、モデル調整装置50により実行されるモデル調整処理について説明する。図7は、モデル調整処理のフローチャートである。この処理は、図5に示すプロセッサ51が、予め用意されたプログラムを実行することにより実現される。
次に、モデル生成装置10によるモデル生成処理の実施例について説明する。
(第1実施例)
第1実施例は、媒介パラメータ関連性情報を、複数のソースドメインの学習済モデルパラメータの差分を用いて表現するものである。図8は、モデル生成処理の第1実施例に係る媒介パラメータ関連性情報を模式的に示す。図8は、媒介パラメータにより規定されるモデル空間を模式的に示している。
ここで、「a」、「b」は媒介パラメータである。
このように、第1実施例では、基本ドメインに対する各ソースドメインの差分ベクトルで規定される空間を考え、媒介パラメータa、bを各差分ベクトル(w1-w0)、(w2-w0)に乗算する係数として規定する。これにより、学習モデルwは、図8に示すように、2つの媒介パラメータa、bにより規定されるモデル空間内に示される。
第2実施例は、媒介パラメータを、学習モデルを構成するニューラルネットワークに入力される変数として規定するものである。図9は、第2実施例による学習モデルの構成例を示す。この例では、ソースドメインの違いに対応する変数をドメイン情報dとし、これをニューラルネットワークの入力変数とする。即ち、ニューラルネットワークの入力層には、入力xに加えて、ドメイン情報dが入力変数として入力される。ドメイン情報dは、各ソースドメインにおいて相違する条件、例えば、画像データのスケール比、色温度、カメラの画角度などを用いることができる。
第3実施例は、媒介パラメータ関連性情報を複数のドメインの学習結果の辞書として、ターゲットドメインの評価用データにおける性能をもとに、複数のモデルパラメータ候補からいずれかのモデルパラメータを選択するものである。これは他の実施例の特別な場合であり、媒介パラメータが連続的にモデル空間を埋めない離散的な値であるとして扱うものとみなせる。このときのモデルパラメータ学習部15は、他のドメインでの学習済モデルパラメータとの差分を抑える必要はないため、それぞれの学習を独立して行ってもよい。
上記のように、本実施形態によれば、モデル調整装置50は、評価用データセットを用いて性能評価を行い、適切な媒介パラメータを決定することができる。よって、ターゲットドメインにおける大量のデータを学習用データとして用意する必要が無く、ターゲットドメインにおいて得られるデータ量が少なくても、ドメイン適応が可能となる。
次に、本発明の第2実施形態について説明する。図11(A)は、本発明の第2実施形態に係るモデル生成装置60の機能構成を示す。なお、モデル生成装置60のハードウェア構成は、図2に示すモデル生成装置10と同様である。図11(A)に示すように、モデル生成装置60は、学習部61と、関連性情報生成部62と、を備える。学習部61は、複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習する。関連性情報生成部62は、複数のソースドメインのモデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する。モデルの調整処理では、媒介パラメータを、ターゲットドメインの評価用データを用いて調整することにより、ターゲットドメインに適応したモデルを得ることができる。
上記の実施形態では、モデル生成装置とモデル調整装置とを別個の装置として構成しているが、両者の機能を合わせ持つ単一のモデル生成装置を構成しても良い。また、上記の実施形態では、モデルによる処理の対象を画像データとしているが、これは一例に過ぎず、他の各種のデータを対象とすることができる。
複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習する学習部と、
前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する関連性情報生成部と、
を備えるモデル生成装置。
前記学習部は、前記複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に学習済モデルパラメータを生成し、
前記関連性情報生成部は、前記ソースドメイン毎の学習済モデルパラメータを用いて、前記媒介パラメータと前記ソースドメイン毎の学習済モデルパラメータとの関連性を示す媒介パラメータ関連性情報を生成する付記1に記載のモデル生成装置。
前記媒介パラメータ関連性情報は、前記ソースドメイン毎の学習済モデルパラメータ間の差分ベクトルの線形結合により示され、
前記媒介パラメータは、前記差分ベクトルに乗算される係数である付記1又は2に記載のモデル生成装置。
前記差分ベクトルは、前記複数のソースドメインのうちの1つの基本ドメインの学習済モデルパラメータと、他のソースドメインの学習済モデルパラメータとの差分を示す付記3に記載のモデル生成装置。
前記基本ドメインは、前記複数のソースドメインのうち、最も学習用データ数が多いソースドメインである付記4に記載のモデル生成装置。
前記モデルは、ニューラルネットワークであり、
前記媒介パラメータは、前記ニューラルネットワークの入力層、又は、隠れ層の少なくとも1か所に入力される変数である付記1又は2に記載のモデル生成装置。
前記ソースドメイン毎の学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報を出力する出力部を備える付記2に記載のモデル生成装置。
前記複数のソースドメイン毎の学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成部と、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定部と、
を備える付記2に記載のモデル生成装置。
あるソースドメインの学習用データを分割し、複数のソースドメインにおける学習用データを生成するデータ生成部を備える付記1乃至8のいずれか一項に記載のモデル生成装置。
あるソースドメインの学習用データに対してデータ変換処理を適用し、複数のソースドメインにおける学習用データを生成するデータ生成部を備える付記1乃至8のいずれか一項に記載のモデル生成装置。
前記データ変換処理は、ドメインの違いに対応した変動を生成する処理である付記10に記載のモデル生成装置。
複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成部と、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定部と、
を備えるモデル調整装置。
前記決定部は、前記媒介パラメータの値を変化させて前記評価用データを用いた性能評価を行い、前記性能評価の結果が最も良いときの媒介パラメータの値を前記ターゲットモデルパラメータに含まれる媒介パラメータの値と決定する付記12に記載のモデル調整装置。
複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成するモデル生成方法。
複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定するモデル調整方法。
複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する処理をコンピュータに実行させるプログラムを記録した記録媒体。
複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
11、51 プロセッサ
12、52 メモリ
15 モデルパラメータ学習部
16 関連性情報生成部
50、70 モデル調整装置
54 媒介パラメータ反映部
55 性能評価部
57 媒介パラメータ調整部
Claims (10)
- 複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に目的の処理に使用するモデルを学習し、学習済のモデルのパラメータである学習済モデルパラメータを前記ソースドメイン毎に出力する学習手段と、
前記学習済モデルパラメータと、前記複数のソースドメインの差を示す媒介パラメータとの関連性を示す媒介パラメータ関連性情報を取得する関連性情報取得手段と、
前記学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むターゲットモデルのパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成手段と、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定手段と、
を備えるモデル生成装置。 - 前記関連性情報取得手段は、前記ソースドメイン毎の学習済モデルパラメータを用いて、前記媒介パラメータ関連性情報を生成する請求項1に記載のモデル生成装置。
- 前記媒介パラメータ関連性情報は、前記ソースドメイン毎の学習済モデルパラメータ間の差分ベクトルの線形結合により示され、
前記媒介パラメータは、前記差分ベクトルに乗算される係数である請求項1又は2に記載のモデル生成装置。 - 前記差分ベクトルは、前記複数のソースドメインのうちの1つの基本ドメインの学習済モデルパラメータと、他のソースドメインの学習済モデルパラメータとの差分を示す請求項3に記載のモデル生成装置。
- 前記基本ドメインは、前記複数のソースドメインのうち、最も学習用データ数が多いソースドメインである請求項4に記載のモデル生成置。
- 前記モデルは、ニューラルネットワークであり、
前記媒介パラメータは、前記ニューラルネットワークの入力層、又は、隠れ層の少なくとも1か所に入力される変数である請求項1又は2に記載のモデル生成装置。 - あるソースドメインの学習用データを分割し、複数のソースドメインにおける学習用データを生成するデータ生成手段を備える請求項1乃至6のいずれか一項に記載のモデル生成装置。
- あるソースドメインの学習用データに対してデータ変換処理を適用し、複数のソースドメインにおける学習用データを生成するデータ生成手段を備える請求項1乃至6のいずれか一項に記載のモデル生成装置。
- コンピュータにより実行されるモデル生成方法であって、
複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に目的の処理に使用するモデルを学習し、学習済のモデルのパラメータである学習済モデルパラメータを前記ソースドメイン毎に出力し、
前記学習済モデルパラメータと、前記複数のソースドメインの差を示す媒介パラメータとの関連性を示す媒介パラメータ関連性情報を取得し、
前記学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むターゲットモデルのパラメータであるターゲットモデルパラメータを生成し、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定するモデル生成方法。 - 複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に目的の処理に使用するモデルを学習し、学習済のモデルのパラメータである学習済モデルパラメータを前記ソースドメイン毎に出力し、
前記学習済モデルパラメータと、前記複数のソースドメインの差を示す媒介パラメータとの関連性を示す媒介パラメータ関連性情報を取得し、
前記学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むターゲットモデルのパラメータであるターゲットモデルパラメータを生成し、
前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/013974 WO2020202244A1 (ja) | 2019-03-29 | 2019-03-29 | モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体 |
JPPCT/JP2019/013974 | 2019-03-29 | ||
PCT/JP2019/025113 WO2020202591A1 (ja) | 2019-03-29 | 2019-06-25 | モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020202591A1 JPWO2020202591A1 (ja) | 2020-10-08 |
JP7251613B2 true JP7251613B2 (ja) | 2023-04-04 |
Family
ID=72666609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021511083A Active JP7251613B2 (ja) | 2019-03-29 | 2019-06-25 | モデル生成装置、モデル生成方法、及び、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220180195A1 (ja) |
JP (1) | JP7251613B2 (ja) |
WO (2) | WO2020202244A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023053419A1 (ja) * | 2021-09-30 | 2023-04-06 | 日本電信電話株式会社 | 処理装置及び処理方法 |
WO2023189737A1 (ja) * | 2022-03-28 | 2023-10-05 | 富士フイルム株式会社 | 情報処理方法、情報処理装置及びプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018081404A (ja) | 2016-11-15 | 2018-05-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 識別方法、識別装置、識別器生成方法及び識別器生成装置 |
-
2019
- 2019-03-29 WO PCT/JP2019/013974 patent/WO2020202244A1/ja active Application Filing
- 2019-06-25 US US17/598,422 patent/US20220180195A1/en active Pending
- 2019-06-25 WO PCT/JP2019/025113 patent/WO2020202591A1/ja active Application Filing
- 2019-06-25 JP JP2021511083A patent/JP7251613B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018081404A (ja) | 2016-11-15 | 2018-05-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 識別方法、識別装置、識別器生成方法及び識別器生成装置 |
Non-Patent Citations (2)
Title |
---|
ALUMAE, T.,"Multi-domain Neural Network Language Model",Proceedings of the 14th Annual Conference of the International Speech Communication Association (INT,[online],2013年08月29日,Pages 2182-2186,<https://www.isca-speech.org/archive/archive_papers/interspeech_2013/i13_2182.pdf> and <https://www.isca-speech.org/archive/interspeech_2013/i13_2182.html> and <https://www.isca-speech.org/archive/interspeech_2013/>.,ISSN: 2308-457X, [retrieved on 2019.06.05], Retrieved from the Internet |
MORIYA, T., et al.,"Progressive Neural Network-based Knowledge Transfer in Acoustic Models",Proceedings of 2018 Asia-Pacific Signal and Information Processing Association Annual Summit and Con,2018年11月15日,Pages 998-1002,ISBN: 978-988-14768-5-2, <DOI: 10.23919/APSIPA.2018.8659556>. |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020202591A1 (ja) | 2020-10-08 |
WO2020202591A1 (ja) | 2020-10-08 |
WO2020202244A1 (ja) | 2020-10-08 |
US20220180195A1 (en) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503128B (zh) | 使用卷积生成对抗网络进行波形合成的谱图 | |
CN108024762B (zh) | 耳形状分析方法、耳形状分析装置以及耳形状模型生成方法 | |
Hoogeboom et al. | Blurring diffusion models | |
Asif et al. | Fast and Accurate Algorithms for Re-Weighted $\ell _ {1} $-Norm Minimization | |
JP7251613B2 (ja) | モデル生成装置、モデル生成方法、及び、プログラム | |
US20190208320A1 (en) | Sound source separation device, and method and program | |
CN112633311A (zh) | 利用输入数据结构的高效黑盒对抗性攻击 | |
JP2019525214A (ja) | 音声認識 | |
WO2019146189A1 (ja) | ニューラルネットワークのランク最適化装置および最適化方法 | |
Badeau et al. | Fast and stable YAST algorithm for principal and minor subspace tracking | |
JP6673226B2 (ja) | 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体 | |
JP2006065863A (ja) | 画像マッチングのための適応可能な色情報 | |
KR20220032861A (ko) | 하드웨어에서의 성능을 고려한 뉴럴 아키텍처 서치 방법 빛 장치 | |
KR20230096901A (ko) | 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치 | |
Deck et al. | Easing color shifts in score-based diffusion models | |
Ju et al. | Adaptive semantic attribute decoupling for precise face image editing | |
Wu et al. | DRGS: Low-Precision Full Quantization of Deep Neural Network with Dynamic Rounding and Gradient Scaling for Object Detection | |
JP7487556B2 (ja) | モデル生成プログラム、モデル生成装置、及びモデル生成方法 | |
Garnica-Carrillo et al. | Multi-focus image fusion by local optimization over sliding windows | |
JP2018156619A (ja) | 連続最適化問題の大域的探索装置及びプログラム | |
Bociort et al. | Network structure of the set of local minima in optical system optimization | |
TW202022634A (zh) | 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法 | |
Mendes et al. | Hyper-parameter Tuning for Adversarially Robust Models | |
JP7055211B2 (ja) | データ処理システムおよびデータ処理方法 | |
Kabziński | Rank-Revealing Orthogonal Decomposition in Extreme Learning Machine Design |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210921 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230306 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7251613 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |