JP2021193564A - 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 - Google Patents
機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP2021193564A JP2021193564A JP2021094808A JP2021094808A JP2021193564A JP 2021193564 A JP2021193564 A JP 2021193564A JP 2021094808 A JP2021094808 A JP 2021094808A JP 2021094808 A JP2021094808 A JP 2021094808A JP 2021193564 A JP2021193564 A JP 2021193564A
- Authority
- JP
- Japan
- Prior art keywords
- hypernetwork
- classification model
- parameter
- parameters
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
120 記憶ユニット
140 処理ユニット
142 データ拡張モデル
144 ハイパーネットワーク
146 分類モデル
200 機械学習方法
S210、S220、S230、S240 ステップ
S221、S222、S223、S224、S225 ステップ
S231、S232、S233、S234 ステップ
HP、HP1、HP2 ハイパーパラメータ
HNP、HNP1、HNP2 ハイパーネットワークパラメータ
MP1 第1の分類モデルパラメータ
MP2 第2の分類モデルパラメータ
MP1m、MP2m 好ましい分類モデルパラメータ
SP1 データ拡張空間
SP2 分類パラメータ空間
HPe1、HPe2、HPe3、HPe4 検索ハイパーパラメータ
MPe1、MPe2、MPe3、MPe4 検索分類モデルパラメータ
146e1、146e2、146e3、146e4 検索分類モデル
SL1、SL2、SL3、SL4、SL5 ニューラルネットワーク構造層
SL6、SL7、SL8、SLn ニューラルネットワーク構造層
P1 第1の構造層部分
P2 第2の構造層部分
TD トレーニングサンプル
LTD トレーニングラベル
ETD 拡張トレーニングサンプル
VD 検証サンプル
LVD 検証ラベル
LPD1 第1の予測ラベル
LPD2 第2の予測ラベル
L1 第1の損失
L2 第2の損失
Claims (20)
- (a)ハイパーパラメータ及びハイパーネットワークパラメータの初期値を取得するステップと、
(b)前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対して前記ハイパーネットワークパラメータを更新するステップと、
(c)前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対して前記ハイパーパラメータを更新するステップと、
(d)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを更新するように、ステップ(b)及び(c)を繰り返すステップと、
を含む機械学習方法。 - ステップ(b)は、
(b1)データ拡張モデルにより前記ハイパーパラメータに基づいて前記トレーニングサンプルに対してデータ拡張を行って拡張トレーニングサンプルを生成するステップと、
(b2)ハイパーネットワークにより前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第1の分類モデルパラメータに変換するステップと、
(b3)分類モデルにより前記第1の分類モデルパラメータに基づいて前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する第1の予測ラベルを生成するステップと、
(b4)前記第1の予測ラベルと前記トレーニングサンプルのトレーニングラベルとを比較することで生成された第1の損失に基づいて前記ハイパーネットワークパラメータを更新するステップと、を含む請求項1に記載の機械学習方法。 - ステップ(b2)は、
前記ハイパーネットワークにより前記ハイパーネットワークパラメータ及び複数の検索値に基づいて前記ハイパーパラメータを前記検索値に対応する複数の検索分類モデルパラメータに変換するステップを含み、
ステップ(b3)は、
前記分類モデルにより前記複数の検索分類モデルパラメータに基づいて、それぞれ前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する複数の第1の予測ラベルを生成する複数の検索分類モデルをそれぞれ形成するステップを含み、
ステップ(b4)は、
前記複数の第1の予測ラベルと前記トレーニングサンプルの前記トレーニングラベルとを比較することで前記複数の検索分類モデルに対応する複数の第1の損失を計算するステップと、
前記複数の検索分類モデル及びそれらに対応する前記複数の第1の損失に基づいて前記ハイパーネットワークパラメータを更新するステップと、を含む請求項2に記載の機械学習方法。 - ステップ(b4)において、
前記複数の第1の損失を得るように、前記複数の第1の予測ラベルのそれぞれと前記トレーニングラベルに対してクロスエントロピー計算を行う請求項3に記載の機械学習方法。 - 前記複数の検索分類モデルの各々は、複数のニューラルネットワーク構造層を含み、前記複数のニューラルネットワーク構造層は、第1の構造層部分と、前記第1の構造層部分に接続される第2の構造層部分とに分けられ、前記複数の検索分類モデルを形成するための前記複数の検索分類モデルパラメータの各々は、前記第1の構造層部分の動作を決定するための第1の重みパラメータコンテンツと、前記第2の構造層部分の動作を決定するための第2の重みパラメータコンテンツと、を含む請求項3に記載の機械学習方法。
- 前記複数の検索分類モデルの前記複数の第2の構造層部分は、同じ前記第2の重みパラメータコンテンツを共有し、前記複数の第2の構造層部分同士の動作論理は同じである請求項5に記載の機械学習方法。
- 前記第1の構造層部分は、少なくとも1つの第1の畳み込み層を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第1の畳み込み層同士は、重みパラメータが異なっている請求項5に記載の機械学習方法。
- 前記第2の構造層部分は、少なくとも1つの第2の畳み込み層と、少なくとも1つの完全接続層と、を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第2の畳み込み層同士及び前記少なくとも1つの完全接続層同士は、重みパラメータが同じである請求項5に記載の機械学習方法。
- ステップ(c)は、
(c1)ハイパーネットワークにより更新後の前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第2の分類モデルパラメータに変換するステップと、
(c2)分類モデルにより前記第2の分類モデルパラメータに基づいて前記検証サンプルを分類して前記検証サンプルに対応する第2の予測ラベルを生成するステップと、
(c3)前記第2の予測ラベルと前記検証サンプルの検証ラベルとを比較することで生成された第2の損失に基づいて前記ハイパーパラメータを更新するステップと、を含む請求項1に記載の機械学習方法。 - ステップ(c3)において、
前記第2の損失を得るように、前記第2の予測ラベルと前記検証ラベルに対してクロスエントロピー計算を行う請求項9に記載の機械学習方法。 - ハイパーパラメータ及びハイパーネットワークパラメータの初期値を記憶するための記憶ユニットと、
前記記憶ユニットに結合され、ハイパーネットワーク及び分類モデルを実行する処理ユニットと、を含み、
前記処理ユニットは、
(a)前記ハイパーネットワークにより前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記分類モデルにより前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果を生成することで、前記ハイパーネットワークパラメータを更新する操作と、
(b)前記ハイパーネットワークにより前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記分類モデルにより前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果を生成することで、前記ハイパーパラメータを更新する操作と、
(c)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを繰り返し更新するように、操作(a)及び(b)を繰り返す操作と、を行うことに用いられる機械学習システム。 - 前記処理ユニットは、更にデータ拡張モデルを実行するために用いられ、前記処理ユニットにより行われる操作(a)は、
(a1)前記データ拡張モデルにより前記ハイパーパラメータに基づいて前記トレーニングサンプルに対してデータ拡張を行って拡張トレーニングサンプルを生成することと、
(a2)前記ハイパーネットワークにより前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第1の分類モデルパラメータに変換することと、
(a3)前記分類モデルにより前記第1の分類モデルパラメータに基づいて前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する第1の予測ラベルを生成することと、
(a4)前記第1の予測ラベルと前記トレーニングサンプルのトレーニングラベルとを比較することで生成された第1の損失に基づいて前記ハイパーネットワークパラメータを更新することと、を含む請求項11に記載の機械学習システム。 - 前記処理ユニットにより行われる操作(a2)は、
前記ハイパーネットワークにより前記ハイパーネットワークパラメータ及び複数の検索値に基づいて前記ハイパーパラメータを前記検索値に対応する複数の検索分類モデルパラメータに変換することを含み、
前記処理ユニットにより行われる操作(a3)は、
前記分類モデルにより前記複数の検索分類モデルパラメータに基づいて、それぞれ前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する複数の第1の予測ラベルを生成する複数の検索分類モデルをそれぞれ形成することを含み、
前記処理ユニットにより行われる操作(a4)は、
前記複数の第1の予測ラベルと前記トレーニングサンプルの前記トレーニングラベルとを比較することで前記複数の検索分類モデルに対応する複数の第1の損失を計算することと、
前記複数の検索分類モデル及びそれらに対応する前記複数の第1の損失に基づいて前記ハイパーネットワークパラメータを更新することと、を含む請求項12に記載の機械学習システム。 - 前記処理ユニットにより行われる操作(a4)は、
前記複数の第1の損失を得るように、前記複数の第1の予測ラベルのそれぞれと前記トレーニングラベルに対してクロスエントロピー計算を行うことを含む請求項13に記載の機械学習システム。 - 前記複数の検索分類モデルの各々は、複数のニューラルネットワーク構造層を含み、前記複数のニューラルネットワーク構造層は、第1の構造層部分と、前記第1の構造層部分に接続される第2の構造層部分とに分けられ、前記複数の検索分類モデルを形成するための前記複数の検索分類モデルパラメータの各々は、前記第1の構造層部分の動作を決定するための第1の重みパラメータコンテンツと、前記第2の構造層部分の動作を決定するための第2の重みパラメータコンテンツと、を含む請求項13に記載の機械学習システム。
- 前記複数の検索分類モデルの前記複数の第2の構造層部分は、同じ前記第2の重みパラメータコンテンツを共有し、前記複数の第2の構造層部分同士の動作論理は同じである請求項15に記載の機械学習システム。
- 前記第1の構造層部分は、少なくとも1つの第1の畳み込み層を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第1の畳み込み層同士は、重みパラメータが異なっている請求項15に記載の機械学習システム。
- 前記第2の構造層部分は、少なくとも1つの第2の畳み込み層と、少なくとも1つの完全接続層と、を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第2の畳み込み層同士及び前記少なくとも1つの完全接続層同士は、重みパラメータが同じである請求項15に記載の機械学習システム。
- 前記処理ユニットにより行われる操作(b)は、
(b1)前記ハイパーネットワークにより更新後の前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第2の分類モデルパラメータに変換することと、
(b2)前記分類モデルにより前記第2の分類モデルパラメータに基づいて前記検証サンプルを分類して前記検証サンプルに対応する第2の予測ラベルを生成することと、
(b3)前記第2の予測ラベルと前記検証サンプルの検証ラベルとを比較することで生成された第2の損失に基づいて前記ハイパーパラメータを更新することと、を含む請求項11に記載の機械学習システム。 - 少なくとも1つの命令プログラムを含み、機械学習方法を実行するように、プロセッサにより前記少なくとも1つの命令プログラムを実行する非一時的コンピュータ可読記憶媒体であって、前記機械学習方法は、
(a)ハイパーパラメータ及びハイパーネットワークパラメータの初期値を取得するステップと、
(b)前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対して前記ハイパーネットワークパラメータを更新するステップと、
(c)前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対して前記ハイパーパラメータを更新するステップと、
(d)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを繰り返し更新するように、ステップ(b)及び(c)を繰り返すステップと、
を含む非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063034993P | 2020-06-05 | 2020-06-05 | |
US63/034,993 | 2020-06-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021193564A true JP2021193564A (ja) | 2021-12-23 |
JP7226696B2 JP7226696B2 (ja) | 2023-02-21 |
Family
ID=76283633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021094808A Active JP7226696B2 (ja) | 2020-06-05 | 2021-06-04 | 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210383224A1 (ja) |
EP (1) | EP3920102A1 (ja) |
JP (1) | JP7226696B2 (ja) |
KR (1) | KR20210152402A (ja) |
CN (1) | CN113762327A (ja) |
TW (1) | TWI831016B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102479679B1 (ko) * | 2021-12-31 | 2022-12-21 | 주식회사 애자일소다 | 데이터 증강과 오토 레이블링을 이용한 데이터 구축 장치 및 방법 |
KR102656568B1 (ko) * | 2022-03-31 | 2024-04-12 | 주식회사 에임퓨처 | 데이터를 분류하는 방법 및 장치 |
CN117877103B (zh) * | 2024-03-13 | 2024-05-24 | 宁波市眼科医院 | 一种基于深度元学习的角膜炎智能筛查方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190251439A1 (en) * | 2016-10-28 | 2019-08-15 | Google Llc | Neural architecture search |
WO2020070876A1 (ja) * | 2018-10-05 | 2020-04-09 | 日本電気株式会社 | 教師データ拡張装置、教師データ拡張方法およびプログラム |
JP2020087103A (ja) * | 2018-11-28 | 2020-06-04 | 株式会社ツバサファクトリー | 学習方法、コンピュータプログラム、分類器、及び生成器 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI675335B (zh) * | 2017-06-09 | 2019-10-21 | 宏達國際電子股份有限公司 | 訓練任務優化系統、訓練任務優化方法及其非暫態電腦可讀媒體 |
JP6773618B2 (ja) * | 2017-09-04 | 2020-10-21 | 株式会社東芝 | 学習装置、情報処理装置、学習方法およびプログラム |
KR102521054B1 (ko) * | 2017-10-18 | 2023-04-12 | 삼성전자주식회사 | 조기 중단에 기반한 심층 신경망의 연산 제어 방법 및 시스템 |
KR101864286B1 (ko) | 2017-11-10 | 2018-07-04 | 주식회사 한컴엠디에스 | 머신 러닝 알고리즘을 이용하는 방법 및 장치 |
JP7085158B2 (ja) * | 2018-04-26 | 2022-06-16 | 日本電信電話株式会社 | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム |
US10810996B2 (en) * | 2018-07-31 | 2020-10-20 | Nuance Communications, Inc. | System and method for performing automatic speech recognition system parameter adjustment via machine learning |
CN110163234B (zh) * | 2018-10-10 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置和存储介质 |
CN110110861B (zh) * | 2019-05-09 | 2021-11-26 | 北京市商汤科技开发有限公司 | 确定模型超参数及模型训练的方法和装置、存储介质 |
CN110231360B (zh) * | 2019-05-31 | 2020-06-26 | 华南农业大学 | 电镜像差的确定方法、消除方法及装置 |
CN110580496A (zh) * | 2019-07-11 | 2019-12-17 | 南京邮电大学 | 一种基于熵最小化的深度迁移学习系统及方法 |
CN110889489A (zh) * | 2019-11-08 | 2020-03-17 | 北京小米移动软件有限公司 | 神经网络的训练方法、图像识别方法及其装置 |
CN111126564B (zh) * | 2019-11-27 | 2023-08-08 | 东软集团股份有限公司 | 一种神经网络结构搜索方法、装置及设备 |
-
2021
- 2021-06-04 EP EP21177789.1A patent/EP3920102A1/en active Pending
- 2021-06-04 US US17/338,707 patent/US20210383224A1/en active Pending
- 2021-06-04 KR KR1020210072866A patent/KR20210152402A/ko unknown
- 2021-06-04 JP JP2021094808A patent/JP7226696B2/ja active Active
- 2021-06-04 CN CN202110621872.XA patent/CN113762327A/zh active Pending
- 2021-06-04 TW TW110120430A patent/TWI831016B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190251439A1 (en) * | 2016-10-28 | 2019-08-15 | Google Llc | Neural architecture search |
WO2020070876A1 (ja) * | 2018-10-05 | 2020-04-09 | 日本電気株式会社 | 教師データ拡張装置、教師データ拡張方法およびプログラム |
JP2020087103A (ja) * | 2018-11-28 | 2020-06-04 | 株式会社ツバサファクトリー | 学習方法、コンピュータプログラム、分類器、及び生成器 |
Also Published As
Publication number | Publication date |
---|---|
TW202147139A (zh) | 2021-12-16 |
JP7226696B2 (ja) | 2023-02-21 |
EP3920102A1 (en) | 2021-12-08 |
KR20210152402A (ko) | 2021-12-15 |
US20210383224A1 (en) | 2021-12-09 |
TWI831016B (zh) | 2024-02-01 |
CN113762327A (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11610115B2 (en) | Learning to generate synthetic datasets for training neural networks | |
US11640518B2 (en) | Method and apparatus for training a neural network using modality signals of different domains | |
US10275719B2 (en) | Hyper-parameter selection for deep convolutional networks | |
CN106204522B (zh) | 对单个图像的联合深度估计和语义标注 | |
JP2021193564A (ja) | 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 | |
WO2020151167A1 (zh) | 目标跟踪方法、装置、计算机装置及可读存储介质 | |
KR20170140214A (ko) | 신경망을 위한 훈련 기준으로서의 필터 특이성 | |
KR20180044295A (ko) | 트레이닝된 머신 학습 모델의 성능을 개선시키는 방법 | |
KR20180037192A (ko) | 미지의 클래스들의 검출 및 미지의 클래스들에 대한 분류기들의 초기화 | |
US10964033B2 (en) | Decoupled motion models for object tracking | |
JP7196218B2 (ja) | 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム | |
KR20180048930A (ko) | 분류를 위한 강제된 희소성 | |
US20210192343A1 (en) | Method and device for training generative adversarial network for converting between heterogeneous domain data | |
CN110956255A (zh) | 难样本挖掘方法、装置、电子设备及计算机可读存储介质 | |
CN110533046B (zh) | 一种图像实例分割方法、装置、计算机可读存储介质及电子设备 | |
US20190094941A1 (en) | Power state control of a mobile device | |
US20230237342A1 (en) | Adaptive lookahead for planning and learning | |
CN114926636A (zh) | 一种点云语义分割方法、装置、设备及存储介质 | |
CN116710974A (zh) | 在合成数据系统和应用程序中使用域对抗学习的域适应 | |
Divakarla et al. | Semantic Segmentation for Autonomous Driving | |
US20230229916A1 (en) | Scalable tensor network contraction using reinforcement learning | |
US11689750B2 (en) | Workload-based dynamic throttling of video processing functions using machine learning | |
US20240160888A1 (en) | Realistic, controllable agent simulation using guided trajectories and diffusion models | |
US20230290057A1 (en) | Action-conditional implicit dynamics of deformable objects | |
Tang | Traffic flow prediction using convolutional neural network accelerated by spark distributed cluster |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7226696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |