JP6856950B2 - 変換装置、変換方法、プログラム、ならびに、情報記録媒体 - Google Patents
変換装置、変換方法、プログラム、ならびに、情報記録媒体 Download PDFInfo
- Publication number
- JP6856950B2 JP6856950B2 JP2019136728A JP2019136728A JP6856950B2 JP 6856950 B2 JP6856950 B2 JP 6856950B2 JP 2019136728 A JP2019136728 A JP 2019136728A JP 2019136728 A JP2019136728 A JP 2019136728A JP 6856950 B2 JP6856950 B2 JP 6856950B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- feature vector
- conversion
- conversion device
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims description 116
- 238000000034 method Methods 0.000 title claims description 22
- 239000013598 vector Substances 0.000 claims description 196
- 238000012549 training Methods 0.000 claims description 70
- 238000013145 classification model Methods 0.000 claims description 45
- 230000009466 transformation Effects 0.000 claims description 17
- 238000007477 logistic regression Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000012706 support-vector machine Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000007637 random forest analysis Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 3
- 230000004913 activation Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
入力信号を第1信号に変換する第1ネットワークを学習し、
第1信号を第2信号に変換する第2ネットワークを学習し、
第2信号を出力信号に変換する第3ネットワークを学習し、
訓練用入力信号を訓練用第1信号にエンコードして訓練用入力信号にデコードする第1オートエンコーダのエンコード部分として第1ネットワークを学習し、
訓練用第1信号に対応する訓練用第2信号を教師データとしてバックプロパゲーションにより第2ネットワークを学習し、
訓練用第2信号は、訓練用第3信号を訓練用第2信号にエンコードして訓練用第3信号にデコードする第2オートエンコーダのエンコード部分により生成される。
複数の訓練ベクトルを、ランダムに、複数のグループに分割し、
前記複数の訓練ベクトルから前記変換モデルによりそれぞれ変換された特徴ベクトルを、第1分類モデルにより、前記複数のグループのいずれかに分類し、
前記複数の訓練ベクトルと、前記複数の訓練ベクトルがそれぞれ分割されたグループと、からなる第1教師データにより、前記変換モデルと、前記第1分類モデルと、を学習する。
本実施形態に係る変換装置は、典型的には、プログラムをコンピュータが実行することによって実現される。当該コンピュータは、各種の出力装置や入力装置に接続され、これらの機器と情報を送受する。
図1は、本発明の実施形態に係る変換装置の基本構成を示す説明図である。図2は、本発明の実施形態に係る変換装置に付加的な要素を追加した構成を示す説明図である。以下、これらの図を参照して概要を説明する。
v1∈Gg(1), v2∈Gg(2), …, vN∈Gg(N)
v1∈Cc(1), v2∈Cc(2), …, vN∈Cc(N)
(v1, g(1)),
(v2, g(2)),
…,
(vN, g(N))
を生成する(ステップS2003)。第1教師データは、各訓練ベクトルをランダムラベル(グループラベル)に対応付けるものである。
(p(v1), c(1)),
(p(v2), c(2)),
…,
(p(vN), c(N))
を生成する(ステップS2005)。ステップS2004における変換モデル1101および第1分類モデル1201の学習においては、訓練ベクトルを特徴ベクトルに変換する。したがって、訓練ベクトルvi (i=1, 2, …, N)が学習済の変換モデル1101により変換される特徴ベクトルp(vi)は、ステップS2004における処理で計算済みである。ここでは、この計算済みの特徴ベクトルp(vi)と、元の訓練ベクトルviに対して付された正解ラベルc(i)と、を、第2教師データとして利用する。
(v1, c(1)),
(v2, c(2)),
…,
(vN, c(N))
を採用することも可能である。この場合は、変換装置1001における学習済の変換モデル1101は更新せずに、第2分類モデル1202を更新すれば良い。
変換装置1001は、学習された変換モデル1101により、新たな入力ベクトルyを新たな特徴ベクトルp(y)に変換し(ステップS2008)、
第2分類部1005は、学習された第2分類モデル1202により、新たな特徴ベクトルp(y)に対するラベルを求めることにより、複数のクラスC1, C2, …, CLのいずれかに分類する(ステップS2009)。
すなわち、入力ベクトルyは、特徴ベクトルp(y)が分類されたクラスに分類されることになる。
(v1, c(1)),
(v2, c(2)),
…,
(vN, c(N))
を利用した場合に比べて、精度ならびに得られる特徴ベクトルのスパース性が向上することがわかっている。
10種類の事物の写真を分類するCIFAR-10について、オートエンコーダと本実施形態に係る変換装置1001とを比較する実験をおこなった。
input_img = Input((x_train.shape[1], x_train.shape[2], x_train.shape[3]));
x1 = Conv2D(8, (2,2), strides=(2,2), activation='relu', padding='same')(input_img);
encoded = Flatten()(x1);
x2 = Reshape((16,16,8), input_shape=(2048,))(encoded);
x3 = Conv2D(8, (2,2), strides=(2,2), activation='relu', padding='same')(x2);
x4 = Flatten()(x3);
last = Dense(L, activation='softmax')(x4);
判定精度 38.2%
特徴ベクトルにおけるゼロ要素割合 11.8%
ロジスティック回帰の学習時間 6745.6秒
判定精度 44.8%
特徴ベクトルにおけるゼロ要素割合 55.1%
ロジスティック回帰の学習時間 643.1秒
判定精度 44.7%
特徴ベクトルにおけるゼロ要素割合 59.7%
ロジスティック回帰の学習時間 378.8秒
判定精度 45.2%
特徴ベクトルにおけるゼロ要素割合 49.7%
ロジスティック回帰の学習時間 798.4秒
以上説明したように、本実施形態に係る変換装置は、与えられた入力ベクトルを、変換モデルにより、特徴ベクトルへ変換する変換装置であって、
複数の訓練ベクトルを、ランダムに、複数のグループに分割する分割部、
前記複数の訓練ベクトルから前記変換モデルによりそれぞれ変換された特徴ベクトルを、第1分類モデルにより、前記複数のグループのいずれかに分類する第1分類部、
前記複数の訓練ベクトルと、前記複数の訓練ベクトルがそれぞれ分割されたグループと、からなる第1教師データにより、前記変換モデルと、前記第1分類モデルと、を学習する第1学習部
を備える。
前記複数の訓練ベクトルは、複数のクラスのいずれかにそれぞれ属し、
与えられたベクトルを、第2分類モデルにより、前記複数のクラスのいずれかに分類する第2分類部、
前記学習された変換モデルにより前記複数の訓練ベクトルがそれぞれ変換された特徴ベクトルと、前記複数の訓練ベクトルがそれぞれ属するクラスと、からなる第2教師データにより、前記第2分類モデルを学習する第2学習部
を備え、前記第2分類モデルが学習された後、新たな入力ベクトルが与えられると、
前記変換装置が、前記学習された変換モデルにより、前記新たな入力ベクトルを新たな特徴ベクトルに変換し、
前記第2分類部が、前記学習された第2分類モデルにより、前記新たな特徴ベクトルを、前記複数のクラスのいずれかに分類する
ことにより、前記新たな入力ベクトルを、前記新たな特徴ベクトルが分類されたクラスに分類する
ように構成することができる。
前記変換装置は、前記与えられた入力ベクトルを次元削減することにより、前記特徴ベクトルへ変換し、
前記特徴ベクトルの次元は、前記複数のクラスの数より大きい
ように構成することができる。
前記変換装置は、前記与えられた入力ベクトルを次元削減することにより、前記特徴ベクトルへ変換する
ように構成することができる。
前記特徴ベクトルの次元は、前記複数のグループの数より大きい
ように構成することができる。
前記変換装置は、前記与えられた入力ベクトルの次元を増大させることにより、前記特徴ベクトルへ変換する
ように構成することができる。
複数の訓練ベクトルを、ランダムに、複数のグループに分割する分割工程、
前記複数の訓練ベクトルから前記変換モデルによりそれぞれ変換された特徴ベクトルを、第1分類モデルにより、前記複数のグループのいずれかに分類する第1分類工程、
前記複数の訓練ベクトルと、前記複数の訓練ベクトルがそれぞれ分割されたグループと、からなる第1教師データにより、前記変換モデルと、前記第1分類モデルと、を学習する第1学習工程
を備える。
複数の訓練ベクトルを、ランダムに、複数のグループに分割する分割部、
前記複数の訓練ベクトルから前記変換モデルによりそれぞれ変換された特徴ベクトルを、第1分類モデルにより、前記複数のグループのいずれかに分類する第1分類部、
前記複数の訓練ベクトルと、前記複数の訓練ベクトルがそれぞれ分割されたグループと、からなる第1教師データにより、前記変換モデルと、前記第1分類モデルと、を学習する第1学習部
として機能させるように構成する。
1002 分割部
1003 第1分類部
1004 第1学習部
1005 第2分類部
1006 第2学習部
1101 変換モデル
1201 第1分類モデル
1202 第2分類モデル
Claims (11)
- 与えられた入力ベクトルを、変換モデルにより次元削減をした特徴ベクトルへ変換する変換装置であって、
複数の訓練ベクトルを、ランダムに、複数のグループに分割する分割部、
前記複数の訓練ベクトルから前記変換モデルによりそれぞれ変換された特徴ベクトルを、第1分類モデルにより、前記複数のグループのいずれかに分類する第1分類部、
前記複数の訓練ベクトルと、前記複数の訓練ベクトルがそれぞれ分割されたグループと、からなる第1教師データにより、前記変換モデルと、前記第1分類モデルと、を学習する第1学習部
を備えることにより、
前記特徴ベクトルのスパース性を高めることを特徴とする変換装置。 - 前記変換装置は、オートエンコーダの前半のエンコード部により、前記次元削減をする
ことを特徴とする請求項1に記載の変換装置。 - 前記複数の訓練ベクトルは、複数のクラスのいずれかにそれぞれ属し、
与えられたベクトルを、第2分類モデルにより、前記複数のクラスのいずれかに分類する第2分類部、
前記学習された変換モデルにより前記複数の訓練ベクトルがそれぞれ変換された特徴ベクトルと、前記複数の訓練ベクトルがそれぞれ属するクラスと、からなる第2教師データにより、前記第2分類モデルを学習する第2学習部
を備え、前記第2分類モデルが学習された後、新たな入力ベクトルが与えられると、
前記変換装置が、前記学習された変換モデルにより、前記新たな入力ベクトルを新たな特徴ベクトルに変換し、
前記第2分類部が、前記学習された第2分類モデルにより、前記新たな特徴ベクトルを、前記複数のクラスのいずれかに分類する
ことにより、前記新たな入力ベクトルを、前記新たな特徴ベクトルが分類されたクラスに分類する
ことを特徴とする請求項1または2に記載の変換装置。 - 前記特徴ベクトルの次元は、前記複数のクラスの数より大きい
ことを特徴とする請求項3に記載の変換装置。 - 前記特徴ベクトルの次元は、前記複数のグループの数より大きい
ことを特徴とする請求項4に記載の変換装置。 - 前記第2分類モデルは、ロジスティック回帰、リッジ回帰、ラッソ回帰、SVM(Support Vector Machine)、ランダムフォレスト、もしくは、ニューラルネットワークにより前記特徴ベクトルを分類する
ことを特徴とする請求項3に記載の変換装置。 - 前記分割部が前記複数の訓練ベクトルを複数のグループのそれぞれにランダムに分割する確率には、互いに等しくないものがある
ことを特徴とする請求項1から3のいずれか1項に記載の変換装置。 - 前記変換装置は、出力レイヤー数8の第1畳み込みニューラルネットワークにより、前記次元削減をし、
前記第1分類部は、出力レイヤー数8の第2畳み込みニューラルネットワークにより、前記特徴ベクトルを分類する
ことを特徴とする請求項1に記載の変換装置。 - 与えられた入力ベクトルを、変換モデルにより次元削減をした特徴ベクトルへ変換する変換装置が実行する変換方法であって、
複数の訓練ベクトルを、ランダムに、複数のグループに分割する分割工程、
前記複数の訓練ベクトルから前記変換モデルによりそれぞれ変換された特徴ベクトルを、第1分類モデルにより、前記複数のグループのいずれかに分類する第1分類工程、
前記複数の訓練ベクトルと、前記複数の訓練ベクトルがそれぞれ分割されたグループと、からなる第1教師データにより、前記変換モデルと、前記第1分類モデルと、を学習する第1学習工程
を備えることにより、
前記特徴ベクトルのスパース性を高めることを特徴とする変換方法。 - 与えられた入力ベクトルを、変換モデルにより次元削減をした特徴ベクトルへ変換するコンピュータを、
複数の訓練ベクトルを、ランダムに、複数のグループに分割する分割部、
前記複数の訓練ベクトルから前記変換モデルによりそれぞれ変換された特徴ベクトルを、第1分類モデルにより、前記複数のグループのいずれかに分類する第1分類部、
前記複数の訓練ベクトルと、前記複数の訓練ベクトルがそれぞれ分割されたグループと、からなる第1教師データにより、前記変換モデルと、前記第1分類モデルと、を学習する第1学習部
として機能させることにより、
前記特徴ベクトルのスパース性を高めることを特徴とするプログラム。 - 請求項10に記載のプログラムを記録した非一時的なコンピュータ読み取り可能な情報記録媒体。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019136728A JP6856950B2 (ja) | 2019-07-25 | 2019-07-25 | 変換装置、変換方法、プログラム、ならびに、情報記録媒体 |
EP20844326.7A EP4006789A4 (en) | 2019-07-25 | 2020-07-10 | Conversion device, conversion method, program, and information recording medium |
PCT/JP2020/027103 WO2021015016A1 (ja) | 2019-07-25 | 2020-07-10 | 変換装置、変換方法、プログラム、ならびに、情報記録媒体 |
CN202080053229.5A CN114175053A (zh) | 2019-07-25 | 2020-07-10 | 转换装置、转换方法、程序以及信息记录介质 |
US17/627,847 US20220261641A1 (en) | 2019-07-25 | 2020-10-07 | Conversion device, conversion method, program, and information recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019136728A JP6856950B2 (ja) | 2019-07-25 | 2019-07-25 | 変換装置、変換方法、プログラム、ならびに、情報記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022031A JP2021022031A (ja) | 2021-02-18 |
JP6856950B2 true JP6856950B2 (ja) | 2021-04-14 |
Family
ID=74193223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019136728A Active JP6856950B2 (ja) | 2019-07-25 | 2019-07-25 | 変換装置、変換方法、プログラム、ならびに、情報記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220261641A1 (ja) |
EP (1) | EP4006789A4 (ja) |
JP (1) | JP6856950B2 (ja) |
CN (1) | CN114175053A (ja) |
WO (1) | WO2021015016A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020066257A1 (ja) * | 2018-09-26 | 2021-08-30 | 国立研究開発法人理化学研究所 | 分類装置、分類方法、プログラム、ならびに、情報記録媒体 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230185906A1 (en) * | 2021-12-15 | 2023-06-15 | Blackberry Limited | Methods and systems for fingerprinting malicious behavior |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104640211B (zh) * | 2013-11-08 | 2019-06-25 | 电信科学技术研究院 | 一种发送和接收数据的方法、系统及设备 |
JP2018156451A (ja) | 2017-03-17 | 2018-10-04 | 株式会社東芝 | ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム |
CN110506278B (zh) * | 2017-04-19 | 2023-11-10 | 西门子医疗有限公司 | 隐空间中的目标检测 |
JP6923159B2 (ja) * | 2017-09-26 | 2021-08-18 | 株式会社エクォス・リサーチ | 情報処理装置 |
JP6577074B2 (ja) | 2018-02-08 | 2019-09-18 | 杉山電機システム株式会社 | ミスフィード検出装置 |
-
2019
- 2019-07-25 JP JP2019136728A patent/JP6856950B2/ja active Active
-
2020
- 2020-07-10 EP EP20844326.7A patent/EP4006789A4/en active Pending
- 2020-07-10 CN CN202080053229.5A patent/CN114175053A/zh active Pending
- 2020-07-10 WO PCT/JP2020/027103 patent/WO2021015016A1/ja active Application Filing
- 2020-10-07 US US17/627,847 patent/US20220261641A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020066257A1 (ja) * | 2018-09-26 | 2021-08-30 | 国立研究開発法人理化学研究所 | 分類装置、分類方法、プログラム、ならびに、情報記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN114175053A (zh) | 2022-03-11 |
EP4006789A1 (en) | 2022-06-01 |
WO2021015016A1 (ja) | 2021-01-28 |
US20220261641A1 (en) | 2022-08-18 |
JP2021022031A (ja) | 2021-02-18 |
EP4006789A4 (en) | 2023-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113705588B (zh) | 基于卷积自注意力模块的孪生网络目标跟踪方法与系统 | |
US11526722B2 (en) | Data analysis apparatus, data analysis method, and data analysis program | |
JP6856950B2 (ja) | 変換装置、変換方法、プログラム、ならびに、情報記録媒体 | |
WO2020258902A1 (zh) | 图像生成和神经网络训练方法、装置、设备和介质 | |
JP7130905B2 (ja) | フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 | |
CN114863407B (zh) | 一种基于视觉语言深度融合的多任务冷启动目标检测方法 | |
CN113592041B (zh) | 图像处理方法、装置、设备、存储介质及计算机程序产品 | |
CN109711442B (zh) | 无监督逐层生成对抗特征表示学习方法 | |
CN110188827A (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
CN111340785A (zh) | 模型训练方法、产品表面缺陷检测方法和存储介质 | |
KR20190130443A (ko) | 뉴럴 네트워크의 양자화 방법 및 장치 | |
CN116703642A (zh) | 基于数字孪生技术的产品制造生产线智能管理系统 | |
Pagola et al. | Use of owa operators for feature aggregation in image classification | |
CN116168394A (zh) | 图像文本识别方法和装置 | |
CN113963241B (zh) | Fpga硬件架构及其数据处理方法、存储介质 | |
KR20110057595A (ko) | 상호 정보 최대화 기반의 국부 이진 패턴 코드를 이용한 패턴 인식 방법, 장치 및 그 기록 매체 | |
Chu et al. | Mixed-precision quantized neural network with progressively decreasing bitwidth for image classification and object detection | |
Chung et al. | Filter pruning by image channel reduction in pre-trained convolutional neural networks | |
KR20210038027A (ko) | 신경망 압축 훈련 방법 및 압축된 신경망을 이용하는 방법 | |
Deepak et al. | Multi-class weather classification using single image via feature fusion and selection | |
CN117036832B (zh) | 一种基于随机多尺度分块的图像分类方法、装置及介质 | |
WO2024103997A1 (zh) | 手写体识别方法、手写体识别模型的训练方法及装置 | |
Ahmed et al. | Enhancing CNN Model by Incorporating Upscaling and Downscaling Techniques for Image Classification | |
SINGH et al. | Development of a local binary pattern descriptor for texture analysis using deep convolutional neural network | |
Chakrapani et al. | Implementation of Fractal Image Compression Employing Hybrid Genetic-Neural Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201124 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201124 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856950 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |