JP7214822B1 - Cam基盤の弱教師あり学習物体探知装置及び方法 - Google Patents
Cam基盤の弱教師あり学習物体探知装置及び方法 Download PDFInfo
- Publication number
- JP7214822B1 JP7214822B1 JP2021196551A JP2021196551A JP7214822B1 JP 7214822 B1 JP7214822 B1 JP 7214822B1 JP 2021196551 A JP2021196551 A JP 2021196551A JP 2021196551 A JP2021196551 A JP 2021196551A JP 7214822 B1 JP7214822 B1 JP 7214822B1
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- cam
- binarization
- weight vector
- supervised learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000001514 detection method Methods 0.000 title claims abstract description 63
- 239000013598 vector Substances 0.000 claims abstract description 83
- 230000004913 activation Effects 0.000 claims abstract description 53
- 238000011176 pooling Methods 0.000 claims abstract description 25
- 230000008569 process Effects 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 30
- 230000004807 localization Effects 0.000 claims description 18
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000001994 activation Methods 0.000 description 47
- 238000010586 diagram Methods 0.000 description 10
- 238000011160 research Methods 0.000 description 10
- 238000010200 validation analysis Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 101150041570 TOP1 gene Proteins 0.000 description 5
- 244000290333 Vanilla fragrans Species 0.000 description 4
- 235000009499 Vanilla fragrans Nutrition 0.000 description 4
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 208000023445 Congenital pulmonary airway malformation Diseases 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000012827 research and development Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000271566 Aves Species 0.000 description 2
- 238000002679 ablation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000287436 Turdus merula Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
[この発明を支援した国家研究開発事業]
[課題固有番号] 1711126082
[課題番号] 2020-0-01361-002
[省庁名] 科学技術情報通信部
[課題管理(専門)機関名] 情報通信企画評価院
[研究事業名] 情報通信放送研究開発事業
[研究課題名] 人工知能大学院支援(延世大学校)
[寄与率] 1/2
[課題実行機関名] 延世大学校産学協力団
[研究期間] 2021.01.01~2021.12.31
[この発明を支援した国家研究開発事業]
[課題固有番号] 1711134177
[課題番号] 2019R1A2C2003760
[省庁名] 科学技術情報通信部
[課題管理(専門)機関名] 韓国研究財団
[研究事業名] 中堅研究者支援事業
[研究課題名] 特性情報自動生成を介しての初めて見る複合カテゴリーのイメージとビデオ生成及び認識のためのゼロショット学習技術研究
[寄与率] 1/2
[課題実行機関名] 延世大学校
[研究期間] 2021.03.01~2022.02.28
本発明に関する説明は、構造的ないし機能的説明のための実施形態に過ぎないので、本発明の権利範囲は、本文に説明する実施形態によって制限されると解釈されてはならない。すなわち、実施形態は、様々な変更が可能であり、種々の形態を有することができるので、本発明の権利範囲は、技術的思想を実現できる均等物等を含むと理解されなければならない。また、本発明において提示した目的または効果は、特定実施形態がこれを全部含むべきであるとか、そのような効果だけを含むべきであるという意味ではないので、本発明の権利範囲は、これによって制限されると理解されてはならないであろう。
は、c番目のターゲットクラス(target class)の加重値に対する最適閾値であり、c∈C(Cは、対象クラスの個数)であり、w∈W(Wは、加重値ベクトル)であり、θwは、相対閾値である。すなわち、加重値ベクトル二値化部120は、上記の[数1]を利用して分類のためのターゲットクラス別に加重値二値化のための最適閾値を決定できる。
[数2]を利用して第2二値化を行うことができる。
は、c番目の対象クラスの加重値に対する最適閾値であり、c∈C(Cは、対象クラスの個数)であり、w∈W(Wは、加重値ベクトル)であり、θwは、相対閾値である。一方、θw=0であるとき、本発明は、PsyNetのCAAMと同一であることができる。
110 フィーチャマップ抽出部
120 加重値ベクトル二値化部
130 フィーチャマップ二値化部
140 クラス活性化マップ生成部
410 最後のコンボリューションレイヤ
420 フィーチャベクトル
430 リニアレイヤの加重値
440 フィーチャマップのチャネル
450 活性化マップ
Claims (13)
- イメージをCNN(Convolutional Neural Network)に適用する過程で前記CNNにある最後のコンボリューションレイヤのフィーチャマップを抽出するフィーチャマップ抽出部と、
前記フィーチャマップを、フィーチャベクトルを生成するプーリングレイヤとクラスラベル(label)を生成するリニアレイヤとに順次適用する過程で前記リニアレイヤの加重値ベクトルを第1二値化する加重値ベクトル二値化部と、
前記第1二値化された加重値ベクトルを基に前記フィーチャマップを第2二値化するフィーチャマップ二値化部と、
前記第2二値化されたフィーチャマップを基に物体探知(object localization)のためのクラス活性化マップ(Class Activation Map)を生成するクラス活性化マップ生成部と、
を備えることを特徴とするCAM基盤の弱教師あり学習物体探知(WSOL、Weakly Supervised Object Localization)装置。 - 前記プーリングレイヤは、
前記フィーチャマップに対して全域平均プーリング(global average pooling)を行って前記フィーチャベクトルを生成するように実現されることを特徴とする請求項1に記載のCAM基盤の弱教師あり学習物体探知装置。 - 前記加重値ベクトル二値化部は、
閾値を基準に前記加重値ベクトルに対する前記第1二値化を行うことを特徴とする請求項1に記載のCAM基盤の弱教師あり学習物体探知装置。 - 前記加重値ベクトル二値化部は、
前記閾値を最適化するために、複数の相対閾値を基にグリッド探索(grid search)を行うことを特徴とする請求項3に記載のCAM基盤の弱教師あり学習物体探知装置。 - 前記フィーチャマップ二値化部は、
前記第1二値化された加重値ベクトルを前記フィーチャマップに適用して、当該フィーチャマップのチャネルのうち、少なくとも1つの一部チャネルを選択することを特徴とする請求項1に記載のCAM基盤の弱教師あり学習物体探知装置。 - 前記フィーチャマップ二値化部は、
フィーチャ二値化閾値(feature binarize threshold)を基準に前記少なくとも1つの一部チャネルに対する前記第2二値化を行うことを特徴とする請求項6に記載のCAM基盤の弱教師あり学習物体探知装置。 - 前記クラス活性化マップ生成部は、
前記第2二値化された前記少なくとも1つの一部チャネルを集計して前記クラス活性化マップを生成することを特徴とする請求項7に記載のCAM基盤の弱教師あり学習物体探知装置。 - イメージをCNN(Convolutional Neural Network)に適用する過程で前記CNNにある最後のコンボリューションレイヤのフィーチャマップを抽出するステップと、
前記フィーチャマップを、フィーチャベクトルを生成するプーリングレイヤとクラスラベル(label)を生成するリニアレイヤとに順次適用する過程で前記リニアレイヤの加重値ベクトルを第1二値化するステップと、
前記第1二値化された加重値ベクトルを基に前記フィーチャマップを第2二値化するステップと、
前記第2二値化されたフィーチャマップを基に物体探知(object localization)のためのクラス活性化マップ(Class Activation Map)を生成するステップと、
を含むことを特徴とするCAM基盤の弱教師あり学習物体探知(WSOL、Weakly Supervised Object Localization)方法。 - 前記第1二値化するステップは、
閾値を基準に前記加重値ベクトルに対する前記第1二値化を行うステップを含むことを特徴とする請求項10に記載のCAM基盤の弱教師あり学習物体探知方法。 - 前記第2二値化するステップは、
前記第1二値化された加重値ベクトルを前記フィーチャマップに適用して、当該フィーチャマップのチャネルのうち、少なくとも1つの一部チャネルを選択するステップを含むことを特徴とする請求項10に記載のCAM基盤の弱教師あり学習物体探知方法。 - 前記第2二値化するステップは、
フィーチャ二値化閾値(feature binarize threshold)を基準に前記少なくとも1つの一部チャネルに対する前記第2二値化を行うステップを含むことを特徴とする請求項12に記載のCAM基盤の弱教師あり学習物体探知方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0125952 | 2021-09-23 | ||
KR1020210125952A KR20230042994A (ko) | 2021-09-23 | 2021-09-23 | Cam 기반의 약한 지도학습 물체탐지 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7214822B1 true JP7214822B1 (ja) | 2023-01-30 |
JP2023046368A JP2023046368A (ja) | 2023-04-04 |
Family
ID=85078893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021196551A Active JP7214822B1 (ja) | 2021-09-23 | 2021-12-02 | Cam基盤の弱教師あり学習物体探知装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11977607B2 (ja) |
JP (1) | JP7214822B1 (ja) |
KR (1) | KR20230042994A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893743A (zh) * | 2024-03-18 | 2024-04-16 | 山东军地信息技术集团有限公司 | 一种基于通道加权和双对比学习的零样本目标检测方法 |
WO2024185106A1 (ja) * | 2023-03-09 | 2024-09-12 | 三菱電機株式会社 | 物体検出装置及び物体検出方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102587288B1 (ko) * | 2023-07-10 | 2023-10-10 | 연세대학교 산학협력단 | 건설객체 데이터셋의 의미적 분할 모델의 학습을 위한 자기 지도학습 기반의 고품질 의사 라벨 생성시스템 및 생성방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489081A (zh) | 2020-11-30 | 2021-03-12 | 北京航空航天大学 | 一种视觉目标跟踪方法及装置 |
US10970645B1 (en) | 2020-05-08 | 2021-04-06 | StradVision, Inc. | Method for explainable active learning, to be used for object detector, by using Bayesian dual autoencoder and active learning device using the same |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7135504B2 (ja) * | 2018-07-02 | 2022-09-13 | カシオ計算機株式会社 | 画像識別装置、画像識別方法及びプログラム |
KR102051032B1 (ko) | 2018-08-01 | 2019-12-02 | 경북대학교 산학협력단 | 객체 탐지 장치 및 제어 방법 |
KR102394314B1 (ko) * | 2019-06-28 | 2022-05-03 | 경북대학교 산학협력단 | 고문서 이미지 광학 문자 판독 장치 및 방법 |
JP7542802B2 (ja) * | 2019-07-25 | 2024-09-02 | 学校法人中部大学 | ニューラルネットワークを用いた画像認識装置および画像認識装置に用いられるプログラム |
-
2021
- 2021-09-23 KR KR1020210125952A patent/KR20230042994A/ko not_active Application Discontinuation
- 2021-11-05 US US17/520,077 patent/US11977607B2/en active Active
- 2021-12-02 JP JP2021196551A patent/JP7214822B1/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10970645B1 (en) | 2020-05-08 | 2021-04-06 | StradVision, Inc. | Method for explainable active learning, to be used for object detector, by using Bayesian dual autoencoder and active learning device using the same |
CN112489081A (zh) | 2020-11-30 | 2021-03-12 | 北京航空航天大学 | 一种视觉目标跟踪方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024185106A1 (ja) * | 2023-03-09 | 2024-09-12 | 三菱電機株式会社 | 物体検出装置及び物体検出方法 |
CN117893743A (zh) * | 2024-03-18 | 2024-04-16 | 山东军地信息技术集团有限公司 | 一种基于通道加权和双对比学习的零样本目标检测方法 |
CN117893743B (zh) * | 2024-03-18 | 2024-05-31 | 山东军地信息技术集团有限公司 | 一种基于通道加权和双对比学习的零样本目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
US11977607B2 (en) | 2024-05-07 |
JP2023046368A (ja) | 2023-04-04 |
US20230093503A1 (en) | 2023-03-23 |
KR20230042994A (ko) | 2023-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7214822B1 (ja) | Cam基盤の弱教師あり学習物体探知装置及び方法 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
Kong et al. | Foveabox: Beyound anchor-based object detection | |
Masana et al. | Metric learning for novelty and anomaly detection | |
Xu et al. | Segregated temporal assembly recurrent networks for weakly supervised multiple action detection | |
Xia et al. | A survey on temporal action localization | |
KR102690208B1 (ko) | Ai 기반으로 딥 러닝 네트워크를 학습시키는 방법 및 이를 이용한 학습 장치 | |
Du et al. | Fused deep neural networks for efficient pedestrian detection | |
CN113408605A (zh) | 基于小样本学习的高光谱图像半监督分类方法 | |
Wang et al. | Describe and attend to track: Learning natural language guided structural representation and visual attention for object tracking | |
Schwartz et al. | Repmet: Representative-based metric learning for classification and one-shot object detection | |
CN107220663B (zh) | 一种基于语义场景分类的图像自动标注方法 | |
Ren et al. | Evaluating generalization ability of convolutional neural networks and capsule networks for image classification via top-2 classification | |
Cheng et al. | Deep adaptive proposal network for object detection in optical remote sensing images | |
Shen et al. | Learning from adversarial features for few-shot classification | |
Kim et al. | Suppressing spoof-irrelevant factors for domain-agnostic face anti-spoofing | |
CN112990282A (zh) | 一种细粒度小样本图像的分类方法及装置 | |
Yu et al. | Exemplar-based recursive instance segmentation with application to plant image analysis | |
Cao et al. | Adaptive refining-aggregation-separation framework for unsupervised domain adaptation semantic segmentation | |
Jiang et al. | Dynamic proposal sampling for weakly supervised object detection | |
CN110097067B (zh) | 一种基于层进式特征变换的弱监督细粒度图像分类方法 | |
Lee et al. | Probing the purview of neural networks via gradient analysis | |
CN117349786B (zh) | 基于数据均衡的证据融合变压器故障诊断方法 | |
Taghikhah et al. | Quantile-based maximum likelihood training for outlier detection | |
Sun et al. | KLSANet: Key local semantic alignment Network for few-shot image classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7214822 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |