JP7166423B1 - 弱教師あり客体認識装置及び方法 - Google Patents
弱教師あり客体認識装置及び方法 Download PDFInfo
- Publication number
- JP7166423B1 JP7166423B1 JP2021192584A JP2021192584A JP7166423B1 JP 7166423 B1 JP7166423 B1 JP 7166423B1 JP 2021192584 A JP2021192584 A JP 2021192584A JP 2021192584 A JP2021192584 A JP 2021192584A JP 7166423 B1 JP7166423 B1 JP 7166423B1
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- final
- map
- deletion
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012217 deletion Methods 0.000 claims abstract description 79
- 230000037430 deletion Effects 0.000 claims abstract description 79
- 230000000873 masking effect Effects 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 32
- 238000011176 pooling Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims description 7
- 230000007423 decrease Effects 0.000 claims description 6
- 238000011160 research Methods 0.000 description 14
- 238000013527 convolutional neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 9
- 238000001994 activation Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 6
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012827 research and development Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000013036 Dopa-responsive dystonia due to sepiapterin reductase deficiency Diseases 0.000 description 1
- 241000976924 Inca Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 201000001195 sepiapterin reductase deficiency Diseases 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
Description
[この発明を支援した国家研究開発事業]
[課題固有番号] 1711126082
[課題番号] 2020-0-01361-002
[省庁名] 科学技術情報通信部
[課題管理(専門)機関名] 情報通信企画評価院
[研究事業名] 情報通信放送革新人材養成(R&D)
[研究課題名] 人工知能大学院支援(延世大学校)
[寄与率] 1/3
[課題実行機関名] 延世大学校産学協力団
[研究期間] 2021.01.01~2021.12.31
[この発明を支援した国家研究開発事業]
[課題固有番号] 1711134177
[課題番号] 2019R1A2C2003760
[省庁名] 科学技術情報通信部
[課題管理(専門)機関名] 韓国研究財団
[研究事業名] 中堅研究者支援事業
[研究課題名] 特性情報自動生成を介しての初めて見る複合カテゴリーのイメージとビデオ生成及び認識のためのゼロショット学習技術研究
[寄与率] 1/3
[課題実行機関名] 延世大学校
[研究期間] 2021.03.01~2022.02.28
[この発明を支援した国家研究開発事業]
[課題固有番号] 1711125843
[課題番号] 2018-0-00769-004
[省庁名] 科学技術情報通信部
[課題管理(専門)機関名] 情報通信企画評価院
[研究事業名] SWコンピューティング産業源泉技術開発(R&D、情報化)
[研究課題名] 人工知能システムのためのニューロムピックコンピューティングSWプラットフォーム技術開発
[寄与率] 1/3
[課題実行機関名] 韓国電子通信研究院
[研究期間] 2021.01.01~2021.12.31
本発明に関する説明は、構造的乃至機能的説明のための実施形態に過ぎないので、本発明の権利範囲は、本文に説明する実施形態により制限されるものと解釈されてはならない。すなわち、実施形態は、多様な変更が可能であり、様々な形態を有し得るので、本発明の権利範囲は、技術的思想を実現することができる均等物を含むものと理解されなければならない。また、本発明で提示した目的又は効果は、特定の実施形態がこれを全て含まなければならないとか、そのような効果のみを含まなければならないという意味ではないので、本発明の権利範囲は、これによって制限されるものと理解されてはならない。
は、活性化マップを背景に拡散させず、全体の客体領域を探索するようにネットワークをガイドする。
敵対的削除を使用する既存のWSOL方法は、ピクセルレベルで最も区別される部分を削除し、削除フィーチャーマップを生成する。しかし、ピクセルレベルのドロップのみ使用して最も有益な部分に隣接したピクセルを完全に除去することは難しい。このような残りの情報のピクセルは、削除された分岐が補完領域(すなわち、対象客体の区別が少ない部分)を見つけることを妨げる。差別化された領域をより効果的に除去するために、領域別の削除戦略を提案する。
はいずれも加重値を共有するネットワークの以降のレイヤーに同時に供給される。また、固定されたドロップ臨界値(θd)が不安定な性能を誘発することを観察した。削除分岐は、広い範囲で最も区別される部分を捨てるため(すなわち、地域レベルの下落)、初期の訓練ステップで分類するのに困難をきたす。この問題を解決するために、減少臨界値を1からθdまで線形的に減少させて、訓練を始める際に、二重分岐間の不一致を減らす。全般的に、SRD構成410は、図5のように、削除領域を漸進的に増やし、区別が少ない領域への活性化を成功的に拡張する。
対照学習は、肯定的な対を引き込み、否定的な対を押し出すことによって、意味のある表現を学習することを目標とする。同様に、この対照学習の概念を使用するために、図6のように前景を正の対で、背景を負の対で構成する。
の前景と背景は、それぞれ元のフィーチャーマップ(X)及び削除フィーチャーマップ
がある二重分岐でエンコーディングされる。チャンネル-ワイズプーリングを介して生成されたアテンションマップ(AF)の強度を臨界値に指定し、前景及び背景マスク(Mfg,Mbg)を生成する。それから、各マスクを掛けた前景及び背景フィーチャーマップ(Ffg,Fbg)を生成する。
を出力する。公式的に対照ガイドの損失は、次のように提供される。
本発明では、PNL構成450を使用し、最終のフィーチャーマップ
で対象客体領域に関するピクセル-別の関係を強化する。対照ガイド及び分類器に提供される向上したフィーチャーマップを生成する。フィーチャーマップ
は、クエリー、キー及びバリューをそれぞれ示す
に3つの1x1コンボリューションレイヤーに投影される。加重値マトリックス
は、q、kのホワイトニング内的演算により得た各ピクセル間の類似度を示す。
1)実験設定
データセット(Datasets)
CUB-200-2011、ImageNetの二つのベンチマークで提案された方法を評価し、訓練のためにイメージレベルのラベルのみ提供される。CUB-200-2011は、訓練セットのための5,994個のイメージと、テストセットのための5,794個のイメージで構成された200種の鳥(bird)を含む。ImageNetには、それぞれ訓練及び検証セットに対する120万、並びに50,000個のイメージが含まれた1,000個のクラスがある。
Top-1 localization(Top-1 Loc)、GT-known localization(GT-Loc)及びMaxBoxAccV2を活用して方法を評価する。Top-1 Locは、IoU 0.5以上の境界箱を含む正しく分類されたイメージの割合を正解値(ground truth)と共に示す。GT-Locは、IoUが50%より大きい場合、予測された箱が正しいものとみなされる割合を測定する。MaxBoxAccV2は、境界箱を生成するための最適の臨界値を検索し、三つのIoU基準(0.3,0.5,0.7)で位置識別の性能を平均化する。
VGG16、InceptionV3、ResNet50の三つのバックボーンネットワークで方法を構築する。全てのネットワークは、ImageNetの事前訓練された加重値をロードして訓練を始める。本発明のPNLとCGは、分類器の前に挿入される。ドロップ臨界値θdをCUBデータセットの場合は0.8、ImageNetデータセットの場合は0.9に設定した。前景τfg及び背景τbgの臨界値は、VGG16の場合、0.9、0.8に設定される。補完領域を抽出するために、最後のドロップ臨界値と共に予定された領域のドロップのみ活用する。
提案された構成要素に対する切り離す研究は、CUB-200-2011のデータセットでVGG16で実行される。
全体の対象客体を位置識別するために三つの構成要素を提案する。下記の表1は、フレームワークにおける個別要素の効率性を示す。
まず、削除位置が性能に及ぼす影響を分析する。下記の表2のように、conv4_3のレイヤーの後にSRDを挿入する際に、最も優れる性能を示す。しかし、初期のレイヤー(pool2,pool3)に位置したSRDの場合、性能が少し低下する。以前の研究で議論したように、以前のレイヤーが一般機能を抽出し、フィーチャーマップでローカルに区別される部分(例えば、縁、角)を活性化するためである。
下記の表4は、CG損失を既存の対照損失(すなわち、InfoNCE損失)に代替した結果を示す。
MaxBoxAccV2、GT-known Loc及びTop-1 Locの側面で、CUB-200-2011及びImageNetのデータセットに対するWSOLの最新の方法と、本発明の方法とを比較する。
図7は、本発明に係るWSOLのフレームワークのImageNet及びCUB-200-2011のデータセットに対する定性的結果を示す図面であって、実測の箱は実線で、予測の箱はその近傍の点線で表示した。
110 プロセッサ
130 メモリ
150 ユーザ入出力部
170 ネットワーク入出力部
210 フィーチャーマップ生成部
230 削除フィーチャーマップ生成部
250 最終マップ生成部
270 対照ガイド決定部
400 本発明で提案したWSOLのフレームワーク
410 SRD(Scheduled region drop)構成
430 CG(Contrastive guidance)構成
450 PNL(Pair-wise Non-Local)構成
Claims (14)
- 入力イメージに対する第1コンボリューション演算を実行してフィーチャーマップ(X)を生成するフィーチャーマップ生成部と、
前記フィーチャーマップ(X)でアテンションマップ(A)を生成し、前記アテンションマップ(A)を介して前記入力イメージに対するマスキング演算を実行して削除フィーチャーマップ(-X)を生成する削除フィーチャーマップ生成部と、
前記フィーチャーマップ(X)及び前記削除フィーチャーマップ(-X)に対する第2コンボリューション演算を実行して最終のフィーチャーマップ(F)及び最終の削除フィーチャーマップ(-F)をそれぞれ生成する最終マップ生成部と、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に基づいて、前記入力イメージのフォアグラウンド客体に対する対照ガイド(contrastive guidance)を決定する対照ガイド決定部と、を含む、ことを特徴とする弱教師あり客体認識装置(Weakly Supervised Object Localization Apparatus)。 - 前記削除フィーチャーマップ生成部は、
前記フィーチャーマップ(X)をチャンネル-ワイズプーリング(channel-wise pooling)を介して、前記アテンションマップ(A)を生成する、ことを特徴とする請求項1に記載の弱教師あり客体認識装置。 - 前記削除フィーチャーマップ生成部は、
前記アテンションマップ(A)で最も特徴的な部分に対するマスクを生成し、前記入力イメージに対するマスキング演算を実行する、ことを特徴とする請求項2に記載の弱教師あり客体認識装置。 - 前記最終マップ生成部は、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)を介して、前記入力イメージで互いに異なる地域を活性化し、前記フォアグラウンド客体を背景と遠ざかるようにする、ことを特徴とする請求項1に記載の弱教師あり客体認識装置。 - 前記最終マップ生成部は、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に対して、チャンネル-ワイズプーリング(channel-wise pooling)ベースのアテンションマップ(AF,-AF)を介して、フォアグラウンドマスク(Mfg,-Mfg)及びバックグラウンドマスク(Mbg,-Mbg)を生成する、ことを特徴とする請求項4に記載の弱教師あり客体認識装置。 - 前記最終マップ生成部は、
前記フォアグラウンドマスク(Mfg,-Mfg)及び前記バックグラウンドマスク(Mbg,-Mbg)に基づいて、前景フィーチャーマップ(Ffg,-Ffg)及び背景フィーチャーマップ(Fbg,-Fbg)を生成する、ことを特徴とする請求項5に記載の弱教師あり客体認識装置。 - 前記最終マップ生成部は、
前記前景フィーチャーマップ(Ffg,-Ffg)及び前記背景フィーチャーマップ(Fbg,-Fbg)を正規の埋め込み空間に投影させて、多次元のフィーチャーベクトル(Zfg,Zbg,-Zfg,-Zbg)を生成する、ことを特徴とする請求項6に記載の弱教師あり客体認識装置。 - 前記最終マップ生成部は、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に対して、第3コンボリューション演算を実行してキー、クエリー及びバリュー(k,q,v)を生成し、前記キー、クエリー及びバリューを加重値マトリックス(W)でプロダクト演算して、前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)の性能を向上させる、ことを特徴とする請求項4に記載の弱教師あり客体認識装置。 - 前記対照ガイド決定部は、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に基づいて生成された多次元のフィーチャーベクトル(Zfg,Zbg,-Zfg,-Zbg)のうち、前景フィーチャーベクトル(Zfg,-Zfg)それぞれの背景フィーチャーベクトル(Zbg,-Zbg)間の距離を拡大しながら、前記前景フィーチャーベクトル(Zfg,-Zfg)間の距離を減少させるように、前記対照ガイド(contrastive guidance)を決定する、ことを特徴とする請求項1に記載の弱教師あり客体認識装置。 - 入力イメージに対する第1コンボリューション演算を実行してフィーチャーマップ(X)を生成するフィーチャーマップ生成ステップと、
前記フィーチャーマップ(X)でアテンションマップ(A)を生成し、前記アテンションマップ(A)を介して前記入力イメージに対するマスキング演算を実行して削除フィーチャーマップ(-X)を生成する削除フィーチャーマップ生成ステップと、
前記フィーチャーマップ(X)及び前記削除フィーチャーマップ(-X)に対する第2コンボリューション演算を実行して最終のフィーチャーマップ(F)及び最終の削除フィーチャーマップ(-F)をそれぞれ生成する最終マップ生成ステップと、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に基づいて前記入力イメージのフォアグラウンド客体に対する対照ガイド(contrastive guidance)を決定する対照ガイド決定ステップと、を含む、ことを特徴とする弱教師あり客体認識方法(Weakly Supervised Object Localization Method)。 - 前記削除フィーチャーマップ生成ステップは、
前記フィーチャーマップ(X)をチャンネル-ワイズプーリング(channel-wise pooling)を介して、前記アテンションマップ(A)を生成するステップ、及び
前記アテンションマップ(A)で最も特徴的な部分に対するマスクを生成し、前記入力イメージに対するマスキング演算を実行するステップを含む、ことを特徴とする請求項10に記載の弱教師あり客体認識方法。 - 前記最終マップ生成ステップは、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に対して、チャンネル-ワイズプーリング(channel-wise pooling)ベースのアテンションマップ(AF,-AF)を介して、フォアグラウンドマスク(Mfg,-Mfg)及びバックグラウンドマスク(Mbg,-Mbg)を生成するステップと、
前記フォアグラウンドマスク(Mfg,-Mfg)及び前記バックグラウンドマスク(Mbg,-Mbg)に基づいて、前景フィーチャーマップ(Ffg,-Ffg)及び背景フィーチャーマップ(Fbg,-Fbg)を生成するステップと、
前記前景フィーチャーマップ(Ffg,-Ffg)及び前記背景フィーチャーマップ(Fbg,-Fbg)を正規の埋め込み空間に投影させて、多次元のフィーチャーベクトル(Zfg,Zbg,-Zfg,-Zbg)を生成するステップと、を含む、ことを特徴とする請求項10に記載の弱教師あり客体認識方法。 - 前記最終マップ生成ステップは、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に対して、第3コンボリューション演算を実行してキー(k)、クエリー(q)及びバリュー(v)を生成し、前記キー(k)、クエリー(q)及びバリュー(v)を加重値マトリックス(W)でプロダクト演算し、前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)の性能を向上させる、ことを特徴とする請求項10に記載の弱教師あり客体認識方法。 - 前記対照ガイド決定ステップは、
前記最終のフィーチャーマップ(F)及び前記最終の削除フィーチャーマップ(-F)に基づいて生成された多次元のフィーチャーベクトル(Zfg,Zbg,-Zfg,-Zbg)のうち、前景フィーチャーベクトル(Zfg,-Zfg)それぞれの背景フィーチャーベクトル(Zbg,-Zbg)間の距離を拡大しながら、前記前景フィーチャーベクトル(Zfg,-Zfg)間の距離を減少させるように前記対照ガイド(contrastive guidance)を決定する、ことを特徴とする請求項10に記載の弱教師あり客体認識方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0127014 | 2021-09-27 | ||
KR1020210127014A KR102583518B1 (ko) | 2021-09-27 | 2021-09-27 | 약지도 객체인식 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7166423B1 true JP7166423B1 (ja) | 2022-11-07 |
JP2023048062A JP2023048062A (ja) | 2023-04-06 |
Family
ID=83931119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021192584A Active JP7166423B1 (ja) | 2021-09-27 | 2021-11-26 | 弱教師あり客体認識装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12026909B2 (ja) |
JP (1) | JP7166423B1 (ja) |
KR (1) | KR102583518B1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101879207B1 (ko) * | 2016-11-22 | 2018-07-17 | 주식회사 루닛 | 약한 지도 학습 방식의 객체 인식 방법 및 장치 |
CN110659589B (zh) * | 2019-09-06 | 2022-02-08 | 中国科学院自动化研究所 | 基于姿态和注意力机制的行人再识别方法、系统、装置 |
KR102187302B1 (ko) * | 2020-01-13 | 2020-12-04 | 서강대학교 산학협력단 | 보행자 패션 정보를 이용한 보행자 검색 시스템 및 보행자 검색 방법 |
KR102537947B1 (ko) * | 2020-10-16 | 2023-05-26 | 연세대학교 산학협력단 | 약한 지도학습 기반 객체 위치 검출 방법 및 장치 |
GB202017369D0 (en) * | 2020-11-02 | 2020-12-16 | Tomtom Global Content Bv | Neural network models for semantic image segmentation |
-
2021
- 2021-09-27 KR KR1020210127014A patent/KR102583518B1/ko active IP Right Grant
- 2021-11-15 US US17/526,380 patent/US12026909B2/en active Active
- 2021-11-26 JP JP2021192584A patent/JP7166423B1/ja active Active
Non-Patent Citations (4)
Title |
---|
Erik Stammes et al.,Find it if You Can: End-to-End Adversarial Erasing for Weakly-Supervised Semantic Segmentation,Thirteenth International Conference on Digital Image Processing(ICDIP 2021),2021年06月30日,pp.1-11 |
ERIK STAMMES ET AL.: "Find it if You Can: End-to-End Adversarial Erasing for Weakly-Supervised Semantic Segmentation", THIRTEENTH INTERNATIONAL CONFERENCE ON DIGITAL IMAGE PROCESSING(ICDIP 2021), JPN7022004845, 30 June 2021 (2021-06-30), pages 1 - 11, ISSN: 0004898858 * |
Xiaolin Zhang et al.,Adversarial Complementary Learning for Weakly Supervised Object Localization,Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2018年06月22日,pp.1325-1334 |
XIAOLIN ZHANG ET AL.: "Adversarial Complementary Learning for Weakly Supervised Object Localization", PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION(CVPR), JPN6022043327, 22 June 2018 (2018-06-22), pages 1325 - 1334, XP033476095, ISSN: 0004898857, DOI: 10.1109/CVPR.2018.00144 * |
Also Published As
Publication number | Publication date |
---|---|
KR102583518B1 (ko) | 2023-09-27 |
KR20230044649A (ko) | 2023-04-04 |
JP2023048062A (ja) | 2023-04-06 |
US20230098817A1 (en) | 2023-03-30 |
US12026909B2 (en) | 2024-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110837836B (zh) | 基于最大化置信度的半监督语义分割方法 | |
Rani et al. | Three dimensional objects recognition & pattern recognition technique; related challenges: A review | |
US7672915B2 (en) | Method and system for labelling unlabeled data records in nodes of a self-organizing map for use in training a classifier for data classification in customer relationship management systems | |
Chen et al. | Learning deep features for image emotion classification | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
EP1903479A1 (en) | Method and system for data classification using a self-organizing map | |
Kazmi et al. | Wavelets-based facial expression recognition using a bank of support vector machines | |
CN101877064A (zh) | 图像分类方法及图像分类装置 | |
US20220270341A1 (en) | Method and device of inputting annotation of object boundary information | |
Lorang et al. | Digital libraries, intelligent data analytics, and augmented description: A demonstration project | |
CN113869352A (zh) | 模型训练方法、服装检索方法及相关装置 | |
Mayer et al. | Adjusted pixel features for robust facial component classification | |
CN110020638B (zh) | 人脸表情识别方法、装置、设备和介质 | |
Maity et al. | Selfdocseg: A self-supervised vision-based approach towards document segmentation | |
Karappa et al. | Detection of sign-language content in video through polar motion profiles | |
CN112529078A (zh) | 一种业务处理方法、装置及设备 | |
JP7166423B1 (ja) | 弱教師あり客体認識装置及び方法 | |
Zhao et al. | Multi-view dimensionality reduction via subspace structure agreement | |
Sert et al. | Recognizing facial expressions of emotion using action unit specific decision thresholds | |
López-Sánchez et al. | A CBR system for efficient face recognition under partial occlusion | |
Wan et al. | One-shot unsupervised domain adaptation for object detection | |
Zare et al. | A survey on semi-automated and automated approaches for video annotation | |
Du et al. | Exploiting competition relationship for robust visual recognition | |
Saifullah et al. | DocXClassifier: Towards a Robust and Interpretable Deep Neural Network for Document Image Classification | |
Zhang et al. | Occlusion-Aware Manga Character Re-identification with Self-Paced Contrastive Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7166423 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |