JP2022509564A - ニューラルネットワークのアクティブトレーニングを行うシステム及び画像処理システム - Google Patents
ニューラルネットワークのアクティブトレーニングを行うシステム及び画像処理システム Download PDFInfo
- Publication number
- JP2022509564A JP2022509564A JP2021552087A JP2021552087A JP2022509564A JP 2022509564 A JP2022509564 A JP 2022509564A JP 2021552087 A JP2021552087 A JP 2021552087A JP 2021552087 A JP2021552087 A JP 2021552087A JP 2022509564 A JP2022509564 A JP 2022509564A
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- feature
- training
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 83
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 21
- 238000012545 processing Methods 0.000 title claims description 16
- 230000006870 function Effects 0.000 claims description 25
- 238000005457 optimization Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims 1
- 238000000034 method Methods 0.000 description 60
- 238000005070 sampling Methods 0.000 description 31
- 238000001514 detection method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
所与の画像について類似の画像のセットを認識することにより、物体検出又は認識の性能を改善することができ、これを、コンピュータビジョン、又は自動物体検出システムを有するロボットに適用することができる。
対応する分布pDiを有するクラスタのセット{D1,D2,...,Dk}=Dを所与とすると、特徴学習において、目的は、各クラスタが範囲空間内で分離可能である範囲を有するマッピングfを学習することである。fθ:RN×N→RMを、画像領域から、θによってパラメータ化された特徴領域へのマッピングとし、dを範囲内の距離メトリックとする。ただし、N2>>Mである。いくつかの場合、θは、モデルパラメータと呼ぶことができる。
トレーニング中に難易度が低いものから高いものへ進むことは、マッチするサンプル(ペア画像)間の類似度を減少させながらトリプレットを供給することによって満たすことができる。k個のクラスタを有する特定のデータセットDについて、トリプレットの数はおよそ
本発明の実施形態によるアクティブ学習方法の利点をより良好に評価するために、図4に示すような特徴記述子アーキテクチャ400を用いる。特徴記述子アーキテクチャ400は、システム200のストレージ230又はメモリ240に記憶された、アクティブサンプラ204(アクティブサンプリングモジュール204)、特徴記述子モジュール202及びトリプレット損失関数モジュール205を用いて動作させることができる。非限定的な例として、特徴生成器モジュール202は、Conv(7,7)-Tanh-MaxPool(2,2)-Conv(6,6)-Tanh-FullyConnected(128)を含む。
ローカル記述子学習におけるモデルの性能を評価する。ここで、目的は、2つの提供されるパッチが、ワールド内の同じ点の異なる画像であるか否かを判断することである。パッチペア類似度における性能は、従来、受信者動作特性(ROC)曲線を用いて報告される。ROC曲線は、ペアを用いて形成される。ここで、マッチはラベル1を有し、非マッチはラベル0を有する。0.95の再現率(真陽性率)で偽陽性率(FPR)を報告する。このため、この尺度は、モデルがマッチするペアを合わせ、マッチしていないペアを離す尤度がどの程度であるかを示す。
本発明の方法は、バッチトレーニング中に経時的により難易度の高いサンプルを選ぶことによって、トレーニングの難易度をアクティブに増大させる。特徴マッチングの問題に対する本発明のアルゴリズムの使用を実証した。実験は1DSfMデータセットに対し実行された。提示される技法は、トレーニングを大幅に高速化しながら、マッチング性能において従来の方法を上回っている。
Claims (15)
- ニューラルネットワークのアクティブトレーニングを行うシステムであって、
画像のセットを受信する入力インターフェースと、
アクティブサンプラと、特徴生成器と、前記画像のセットから選択された画像のサブセットとを含むコンピュータ実行可能プログラムを記憶するメモリであって、前記画像のサブセットは、所定の特徴領域情報に基づいた類似度値を有する、メモリと、
前記メモリと接続され、前記アクティブサンプラの使用によって前記特徴生成器をトレーニングする少なくとも1つのプロセッサであって、前記アクティブサンプラは、前記少なくとも1つのプロセッサに、
前記画像のサブセットから、類似度値の閾値に従って、マッチするペア画像として画像のペアを第1に選択することと、
前記画像のセットにおける前記画像の別のサブセットから、マッチしていないペア画像として画像のペアを第2に選択することと、
前記マッチするペア画像及び前記マッチしていないペア画像を前記特徴生成器に供給することと、
最適化問題を解いて損失関数を最小化することによって、前記特徴生成器の重み付けパラメータを更新することと、
予め設定された値に従って前記閾値を増大させることとともに、前記第1に選択すること、前記第2に選択すること、前記供給すること、前記更新すること、及び前記増大させることを、前記画像の全てのサブセットが供給されるまで繰り返すことと、
を含む命令を実行させるように構成される、少なくとも1つのプロセッサと、
前記特徴生成器の前記重み付けパラメータを出力する出力インターフェースと、
を備える、システム。 - 前記所定の特徴領域情報は、前記画像の視点角度を示す、請求項1に記載のシステム。
- 前記損失関数は、マッチするペア画像及びマッチしていないペア画像について生成された特徴間のユークリッド距離に基づく、請求項1に記載のシステム。
- 前記メモリは、前記プロセッサに、マッチするペア画像とマッチしていないペア画像との組み合わせとしてトリプレットを提供させるように構成されたトリプレット生成器を備え、前記トリプレットは、アンカー、正値及び負値からなる、請求項1に記載のシステム。
- 前記類似度値は、前記画像のペアのカメラ視点角度間の回転距離によって定義される、請求項1に記載のシステム。
- 前記損失関数は、トリプレット損失関数である、請求項1に記載のシステム。
- 前記重み付けパラメータを更新することは、確率的勾配降下アルゴリズムによって行われる、請求項1に記載のシステム。
- 画像処理システムであって、
画像を受信するインターフェースであって、前記インターフェースは、撮像デバイスと接続され、ネットワークは前記画像処理システムの外部にある、インターフェースと、
ローカル記述子と、請求項1に記載のシステムによってトレーニングされた特徴生成器とを含むコンピュータ実行可能プログラムを記憶するメモリと、
前記メモリと接続され、前記コンピュータ実行可能プログラムの命令に従って、前記トレーニングされた特徴生成器を用いて画像をマッチングするプロセッサと、
を備える、画像処理システム。 - 前記特徴生成器は、ネットワークインターフェースを介して受信された画像からローカル記述子を抽出する、請求項8に記載の画像処理システム。
- 前記ローカル記述子は、前記ネットワークインターフェースを介して受信された2つの画像間の対応関係を検出するように構成される、請求項9に記載の画像処理システム。
- 画像マッチングは、前記画像の抽出された特徴間のユークリッド距離に基づいて判定される、請求項8に記載の画像処理システム。
- 所定の特徴領域情報は、前記画像の視点角度を示す、請求項8に記載の画像処理システム。
- 前記メモリは、前記プロセッサに、マッチするペア画像とマッチしていないペア画像との組み合わせとしてトリプレットを提供させるように構成されたトリプレット生成器を備え、前記トリプレットは、アンカー、正値及び負値からなる、請求項8に記載の画像処理システム。
- 前記損失関数は、トリプレット損失関数である、請求項8に記載の画像処理システム。
- 重み付けパラメータを更新することは、確率的勾配降下アルゴリズムによって行われる、請求項8に記載の画像処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/261,807 US10810468B2 (en) | 2019-01-30 | 2019-01-30 | System for training descriptor with active sample selection |
US16/261,807 | 2019-01-30 | ||
PCT/JP2019/041236 WO2020158067A1 (en) | 2019-01-30 | 2019-10-11 | System for active-training neural network and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509564A true JP2022509564A (ja) | 2022-01-20 |
JP7123270B2 JP7123270B2 (ja) | 2022-08-22 |
Family
ID=68542710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021552087A Active JP7123270B2 (ja) | 2019-01-30 | 2019-10-11 | ニューラルネットワークのアクティブトレーニングを行うシステム及び画像処理システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10810468B2 (ja) |
EP (1) | EP3740899A1 (ja) |
JP (1) | JP7123270B2 (ja) |
WO (1) | WO2020158067A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113065634B (zh) * | 2021-02-26 | 2024-07-09 | 华为技术有限公司 | 一种图像处理方法、神经网络的训练方法以及相关设备 |
CN113420824B (zh) * | 2021-07-03 | 2024-06-28 | 上海理想信息产业(集团)有限公司 | 针对工业视觉应用的预训练数据筛选及训练方法、系统 |
CN115146092A (zh) * | 2022-04-15 | 2022-10-04 | 腾讯科技(深圳)有限公司 | 特征模型的获取方法、图像处理方法、装置及计算机设备 |
CN118097706B (zh) * | 2024-04-23 | 2024-06-25 | 华雁智能科技(集团)股份有限公司 | 电网厂站接线图的图元检测方法、系统、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017504130A (ja) * | 2013-10-29 | 2017-02-02 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | 詳細画像識別のための効率的な距離メトリック学習 |
US20180005070A1 (en) * | 2016-05-26 | 2018-01-04 | Adobe Systems Incorporated | Generating image features based on robust feature-learning |
JP2018536244A (ja) * | 2015-12-04 | 2018-12-06 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 再位置特定システムおよび方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120113239A1 (en) * | 2010-11-08 | 2012-05-10 | Hagai Krupnik | System and method for displaying an image stream |
US10671679B2 (en) * | 2014-12-30 | 2020-06-02 | Oath Inc. | Method and system for enhanced content recommendation |
US11030235B2 (en) * | 2016-01-04 | 2021-06-08 | Facebook, Inc. | Method for navigating through a set of images |
CN106021364B (zh) * | 2016-05-10 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 图片搜索相关性预测模型的建立、图片搜索方法和装置 |
US10929955B2 (en) * | 2017-06-05 | 2021-02-23 | Adasky, Ltd. | Scene-based nonuniformity correction using a convolutional recurrent neural network |
US11645329B2 (en) * | 2017-12-28 | 2023-05-09 | International Business Machines Corporation | Constructing, evaluating, and improving a search string for retrieving images indicating item use |
US10467526B1 (en) * | 2018-01-17 | 2019-11-05 | Amaon Technologies, Inc. | Artificial intelligence system for image similarity analysis using optimized image pair selection and multi-scale convolutional neural networks |
US10796154B2 (en) * | 2018-06-25 | 2020-10-06 | Bionic 8 Analytics Ltd. | Method of image-based relationship analysis and system thereof |
-
2019
- 2019-01-30 US US16/261,807 patent/US10810468B2/en active Active
- 2019-10-11 JP JP2021552087A patent/JP7123270B2/ja active Active
- 2019-10-11 EP EP19802305.3A patent/EP3740899A1/en not_active Withdrawn
- 2019-10-11 WO PCT/JP2019/041236 patent/WO2020158067A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017504130A (ja) * | 2013-10-29 | 2017-02-02 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | 詳細画像識別のための効率的な距離メトリック学習 |
JP2018536244A (ja) * | 2015-12-04 | 2018-12-06 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 再位置特定システムおよび方法 |
US20180005070A1 (en) * | 2016-05-26 | 2018-01-04 | Adobe Systems Incorporated | Generating image features based on robust feature-learning |
Non-Patent Citations (2)
Title |
---|
HUIJING ZHAN ET AL.: "STREET-TO-SHOE RETRIEVAL WITH MULTI-SCALE VIEWPOINT INVARIANT TRIPLET NETWORK", 2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), JPN6022016557, 17 September 2017 (2017-09-17), US, pages 1102 - 1106, XP033322746, ISSN: 0004824526, DOI: 10.1109/ICIP.2017.8296452 * |
KOCANAOGULLARI, AZIZ ET AL.: "Active Descriptor Learning for Feature Matching", MITSUBISHI ELECTRIC RESEARCH LABORATORIES, vol. TR2018-132, JPN6022016556, 6 September 2018 (2018-09-06), ISSN: 0004824525 * |
Also Published As
Publication number | Publication date |
---|---|
US10810468B2 (en) | 2020-10-20 |
WO2020158067A1 (en) | 2020-08-06 |
US20200242410A1 (en) | 2020-07-30 |
EP3740899A1 (en) | 2020-11-25 |
JP7123270B2 (ja) | 2022-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7123270B2 (ja) | ニューラルネットワークのアクティブトレーニングを行うシステム及び画像処理システム | |
Zadeh et al. | Convolutional experts constrained local model for 3d facial landmark detection | |
Pautrat et al. | SOLD2: Self-supervised occlusion-aware line description and detection | |
Wu et al. | Robust facial landmark detection under significant head poses and occlusion | |
CN108256479B (zh) | 人脸跟踪方法和装置 | |
WO2018177337A1 (zh) | 手部三维数据确定方法、装置及电子设备 | |
CN109977757B (zh) | 一种基于混合深度回归网络的多模态的头部姿态估计方法 | |
US11017210B2 (en) | Image processing apparatus and method | |
JP6137916B2 (ja) | 信号処理装置、信号処理方法、及び、信号処理システム | |
JP2005327076A (ja) | パラメタ推定方法、パラメタ推定装置および照合方法 | |
CN110809785A (zh) | 用于主动立体声系统的基于学习的匹配 | |
US11574500B2 (en) | Real-time facial landmark detection | |
Gee et al. | Discovering Planes and Collapsing the State Space in Visual SLAM. | |
JP6756406B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN115362478A (zh) | 用于标记图像之间的空间关系的强化学习模型 | |
CN112364881B (zh) | 一种进阶采样一致性图像匹配方法 | |
CN111582220A (zh) | 一种基于移位图卷积神经网络骨骼点行为识别系统及其识别方法 | |
Yu et al. | Sparse 3D directional vertices vs continuous 3D curves: efficient 3D surface matching and its application for single model face recognition | |
Sun et al. | Deep Evolutionary 3D Diffusion Heat Maps for Large-pose Face Alignment. | |
CN112750164B (zh) | 轻量化定位模型的构建方法、定位方法、电子设备 | |
KR102616028B1 (ko) | 비주얼 로컬라이제이션을 효율적으로 수행하기 위한 방법 및 장치 | |
Katragadda et al. | Nerf-vins: A real-time neural radiance field map-based visual-inertial navigation system | |
Li et al. | Estimating gaze points from facial landmarks by a remote spherical camera | |
CN112131902A (zh) | 闭环检测方法及装置、存储介质和电子设备 | |
Ma et al. | Hand gesture recognition based on skeletal image properties |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7123270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |