JP7203889B2 - 画像処理方法と画像処理システム - Google Patents
画像処理方法と画像処理システム Download PDFInfo
- Publication number
- JP7203889B2 JP7203889B2 JP2021071358A JP2021071358A JP7203889B2 JP 7203889 B2 JP7203889 B2 JP 7203889B2 JP 2021071358 A JP2021071358 A JP 2021071358A JP 2021071358 A JP2021071358 A JP 2021071358A JP 7203889 B2 JP7203889 B2 JP 7203889B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- training
- group
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 34
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000012549 training Methods 0.000 claims description 46
- 238000000605 extraction Methods 0.000 claims description 41
- 239000013598 vector Substances 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 238000012216 screening Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Description
120:画像データー処理装置
130:特徴抽出モデル
140:コマンドライブラリ
200:画像処理方法
S210、S220、S230、S240、S250、S260、S270:工程
300:画像データー
310:第1の画像データー
320:第2の画像データー
400:サンプルスクリーニングメカニズム
L1~L4:ユークリッド距離
500:グループ共有パラメーター工程
Claims (9)
- 画像データー処理装置により特徴抽出モデル(IF-NET)に基づいて複数の画像データーを分析して、前記画像データーに対応する特徴ベクトル集合を生成し、ただし、前記画像データーが前記特徴ベクトル集合における少なくとも1つの第1の特徴ベクトルに関する複数の第1の画像データー、及び前記特徴ベクトル集合における少なくとも1つの第2の特徴ベクトルに関する複数の第2の画像データーを含む工程と、
前記画像データー処理装置により前記特徴抽出モデルに基づいて前記第1の画像データーと前記第2の画像データーから対応する第1のトレーニング画像ブロックグループ及び第2のトレーニング画像ブロックグループをそれぞれ選択し、前記第1のトレーニング画像ブロックグループ及び前記第2のトレーニング画像ブロックグループに対して演算を行って、対応する少なくとも1つの損失関数値を生成する工程と、
前記少なくとも1つの損失関数値に基づいて前記特徴抽出モデルを調整する工程と、
を備え、
前記第1のトレーニング画像ブロックグループを選択する工程は、
前記第1の画像データーの複数のポジティブ画像ブロックから、前記第1の画像データーのアンカー画像ブロックと一致する程度が最も低い少なくとも1つのポジティブ画像ブロックを選択して、前記第1のトレーニング画像ブロックグループとすることと、
前記第1の画像データーの複数のネガティブ画像ブロックから、前記第1の画像データーの前記アンカー画像ブロックと一致する程度が最も高い少なくとも1つのネガティブ画像ブロックを選択して、前記第1のトレーニング画像ブロックグループとすることと、
を含む画像処理方法。 - 前記画像データー処理装置は調整された前記特徴抽出モデルに基づいて前記画像データーを分析する場合、前記第1の画像データーと前記第2の画像データーとの一致度が増加する請求項1に記載の画像処理方法。
- 前記画像データー処理装置は、調整された前記特徴抽出モデルに基づいて、
前記第1の画像データーと前記第2の画像データーとの比較操作を行うことと、
前記比較操作の結果により空間測位操作を行うことと、
前記空間測位操作の結果により画像測位結果を出力することと、
を含む操作における少なくとも1つを行う請求項1~2の何れか1項に記載の画像処理方法。 - 前記少なくとも1つの第1の特徴ベクトルは、画像観測角度及び画像観測距離における少なくとも1つに関し、前記少なくとも1つの第2の特徴ベクトルは、画像輝度、画像ガンマ値及び画像コントラストにおける少なくとも1つに関する請求項1~3の何れか1項に記載の画像処理方法。
- 前記第2のトレーニング画像ブロックグループを選択する工程は、
前記第2の画像データーの複数のポジティブ画像ブロックから、前記第2の画像データーのアンカー画像ブロックと一致する程度が最も低い少なくとも1つのポジティブ画像ブロックを選択して、前記第2のトレーニング画像ブロックグループとすることと、
前記第2の画像データーの複数のネガティブ画像ブロックから、前記第2の画像データーの前記アンカー画像ブロックと一致する程度が最も高い少なくとも1つのネガティブ画像ブロックを選択して、前記第2のトレーニング画像ブロックグループとすることと、
を含む請求項1~4の何れか1項に記載の画像処理方法。 - 前記第1のトレーニング画像ブロックグループ及び前記第2のトレーニング画像ブロックグループに対して演算を行う工程は、
外れ値損失関数により前記第1のトレーニング画像ブロックグループ及び前記第2のトレーニング画像ブロックグループに対して演算を行って、対応する前記少なくとも1つの損失関数値を生成することを含む請求項1~5の何れか1項に記載の画像処理方法。 - 前記特徴抽出モデルを調整する工程は、
前記第1の画像データーと前記第2の画像データーを共有ディープニューラルネットワークモデルパラメーター(shared-weight)の前記特徴抽出モデルに入力して、対応する異なる損失関数値をそれぞれ生成することと、
前記第1の画像データーと前記第2の画像データーに対応する異なる損失関数値を記憶して前記特徴抽出モデルにおける少なくとも1つのネットワークパラメータを更新することと、
を更に含む請求項1~6の何れか1項に記載の画像処理方法。 - 複数の画像データーをキャプチャするための画像キャプチャ装置と、
前記画像キャプチャ装置に結合され、特徴抽出モデルに基づいて前記画像データーを分析して、前記画像データーに対応する特徴ベクトル集合を生成する画像データー処理装置と、
を備え、
前記画像データーは、前記特徴ベクトル集合における少なくとも1つの第1の特徴ベクトルに関する複数の第1の画像データー、及び前記特徴ベクトル集合における少なくとも1つの第2の特徴ベクトルに関する複数の第2の画像データーを含み、
前記画像データー処理装置は、特徴抽出モデルに基づいて、
複数の前記第1の画像データーの複数のポジティブ画像ブロックから、前記第1の画像データーのアンカー画像ブロックと一致する程度が最も低い少なくとも1つのポジティブ画像ブロックを選択して、第1のトレーニング画像ブロックグループとする工程と、
前記第1の画像データーの複数のネガティブ画像ブロックから、前記第1の画像データーの前記アンカー画像ブロックと一致する程度が最も高い少なくとも1つのネガティブ画像ブロックを選択して、前記第1のトレーニング画像ブロックグループとする工程と、
複数の前記第2の画像データーから対応する第2のトレーニング画像ブロックグループを選択し、前記第1のトレーニング画像ブロックグループ及び前記第2のトレーニング画像ブロックグループに対して演算を行って、対応する少なくとも1つの損失関数値を生成する工程と、
を行い、
前記特徴抽出モデルは、前記第1の画像データー及び前記第2の画像データーに対する演算による前記少なくとも1つの損失関数値により調整されるものである画像処理システム。 - 前記第1の特徴ベクトルは、画像観測角度及び画像観測距離における少なくとも1つに関し、前記少なくとも1つの第2の特徴ベクトルは、画像輝度、画像ガンマ値及び画像コントラストにおける少なくとも1つに関する請求項8に記載の画像処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010343996.1A CN113642593B (zh) | 2020-04-27 | 2020-04-27 | 影像处理方法与影像处理系统 |
CN202010343996.1 | 2020-04-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021174550A JP2021174550A (ja) | 2021-11-01 |
JP7203889B2 true JP7203889B2 (ja) | 2023-01-13 |
Family
ID=78222382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021071358A Active JP7203889B2 (ja) | 2020-04-27 | 2021-04-20 | 画像処理方法と画像処理システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11715283B2 (ja) |
JP (1) | JP7203889B2 (ja) |
CN (1) | CN113642593B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642593B (zh) * | 2020-04-27 | 2024-03-01 | 台达电子工业股份有限公司 | 影像处理方法与影像处理系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019083002A (ja) | 2017-10-27 | 2019-05-30 | アドビ インコーポレイテッド | トリプレット損失ニューラル・ネットワーク・トレーニングを使用するフォント認識の改善 |
WO2019226686A2 (en) | 2018-05-23 | 2019-11-28 | Movidius Ltd. | Deep learning system |
US10592732B1 (en) | 2017-12-14 | 2020-03-17 | Perceive Corporation | Probabilistic loss function for training network with triplets |
WO2020061489A1 (en) | 2018-09-20 | 2020-03-26 | Nvidia Corporation | Training neural networks for vehicle re-identification |
JP2020524349A (ja) | 2017-06-16 | 2020-08-13 | マーカブル インコーポレイテッドMarkable,Inc. | 画像処理システム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10181091B2 (en) | 2014-06-20 | 2019-01-15 | Google Llc | Fine-grained image similarity |
CN107423306B (zh) * | 2016-05-24 | 2021-01-29 | 华为技术有限公司 | 一种图像检索方法及装置 |
CN106295678B (zh) * | 2016-07-27 | 2020-03-06 | 北京旷视科技有限公司 | 神经网络训练与构建方法和装置以及目标检测方法和装置 |
EP3336774B1 (en) | 2016-12-13 | 2020-11-25 | Axis AB | Method, computer program product and device for training a neural network |
CN107133579A (zh) * | 2017-04-20 | 2017-09-05 | 江南大学 | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 |
US10289938B1 (en) * | 2017-05-16 | 2019-05-14 | State Farm Mutual Automobile Insurance Company | Systems and methods regarding image distification and prediction models |
CN108537752B (zh) * | 2018-03-30 | 2022-06-24 | 广东工业大学 | 基于非局部自相似性与稀疏表示的图像处理方法及装置 |
CN109190446A (zh) | 2018-07-06 | 2019-01-11 | 西北工业大学 | 基于三元组聚焦损失函数的行人再识别方法 |
US10848791B1 (en) * | 2018-10-30 | 2020-11-24 | Amazon Technologies, Inc. | Determining portions of video content based on artificial intelligence model |
CN109558806B (zh) | 2018-11-07 | 2021-09-14 | 北京科技大学 | 高分遥感图像变化的检测方法 |
US11126895B2 (en) * | 2019-05-22 | 2021-09-21 | Lawrence Livermore National Security, Llc | Mimicking of corruption in images |
US10607331B1 (en) * | 2019-06-28 | 2020-03-31 | Corning Incorporated | Image segmentation into overlapping tiles |
CN110647865B (zh) | 2019-09-30 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 人脸姿态的识别方法、装置、设备及存储介质 |
KR20210048315A (ko) * | 2019-10-23 | 2021-05-03 | 삼성에스디에스 주식회사 | 통합 특징 벡터 생성 방법 및 장치 |
CN113642593B (zh) * | 2020-04-27 | 2024-03-01 | 台达电子工业股份有限公司 | 影像处理方法与影像处理系统 |
US20220129708A1 (en) * | 2020-10-22 | 2022-04-28 | Applied Materials Israel Ltd. | Segmenting an image using a neural network |
-
2020
- 2020-04-27 CN CN202010343996.1A patent/CN113642593B/zh active Active
-
2021
- 2021-04-20 JP JP2021071358A patent/JP7203889B2/ja active Active
- 2021-04-22 US US17/238,138 patent/US11715283B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020524349A (ja) | 2017-06-16 | 2020-08-13 | マーカブル インコーポレイテッドMarkable,Inc. | 画像処理システム |
JP2019083002A (ja) | 2017-10-27 | 2019-05-30 | アドビ インコーポレイテッド | トリプレット損失ニューラル・ネットワーク・トレーニングを使用するフォント認識の改善 |
US10592732B1 (en) | 2017-12-14 | 2020-03-17 | Perceive Corporation | Probabilistic loss function for training network with triplets |
WO2019226686A2 (en) | 2018-05-23 | 2019-11-28 | Movidius Ltd. | Deep learning system |
WO2020061489A1 (en) | 2018-09-20 | 2020-03-26 | Nvidia Corporation | Training neural networks for vehicle re-identification |
Non-Patent Citations (2)
Title |
---|
Fahim Irfan Alam et al.,TRIPLET CONSTRAINED DEEP FEATURE EXTRACTION FOR HYPERSPECTRAL IMAGE CLASSIFICATION,2018 9th Workshop on Hyperspectral Image and Signal Processing: Evolution in Remote Sensing (WHISPERS),IEEE,2018年09月23日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8747227 |
Xiankai Lu et al.,See More, Know More: Unsupervised Video Object Segmentation with Co-Attention Siamese Networks,2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),IEEE,2019年06月15日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8953755 |
Also Published As
Publication number | Publication date |
---|---|
CN113642593A (zh) | 2021-11-12 |
US11715283B2 (en) | 2023-08-01 |
JP2021174550A (ja) | 2021-11-01 |
US20210334583A1 (en) | 2021-10-28 |
CN113642593B (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dodge et al. | Visual saliency prediction using a mixture of deep neural networks | |
JP2020501238A (ja) | 顔検出トレーニング方法、装置及び電子機器 | |
US11055570B2 (en) | Image processing method and apparatus for implementing image recognition, and electronic device | |
WO2020253127A1 (zh) | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 | |
CN109871821B (zh) | 自适应网络的行人重识别方法、装置、设备及存储介质 | |
CN111553428B (zh) | 用于训练判别模型的方法、装置、设备及可读存储介质 | |
CN107209853A (zh) | 定位和地图构建方法 | |
CN104616029B (zh) | 数据分类方法及装置 | |
WO2016206114A1 (en) | Combinatorial shape regression for face alignment in images | |
CN113033458B (zh) | 动作识别方法和装置 | |
CN110503149B (zh) | 一种图像中局部特征分类方法及系统 | |
CN112257738A (zh) | 机器学习模型的训练方法、装置和图像的分类方法、装置 | |
JP7203889B2 (ja) | 画像処理方法と画像処理システム | |
CN111126249A (zh) | 一种大数据和贝叶斯相结合的行人重识别方法及装置 | |
Dai | Real-time and accurate object detection on edge device with TensorFlow Lite | |
JP2013097467A (ja) | 画像処理装置及びその制御方法 | |
CN110472588A (zh) | 锚点框确定方法、装置、计算机设备和存储介质 | |
CN104572930B (zh) | 数据分类方法及装置 | |
US11257212B2 (en) | Image analysis device | |
CN111814820A (zh) | 图像处理方法及装置 | |
US20230161783A1 (en) | Device for accelerating self-attention operation in neural networks | |
CN116152644A (zh) | 一种基于人工合成数据和多源迁移学习的长尾物体识别方法 | |
TWI752478B (zh) | 影像處理方法與影像處理系統 | |
CN115018884A (zh) | 基于多策略融合树的可见光红外视觉跟踪方法 | |
CN112634143A (zh) | 图像色彩校正模型训练方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7203889 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |