JP2020522773A - 画像内のオブジェクトの検出および表現 - Google Patents
画像内のオブジェクトの検出および表現 Download PDFInfo
- Publication number
- JP2020522773A JP2020522773A JP2019555456A JP2019555456A JP2020522773A JP 2020522773 A JP2020522773 A JP 2020522773A JP 2019555456 A JP2019555456 A JP 2019555456A JP 2019555456 A JP2019555456 A JP 2019555456A JP 2020522773 A JP2020522773 A JP 2020522773A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sub
- images
- embedding function
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title abstract description 3
- 238000000034 method Methods 0.000 claims abstract description 90
- 238000012549 training Methods 0.000 claims abstract description 84
- 238000004590 computer program Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 24
- 238000011524 similarity measure Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 109
- 230000008569 process Effects 0.000 description 51
- 238000010586 diagram Methods 0.000 description 10
- 238000011176 pooling Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
- G06F18/21347—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis using domain transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
- G06F18/21355—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
Abstract
Description
102 トレーニング画像、画像トレーニングセット
104 オブジェクト検出部
106 特定タイプのオブジェクトの出現を描いたもの、検出されたオブジェクトを含むサブ画像
108 トリプレット選択層
110 第1の画像、第1のサブ画像
112 第2の画像、第2のサブ画像
114 第3の画像、第3のサブ画像
122 モデル性能指標層
124 第1の時間期間T1
126 第1の時間期間T1の適切なサブセットである第2の時間期間T2
128 モデルデータ
130 システム
140 サブ画像
142 サブ画像
200 一例示的プロセス
220 一例示的プロセス
300 プロセス
400 プロセス
500 システム
502 画像セット
504 検出されたオブジェクトの出現を描いたサブ画像
506 画像埋め込み関数
508 クラスタ化アルゴリズム
600 一例示的プロセス
Claims (18)
- データ処理装置によって実行される方法であって、
画像トレーニングセット中の各画像内の特定タイプのオブジェクトの出現を検出するステップであって、前記画像トレーニングセット中の画像が、第1の時間期間内に捕捉された画像である、抽出するステップと、
前記画像トレーニングセット中の前記画像から、検出されたオブジェクトの1回の出現をそれぞれが描いているサブ画像を抽出するステップと、
画像埋め込み関数を反復的にトレーニングするステップであって、前記画像埋め込み関数が、入力画像に作用して、出力として前記入力画像の特徴表現を生じさせる、1組のパラメータ重みを含み、前記トレーニングの各反復が、
前記抽出されたサブ画像から、第1のタイプの画像ペアおよび第2のタイプの画像ペアを選択するステップであって、各画像ペアが、第1のサブ画像と第2のサブ画像との組合せであり、
前記第1のタイプの画像ペアが、前記特定タイプのオブジェクトの同一インスタンスを描いた第1のサブ画像および第2のサブ画像を含み、
前記第2のタイプの画像ペアが、前記特定タイプのオブジェクトの異なるインスタンスを描いた第1のサブ画像および第2のサブ画像を含み、かつ
前記第1のタイプの画像ペアについて、前記画像ペアの少なくとも前記第1のサブ画像および前記第2のサブ画像が、前記第1の時間期間よりも短い第2の時間期間内に捕捉された画像から抽出されたものである、
選択するステップ、
選択された各画像ペアを入力として前記画像埋め込み関数に与えるとともに、対応する出力を生成するステップ、
前記画像埋め込み関数の性能指標を決定するステップ、
前記画像埋め込み関数の前記パラメータ重みを、前記性能指標に基づいて調整するステップ、および
前記トレーニングの別の反復を、停止事象が生じるまで実施するステップを含む、反復的にトレーニングするステップとを含む、
方法。 - 前記第1のタイプの画像ペアおよび前記第2のタイプの画像ペアを選択するステップが、
画像トリプレットを選択するステップであって、各画像トリプレットが、第1のサブ画像と、第2のサブ画像と、第3のサブ画像との組合せであり、
前記第1のサブ画像および前記第2のサブ画像を含む画像ペアが、前記第1のタイプの画像ペアであり、
前記第1のサブ画像および前記第3のサブ画像を含む画像ペアが、前記第2のタイプの画像ペアである、
選択するステップを含む、
請求項1に記載の方法。 - 画像トリプレットを入力として前記画像埋め込み関数に与えるとともに、対応する出力を生成するステップが、
前記画像埋め込み関数によって、前記画像トリプレット中の前記第1のサブ画像の第1の特徴表現、前記画像トリプレット中の前記第2のサブ画像の第2の特徴表現、および前記画像トリプレット中の前記第3のサブ画像の第3の特徴表現を生成するステップを含む、
請求項2に記載の方法。 - 前記画像埋め込みの前記性能指標を決定するステップが、
選択された各画像トリプレットについて、
前記第1の特徴表現および前記第2の特徴表現に基づいて、前記第1の特徴表現と前記第2の特徴表現の類似性を測定する第1の類似性指標を決定するステップと、
前記第1の特徴表現および前記第3の特徴表現に基づいて、前記第1の特徴表現と前記第3の特徴表現の類似性を測定する第2の類似性指標を決定するステップとを含む、
請求項3に記載の方法。 - 前記画像埋め込み関数が、出力特徴表現として入力画像のユークリッド空間への写像を生成し、
選択された各画像トリプレットについて、
前記第1の類似性指標を決定する前記ステップが、前記第1の特徴表現と前記第2の特徴表現との間の第1のユークリッド距離を決定するステップを含み、
前記第2の類似性指標を決定する前記ステップが、前記第1の特徴表現と前記第3の特徴表現との間の第2のユークリッド距離を決定するステップを含む、
請求項4に記載の方法。 - 前記画像埋め込み関数の性能指標の決定が、選択された各画像トリプレットについての前記第1のユークリッド距離および前記第2のユークリッド距離に基づく、
請求項5に記載の方法。 - 選択された各画像トリプレットについての前記第1のユークリッド距離および前記第2のユークリッド距離に基づいて前記性能指標を決定するステップが、
選択された各画像トリプレットについての前記第1のユークリッド距離と前記第2のユークリッド距離との差に基づくヒンジ損失を決定するステップを含む、
請求項6に記載の方法。 - 前記性能指標を決定するステップが、
前記選択された画像トリプレットについての前記ヒンジ損失を合計するステップを含む、
請求項7に記載の方法。 - 前記画像埋め込み関数が畳み込みニューラルネットワークを含む、
請求項1から8のいずれか一項に記載の方法。 - 前記オブジェクトが人体全身である、
請求項1から9のいずれか一項に記載の方法。 - 前記トレーニングされたニューラルネットワークによって生成された特徴表現が、クラスタ化アルゴリズムを使用してグループに割り当てられる、
請求項1から10のいずれか一項に記載の方法。 - 抽出された各サブ画像にキーポイントがアノテーションされ、
前記画像埋め込み関数の出力が、前記入力画像の前記特徴表現、および前記入力画像の予測されたキーポイントアノテーションを含み、
前記画像埋め込み関数の前記性能指標を決定するステップが、
前記予測されたキーポイントアノテーションと前記キーポイントアノテーションとの間の類似性を決定するステップを含む、
請求項1から11のいずれか一項に記載の方法。 - 前記画像トレーニングセット中の前記画像からサブ画像を抽出するステップが、
各サブ画像にキーポイントをアノテーションするステップと、
特定のサブ画像を基準サブ画像として選択するステップと、
各サブ画像を、そのキーポイントを前記基準サブ画像の前記キーポイントと位置整合させるように変換するステップとを含む、
請求項1から12のいずれか一項に記載の方法。 - 抽出された各サブ画像にキーポイントがアノテーションされ、
前記画像埋め込み関数の入力が、入力画像、および前記入力画像のアノテーションされたキーポイントを含み、
選択された各画像ペアを入力として前記画像埋め込み関数に与えることが、
選択された各画像ペア中の各サブ画像の前記アノテーションされたキーポイントを入力として前記画像埋め込み関数に与えることを含む、
請求項1から13のいずれか一項に記載の方法。 - 前記第1のタイプの画像ペアについて、前記第1のサブ画像および前記第2のサブ画像が、特定の事象中に捕捉された画像から抽出および選択される、
請求項1から14のいずれか一項に記載の方法。 - 前記第1のタイプの画像ペアについて、前記第1のサブ画像および前記第2のサブ画像が、前記第2の時間期間内に捕捉された画像から抽出および選択される、
請求項1から15のいずれか一項に記載の方法。 - 1つまたは複数のコンピューティングデバイスと、
前記1つまたは複数のコンピューティングデバイスに結合された1つまたは複数のコンピュータ可読記憶媒体とを備えたシステムであって、前記1つまたは複数のコンピュータ可読記憶媒体が、前記1つまたは複数のコンピューティングデバイスに以下の動作を実行させるための命令を記憶し、前記動作が、
画像トレーニングセット中の各画像内の特定タイプのオブジェクトの出現を検出することであって、前記画像トレーニングセット中の前記画像が、第1の時間期間内に捕捉された画像である、検出することと、
前記画像トレーニングセット中の前記画像から、検出されたオブジェクトの1回の出現をそれぞれが描いているサブ画像を抽出することと、
画像埋め込み関数を反復的にトレーニングすることであって、前記画像埋め込み関数が、入力画像に作用して、出力として前記入力画像の特徴表現を生じさせる、1組のパラメータ重みを含み、前記トレーニングの各反復が、
前記抽出されたサブ画像から、第1のタイプの画像ペアおよび第2のタイプの画像ペアを選択することであって、各画像ペアが、第1のサブ画像と第2のサブ画像との組合せであり、
前記第1のタイプの画像ペアが、前記特定タイプのオブジェクトの同一インスタンスを描いた第1のサブ画像および第2のサブ画像を含み、
前記第2のタイプの画像ペアが、前記特定タイプのオブジェクトの異なるインスタンスを描いた第1のサブ画像および第2のサブ画像を含み、かつ
前記第1のタイプの画像ペアについて、前記画像ペアの少なくとも前記第1のサブ画像および前記第2のサブ画像が、前記第1の時間期間よりも短い第2の時間期間内に捕捉された画像から抽出されたものである、
選択すること、
選択された各画像ペアを入力として前記画像埋め込み関数に与えるとともに、対応する出力を生成すること、
前記画像埋め込み関数の性能指標を決定すること、
前記画像埋め込み関数の前記パラメータ重みを、前記性能指標に基づいて調整すること、および
前記トレーニングの別の反復を、停止事象が生じるまで実施すること
を含む、反復的にトレーニングすることとを含む、
システム。 - コンピュータプログラムを記憶しているコンピュータ可読記憶媒体であって、前記コンピュータプログラムが、データ処理装置に以下の動作を実行させるための命令を含み、前記動作が、
画像トレーニングセット中の各画像内の特定タイプのオブジェクトの出現を検出することであって、前記画像トレーニングセット中の前記画像が、第1の時間期間内に捕捉された画像である、検出することと、
前記画像トレーニングセット中の前記画像から、検出されたオブジェクトの1回の出現をそれぞれが描いているサブ画像を抽出することと、
画像埋め込み関数を反復的にトレーニングすることであって、前記画像埋め込み関数が、入力画像に作用して、出力として前記入力画像の特徴表現を生じさせる、1組のパラメータ重みを含み、前記トレーニングの各反復が、
前記抽出されたサブ画像から第1のタイプの画像ペアおよび第2のタイプの画像ペアを選択することであって、各画像ペアが、第1のサブ画像と第2のサブ画像との組合せであり、
前記第1のタイプの画像ペアが、前記特定タイプのオブジェクトの同一インスタンスを描いた第1のサブ画像および第2のサブ画像を含み、
前記第2のタイプの画像ペアが、前記特定タイプのオブジェクトの異なるインスタンスを描いた第1のサブ画像および第2のサブ画像を含み、かつ
前記第1のタイプの画像ペアについて、前記画像ペアの少なくとも前記第1のサブ画像および前記第2のサブ画像が、前記第1の時間期間よりも短い第2の時間期間内に捕捉された画像から抽出されたものである、
選択すること、
選択された各画像ペアを入力として前記画像埋め込み関数に与えるとともに、対応する出力を生成すること、
前記画像埋め込み関数の性能指標を決定すること、
前記画像埋め込み関数の前記パラメータ重みを、前記性能指標に基づいて調整すること、および
前記トレーニングの別の反復を、停止事象が生じるまで実施することを含む、
反復的にトレーニングすることとを含む、
コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/704,746 | 2017-09-14 | ||
US15/704,746 US10452954B2 (en) | 2017-09-14 | 2017-09-14 | Object detection and representation in images |
PCT/US2018/036928 WO2019055080A1 (en) | 2017-09-14 | 2018-06-11 | DETECTION AND REPRESENTATION OF OBJECT IN IMAGES |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020522773A true JP2020522773A (ja) | 2020-07-30 |
JP6905079B2 JP6905079B2 (ja) | 2021-07-21 |
Family
ID=62779132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019555456A Active JP6905079B2 (ja) | 2017-09-14 | 2018-06-11 | 画像内のオブジェクトの検出および表現 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10452954B2 (ja) |
EP (1) | EP3593277A1 (ja) |
JP (1) | JP6905079B2 (ja) |
KR (1) | KR102252439B1 (ja) |
CN (1) | CN110506274B (ja) |
WO (1) | WO2019055080A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018013200A1 (en) | 2016-07-14 | 2018-01-18 | Magic Leap, Inc. | Deep neural network for iris identification |
US11797838B2 (en) | 2018-03-13 | 2023-10-24 | Pinterest, Inc. | Efficient convolutional network for recommender systems |
CN110084161B (zh) * | 2019-04-17 | 2023-04-18 | 中山大学 | 一种人体骨骼关键点的快速检测方法及系统 |
WO2021154717A1 (en) * | 2020-01-31 | 2021-08-05 | Gauss Surgical, Inc. | Instrument tracking machine |
KR102232880B1 (ko) * | 2020-06-12 | 2021-03-29 | 주식회사 크라우드웍스 | 인공지능 학습데이터 생성을 위한 이미지 또는 동영상 수집을 위한 크라우드소싱 기반 프로젝트의 검수자 평가 방법 |
KR20210155179A (ko) * | 2020-06-15 | 2021-12-22 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
JP7425445B2 (ja) | 2020-07-17 | 2024-01-31 | 日本電信電話株式会社 | 特徴学習装置、特徴抽出装置、特徴学習方法及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8712156B2 (en) * | 2010-01-10 | 2014-04-29 | Bronstein Bronstein Kimmel Technologies Ltd. | Comparison of visual information |
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
WO2015035229A2 (en) * | 2013-09-05 | 2015-03-12 | Cellscope, Inc. | Apparatuses and methods for mobile imaging and analysis |
US9268793B2 (en) * | 2014-03-12 | 2016-02-23 | Google Inc. | Adjustment of facial image search results |
EP3158508A1 (en) * | 2014-06-20 | 2017-04-26 | Google, Inc. | Fine-grained image similarity |
EP3234871B1 (en) * | 2014-12-17 | 2020-11-25 | Google LLC | Generating numeric embeddings of images |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US9953217B2 (en) * | 2015-11-30 | 2018-04-24 | International Business Machines Corporation | System and method for pose-aware feature learning |
CN105512273A (zh) * | 2015-12-03 | 2016-04-20 | 中山大学 | 一种基于可变长深度哈希学习的图像检索方法 |
US10242266B2 (en) * | 2016-03-02 | 2019-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for detecting actions in videos |
US10839573B2 (en) * | 2016-03-22 | 2020-11-17 | Adobe Inc. | Apparatus, systems, and methods for integrating digital media content into other digital media content |
US10753881B2 (en) * | 2016-05-27 | 2020-08-25 | Purdue Research Foundation | Methods and systems for crack detection |
US10909459B2 (en) * | 2016-06-09 | 2021-02-02 | Cognizant Technology Solutions U.S. Corporation | Content embedding using deep metric learning algorithms |
CN106203533B (zh) * | 2016-07-26 | 2019-09-20 | 厦门大学 | 基于混合训练的深度学习人脸验证方法 |
CN106649886A (zh) * | 2017-01-13 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种利用三元组标签的深度监督散列进行图像检索方法 |
-
2017
- 2017-09-14 US US15/704,746 patent/US10452954B2/en active Active
-
2018
- 2018-06-11 WO PCT/US2018/036928 patent/WO2019055080A1/en unknown
- 2018-06-11 JP JP2019555456A patent/JP6905079B2/ja active Active
- 2018-06-11 EP EP18735148.1A patent/EP3593277A1/en active Pending
- 2018-06-11 KR KR1020197029644A patent/KR102252439B1/ko active IP Right Grant
- 2018-06-11 CN CN201880024390.2A patent/CN110506274B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR20190126857A (ko) | 2019-11-12 |
WO2019055080A1 (en) | 2019-03-21 |
US20190080204A1 (en) | 2019-03-14 |
CN110506274A (zh) | 2019-11-26 |
CN110506274B (zh) | 2023-11-24 |
KR102252439B1 (ko) | 2021-05-14 |
US10452954B2 (en) | 2019-10-22 |
JP6905079B2 (ja) | 2021-07-21 |
EP3593277A1 (en) | 2020-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6905079B2 (ja) | 画像内のオブジェクトの検出および表現 | |
WO2020228525A1 (zh) | 地点识别及其模型训练的方法和装置以及电子设备 | |
Sangkloy et al. | The sketchy database: learning to retrieve badly drawn bunnies | |
EP3388978B1 (en) | Image classification method, electronic device, and storage medium | |
Bu et al. | Learning high-level feature by deep belief networks for 3-D model retrieval and recognition | |
CN109783666B (zh) | 一种基于迭代精细化的图像场景图谱生成方法 | |
US10013653B2 (en) | System and a method for learning features on geometric domains | |
WO2020061489A1 (en) | Training neural networks for vehicle re-identification | |
WO2018020277A1 (en) | Domain separation neural networks | |
Felzenszwalb et al. | Object detection grammars. | |
CN110796057A (zh) | 行人重识别方法、装置及计算机设备 | |
KR20210021147A (ko) | 베이지안 최적화를 수행하기 위한 시스템 및 방법 | |
WO2020098257A1 (zh) | 一种图像分类方法、装置及计算机可读存储介质 | |
CN113661487A (zh) | 使用机器训练词条频率加权因子的产生密集嵌入向量的编码器 | |
Spiller | Object Localization Using Deformable Templates | |
Angelopoulou et al. | Fast 2d/3d object representation with growing neural gas | |
US11908053B2 (en) | Method, non-transitory computer-readable storage medium, and apparatus for searching an image database | |
US20220229943A1 (en) | Joint retrieval and mesh deformation | |
Ye et al. | Fast single sample face recognition based on sparse representation classification | |
Dalara et al. | Entity Recognition in Indian Sculpture using CLAHE and machine learning | |
US11893313B2 (en) | Interactive object selection | |
Sakaguchi | Intelligent Interior Design-Style Compatibility of 3D Furniture Models using Neural Networks | |
Su et al. | Hybrid clustering based on a graph model | |
Chen et al. | Research on Eliminating Mismatched Feature Points: A Review | |
Challapalli et al. | Generative adversarial network based data augmentation and quantum based convolution neural network for the classification of Indian classical dance forms. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6905079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |