JP7005669B2 - 畳み込み画像変換推定を実行するための方法およびシステム - Google Patents
畳み込み画像変換推定を実行するための方法およびシステム Download PDFInfo
- Publication number
- JP7005669B2 JP7005669B2 JP2020043362A JP2020043362A JP7005669B2 JP 7005669 B2 JP7005669 B2 JP 7005669B2 JP 2020043362 A JP2020043362 A JP 2020043362A JP 2020043362 A JP2020043362 A JP 2020043362A JP 7005669 B2 JP7005669 B2 JP 7005669B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subset
- homography
- corners
- corner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Algebra (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
本願は、2016年5月20日に出願され、“Deep Image Homography Estimation”と題された、米国仮特許出願第62/339,799号に対する優先権を主張するものであり、該米国仮特許出願の開示は、あらゆる目的のためにその全体が参照により本明細書中に援用される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
画像に基づいてニューラルネットワークのための入力を生成するための方法であって、前記方法は、
前記画像を受信することと、
前記画像内の位置を識別することと、
前記位置における前記画像のサブセットを識別することであって、前記画像のサブセットは、コーナーの第1のセットによって定義される、ことと、
前記コーナーの第1のセットのうちの少なくとも1つを摂動し、コーナーの第2のセットを形成することであって、前記コーナーの第2のセットは、前記画像の修正されたサブセットを定義する、ことと、
前記画像のサブセットと前記画像の修正されたサブセットとの間の比較に基づいて、ホモグラフィを決定することと、
前記ホモグラフィを前記画像に適用することによって、変換された画像を生成することと、
前記位置における前記変換された画像のサブセットを識別することと
を含む、方法。
(項目2)
前記画像のサブセット、前記変換された画像のサブセット、および前記ホモグラフィを前記ニューラルネットワークに送信することをさらに含む、項目1に記載の方法。
(項目3)
前記変換された画像のサブセットが境界アーチファクトを含まないことを決定することをさらに含む、項目1に記載の方法。
(項目4)
前記コーナーの第1のセットのうちの前記少なくとも1つを摂動し、前記コーナーの第2のセットを形成することは、
前記コーナーの第2のセットの第1の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第1のコーナーを囲繞する第1の摂動領域を定義することと、
前記コーナーの第2のセットの第2の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第2のコーナーを囲繞する第2の摂動領域を定義することと、
前記コーナーの第2のセットの第3の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第3のコーナーを囲繞する第3の摂動領域を定義することと、
前記コーナーの第2のセットの第4の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第4のコーナーを囲繞する第4の摂動領域を定義することと、
前記第1の摂動されたコーナーを前記第1の摂動領域内の第1のランダム位置に形成することと、
前記第2の摂動されたコーナーを前記第2の摂動領域内の第2のランダム位置に形成することと、
前記第3の摂動されたコーナーを前記第3の摂動領域内の第3のランダム位置に形成することと、
前記第4の摂動されたコーナーを前記第4の摂動領域内の第4のランダム位置に形成することと
を含む、項目1に記載の方法。
(項目5)
前記画像内の位置を識別することは、
前記第1の摂動領域、前記第2の摂動領域、前記第3の摂動領域、および前記第4の摂動領域が前記画像外に延在しないように、前記画像内の位置をランダムに選択すること
を含む、項目4に記載の方法。
(項目6)
前記比較に基づいて前記ホモグラフィを決定することは、
前記コーナーの第1のセットと前記コーナーの第2のセットとの間の1つ以上の変位ベクトルを決定することであって、前記1つ以上の変位ベクトルの各々は、第1の次元および第2の次元における対応するコーナー間のオフセットを示す、こと
を含む、項目1に記載の方法。
(項目7)
前記ホモグラフィを前記画像に適用することによって前記変換された画像を生成することは、
前記ホモグラフィの逆を前記画像に適用し、前記変換された画像を生成すること
を含む、項目1に記載の方法。
(項目8)
ニューラルネットワークを訓練するための方法であって、前記方法は、
複数の画像を受信することと、
前記複数の画像の個々の画像毎に、
前記個々の画像のサブセット、変換された画像のサブセット、および前記個々の画像のサブセットと前記変換された画像のサブセットとに基づくホモグラフィを含む、訓練トリプレットを生成することと、
前記ニューラルネットワークによって、前記個々の画像のサブセットと前記変換された画像のサブセットとに基づいて推定されるホモグラフィを生成することと、
前記推定されるホモグラフィと前記ホモグラフィを比較することと、
前記比較に基づいて、前記ニューラルネットワークを修正することと
を含む、方法。
(項目9)
前記訓練トリプレットを生成することは、
前記個々の画像内の位置を識別することと、
前記位置における前記個々の画像のサブセットを識別することであって、前記個々の画像のサブセットは、コーナーの第1のセットによって定義される、ことと、
前記コーナーの第1のセットのうちの少なくとも1つを摂動し、コーナーの第2のセットを形成することであって、前記コーナーの第2のセットは、前記個々の画像の修正されたサブセットを定義する、ことと、
前記画像のサブセットと前記画像の修正されたサブセットとの間の比較に基づいて、前記ホモグラフィを決定することと、
前記ホモグラフィを前記個々の画像に適用することによって、前記変換された画像を生成することと、
前記位置における前記変換された画像のサブセットを識別することと
を含む、項目8に記載の方法。
(項目10)
前記画像のサブセット、前記変換された画像のサブセット、および前記ホモグラフィを前記ニューラルネットワークに送信することをさらに含む、項目9に記載の方法。
(項目11)
前記変換された画像のサブセットが境界アーチファクトを含まないことを決定することをさらに含む、項目9に記載の方法。
(項目12)
前記コーナーの第1のセットのうちの前記少なくとも1つを摂動し、前記コーナーの第2のセットを形成することは、
前記コーナーの第2のセットの第1の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第1のコーナーを囲繞する第1の摂動領域を定義することと、
前記コーナーの第2のセットの第2の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第2のコーナーを囲繞する第2の摂動領域を定義することと、
前記コーナーの第2のセットの第3の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第3のコーナーを囲繞する第3の摂動領域を定義することと、
前記コーナーの第2のセットの第4の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第4のコーナーを囲繞する第4の摂動領域を定義することと、
前記第1の摂動されたコーナーを前記第1の摂動領域内の第1のランダム位置に形成することと、
前記第2の摂動されたコーナーを前記第2の摂動領域内の第2のランダム位置に形成することと、
前記第3の摂動されたコーナーを前記第3の摂動領域内の第3のランダム位置に形成することと、
前記第4の摂動されたコーナーを前記第4の摂動領域内の第4のランダム位置に形成することと
を含む、項目9に記載の方法。
(項目13)
前記画像内の位置を識別することは、前記第1の摂動領域、前記第2の摂動領域、前記第3の摂動領域、および前記第4の摂動領域が前記画像外に延在しないように、前記画像内の位置をランダムに選択することを含む、項目12に記載の方法。
(項目14)
前記ホモグラフィを前記画像に適用することによって前記変換された画像を生成することは、
前記ホモグラフィの逆を前記画像に適用し、前記変換された画像を生成すること
を含む、項目9に記載の方法。
(項目15)
2つの画像に基づいて推定されるホモグラフィを生成するための方法であって、
第1のカメラ姿勢に基づく第1の画像を受信することと、
第2のカメラ姿勢に基づく第2の画像を受信することと、
前記第1の画像および前記第2の画像をニューラルネットワークの中に入力することと、
前記ニューラルネットワークによって、前記第1の画像および前記第2の画像に基づいて推定されるホモグラフィを生成することであって、前記ニューラルネットワークは、
複数の画像を受信することと、
前記複数の画像の個々の画像毎に、
前記個々の画像内の位置を識別することと、
前記位置における前記個々の画像のサブセットを識別することであって、前記個々の画像のサブセットは、コーナーの第1のセットによって定義される、ことと、
前記コーナーの第1のセットのうちの少なくとも1つを摂動し、コーナーの第2のセットを形成することであって、前記コーナーの第2のセットは、前記個々の画像の修正されたサブセットを定義する、ことと、
前記画像のサブセットと前記画像の修正されたサブセットとの間の比較に基づいて、ホモグラフィを決定することと、
前記ホモグラフィを前記個々の画像に適用することによって、変換された画像を生成することと、
前記位置における前記変換された画像のサブセットを識別することと、
前記個々の画像のサブセットと前記変換された画像のサブセットとに基づいて特定の推定されるホモグラフィを生成することと、
前記特定の推定されるホモグラフィと前記ホモグラフィを比較することと、
前記比較に基づいて、前記ニューラルネットワークを修正することと
によって事前に訓練されている、ことと
を含む、方法。
(項目16)
前記画像のサブセット、前記変換された画像のサブセット、および前記ホモグラフィを前記ニューラルネットワークに送信すること
をさらに含む、項目15に記載の方法。
(項目17)
前記変換された画像のサブセットが境界アーチファクトを含まないことを決定すること
をさらに含む、項目15に記載の方法。
(項目18)
前記コーナーの第1のセットのうちの少なくとも1つを摂動し、前記コーナーの第2のセットを形成することは、
前記コーナーの第2のセットの第1の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第1のコーナーを囲繞する第1の摂動領域を定義することと、
前記コーナーの第2のセットの第2の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第2のコーナーを囲繞する第2の摂動領域を定義することと、
前記コーナーの第2のセットの第3の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第3のコーナーを囲繞する第3の摂動領域を定義することと、
前記コーナーの第2のセットの第4の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第4のコーナーを囲繞する第4の摂動領域を定義することと、
前記第1の摂動されたコーナーを前記第1の摂動領域内の第1のランダム位置に形成することと、
前記第2の摂動されたコーナーを前記第2の摂動領域内の第2のランダム位置に形成することと、
前記第3の摂動されたコーナーを前記第3の摂動領域内の第3のランダム位置に形成することと、
前記第4の摂動されたコーナーを前記第4の摂動領域内の第4のランダム位置に形成することと
を含む、項目15に記載の方法。
(項目19)
前記画像内の位置を識別することは、前記第1の摂動領域、前記第2の摂動領域、前記第3の摂動領域、および前記第4の摂動領域が前記画像外に延在しないように、前記画像内の位置をランダムに選択することを含む、項目18に記載の方法。
(項目20)
前記ホモグラフィを前記画像に適用することによって前記変換された画像を生成することは、
前記ホモグラフィの逆を前記画像に適用し、前記変換された画像を生成すること
を含む、項目15に記載の方法。
摂動され、1つ以上の摂動されたコーナーを形成する。いくつかの実施形態では、サブセット
はそれぞれ、垂直および水平方向の両方における範囲[-ρ、ρ]内の値によって摂動されてもよい。本開示のいくつかの実装では、位置pおよび摂動範囲ρは、摂動領域535が画像IA外に延在しないように選択されてもよい。例えば、位置pは、サブセット
Claims (13)
- 2つの画像に基づいて推定されるホモグラフィを生成するための方法であって、前記方法は、
第1のカメラ姿勢に基づく第1の画像を受信することと、
第2のカメラ姿勢に基づく第2の画像を受信することと、
前記第1の画像および前記第2の画像をニューラルネットワークの中に入力することと、
前記ニューラルネットワークによって、前記第1の画像および前記第2の画像に基づいて推定されるホモグラフィを生成することであって、前記ニューラルネットワークは、
複数の画像を受信すること、および、
前記複数の画像の個々の画像毎に、
前記個々の画像内の位置を識別することと、
前記位置における前記個々の画像のサブセットを識別することであって、前記個々の画像のサブセットは、コーナーの第1のセットによって定義される、ことと、
前記コーナーの第1のセットのうちの少なくとも1つを摂動し、コーナーの第2のセットを形成することであって、前記コーナーの第2のセットは、前記個々の画像の修正されたサブセットを定義する、ことと、
前記個々の画像のサブセットと前記個々の画像の修正されたサブセットとの間の比較に基づいて、ホモグラフィを決定することと、
前記ホモグラフィを前記個々の画像に適用することによって、変換された画像を生成することと、
前記位置における前記変換された画像のサブセットを識別することと、
前記個々の画像のサブセットと前記変換された画像のサブセットとに基づいて特定の推定されるホモグラフィを生成することと、
前記特定の推定されるホモグラフィと前記ホモグラフィを比較することと、
前記比較に基づいて、前記ニューラルネットワークを修正することと
を実行すること
によって事前に訓練されている、ことと
を含む、方法。 - 前記個々の画像のサブセット、前記変換された画像のサブセット、および前記ホモグラフィを前記ニューラルネットワークに送信すること
をさらに含む、請求項1に記載の方法。 - 前記変換された画像のサブセットが境界アーチファクトを含まないことを決定すること
をさらに含む、請求項1に記載の方法。 - 前記コーナーの第1のセットのうちの少なくとも1つを摂動し、前記コーナーの第2のセットを形成することは、
前記コーナーの第2のセットの第1の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第1のコーナーを囲繞する第1の摂動領域を定義することと、
前記コーナーの第2のセットの第2の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第2のコーナーを囲繞する第2の摂動領域を定義することと、
前記コーナーの第2のセットの第3の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第3のコーナーを囲繞する第3の摂動領域を定義することと、
前記コーナーの第2のセットの第4の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第4のコーナーを囲繞する第4の摂動領域を定義することと、
前記第1の摂動されたコーナーを前記第1の摂動領域内の第1のランダム位置に形成することと、
前記第2の摂動されたコーナーを前記第2の摂動領域内の第2のランダム位置に形成することと、
前記第3の摂動されたコーナーを前記第3の摂動領域内の第3のランダム位置に形成することと、
前記第4の摂動されたコーナーを前記第4の摂動領域内の第4のランダム位置に形成することと
を含む、請求項1に記載の方法。 - 前記個々の画像内の位置を識別することは、前記第1の摂動領域、前記第2の摂動領域、前記第3の摂動領域、および前記第4の摂動領域が前記個々の画像外に延在しないように、前記個々の画像内の位置をランダムに選択することを含む、請求項4に記載の方法。
- 前記ホモグラフィを前記個々の画像に適用することによって前記変換された画像を生成することは、
前記ホモグラフィの逆を前記個々の画像に適用し、前記変換された画像を生成すること
を含む、請求項1に記載の方法。 - ニューラルネットワークを訓練するための方法であって、前記方法は、
複数の画像を受信すること、および、
前記複数の画像の個々の画像毎に、
前記個々の画像のサブセット、変換された画像のサブセット、および前記個々の画像のサブセットと前記変換された画像のサブセットとに基づくホモグラフィを含む、訓練トリプレットを生成することと、
前記ニューラルネットワークによって、前記個々の画像のサブセットと前記変換された画像のサブセットとに基づいて推定されるホモグラフィを生成することと、
前記推定されるホモグラフィと前記ホモグラフィを比較することと、
前記比較に基づいて、前記ニューラルネットワークを修正することと
を実行すること
を含む、方法。 - 前記訓練トリプレットを生成することは、
前記個々の画像内の位置を識別することと、
前記位置における前記個々の画像のサブセットを識別することであって、前記個々の画像のサブセットは、コーナーの第1のセットによって定義される、ことと、
前記コーナーの第1のセットのうちの少なくとも1つを摂動し、コーナーの第2のセットを形成することであって、前記コーナーの第2のセットは、前記個々の画像の修正されたサブセットを定義する、ことと、
前記画像のサブセットと前記画像の修正されたサブセットとの間の比較に基づいて、前記ホモグラフィを決定することと、
前記ホモグラフィを前記個々の画像に適用することによって、前記変換された画像を生成することと、
前記位置における前記変換された画像のサブセットを識別することと
を含む、請求項7に記載の方法。 - 前記画像のサブセット、前記変換された画像のサブセット、および前記ホモグラフィを前記ニューラルネットワークに送信すること
をさらに含む、請求項8に記載の方法。 - 前記変換された画像のサブセットが境界アーチファクトを含まないことを決定すること
をさらに含む、請求項8に記載の方法。 - 前記コーナーの第1のセットのうちの少なくとも1つを摂動し、前記コーナーの第2のセットを形成することは、
前記コーナーの第2のセットの第1の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第1のコーナーを囲繞する第1の摂動領域を定義することと、
前記コーナーの第2のセットの第2の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第2のコーナーを囲繞する第2の摂動領域を定義することと、
前記コーナーの第2のセットの第3の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第3のコーナーを囲繞する第3の摂動領域を定義することと、
前記コーナーの第2のセットの第4の摂動されたコーナーが形成され得る、前記コーナーの第1のセットの第4のコーナーを囲繞する第4の摂動領域を定義することと、
前記第1の摂動されたコーナーを前記第1の摂動領域内の第1のランダム位置に形成することと、
前記第2の摂動されたコーナーを前記第2の摂動領域内の第2のランダム位置に形成することと、
前記第3の摂動されたコーナーを前記第3の摂動領域内の第3のランダム位置に形成することと、
前記第4の摂動されたコーナーを前記第4の摂動領域内の第4のランダム位置に形成することと
を含む、請求項8に記載の方法。 - 前記画像内の位置を識別することは、前記第1の摂動領域、前記第2の摂動領域、前記第3の摂動領域、および前記第4の摂動領域が前記画像外に延在しないように、前記画像内の位置をランダムに選択することを含む、請求項11に記載の方法。
- 前記ホモグラフィを前記画像に適用することによって前記変換された画像を生成することは、
前記ホモグラフィの逆を前記画像に適用し、前記変換された画像を生成すること
を含む、請求項8に記載の方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022000411A JP7241210B2 (ja) | 2016-05-20 | 2022-01-05 | 畳み込み画像変換推定を実行するための方法およびシステム |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201662339799P | 2016-05-20 | 2016-05-20 | |
| US62/339,799 | 2016-05-20 |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018560637A Division JP6821707B2 (ja) | 2016-05-20 | 2017-05-19 | 畳み込み画像変換推定を実行するための方法およびシステム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022000411A Division JP7241210B2 (ja) | 2016-05-20 | 2022-01-05 | 畳み込み画像変換推定を実行するための方法およびシステム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2020107356A JP2020107356A (ja) | 2020-07-09 |
| JP2020107356A5 JP2020107356A5 (ja) | 2020-12-24 |
| JP7005669B2 true JP7005669B2 (ja) | 2022-01-21 |
Family
ID=60326208
Family Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018560637A Active JP6821707B2 (ja) | 2016-05-20 | 2017-05-19 | 畳み込み画像変換推定を実行するための方法およびシステム |
| JP2020043362A Active JP7005669B2 (ja) | 2016-05-20 | 2020-03-12 | 畳み込み画像変換推定を実行するための方法およびシステム |
| JP2022000411A Active JP7241210B2 (ja) | 2016-05-20 | 2022-01-05 | 畳み込み画像変換推定を実行するための方法およびシステム |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018560637A Active JP6821707B2 (ja) | 2016-05-20 | 2017-05-19 | 畳み込み画像変換推定を実行するための方法およびシステム |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022000411A Active JP7241210B2 (ja) | 2016-05-20 | 2022-01-05 | 畳み込み画像変換推定を実行するための方法およびシステム |
Country Status (9)
| Country | Link |
|---|---|
| US (3) | US10489708B2 (ja) |
| EP (1) | EP3459003B1 (ja) |
| JP (3) | JP6821707B2 (ja) |
| KR (4) | KR102347204B1 (ja) |
| CN (1) | CN109154973B (ja) |
| AU (2) | AU2017267983B2 (ja) |
| CA (1) | CA3021085A1 (ja) |
| IL (2) | IL262886B (ja) |
| WO (1) | WO2017201487A1 (ja) |
Families Citing this family (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10489708B2 (en) | 2016-05-20 | 2019-11-26 | Magic Leap, Inc. | Method and system for performing convolutional image transformation estimation |
| US10304191B1 (en) | 2016-10-11 | 2019-05-28 | Zoox, Inc. | Three dimensional bounding box estimation from two dimensional images |
| US10860070B2 (en) | 2016-11-16 | 2020-12-08 | Magic Leap, Inc. | Thermal management systems for wearable components |
| US11347054B2 (en) | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
| US10783393B2 (en) | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Semi-supervised learning for landmark localization |
| JP7091209B2 (ja) * | 2018-01-29 | 2022-06-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法及び情報処理システム |
| US11875251B2 (en) * | 2018-05-03 | 2024-01-16 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
| US11202000B2 (en) * | 2018-06-18 | 2021-12-14 | Sony Interactive Entertainment Inc. | Learning apparatus, image generation apparatus, learning method, image generation method, and program |
| CN112740274B (zh) * | 2018-09-15 | 2024-08-09 | 高通股份有限公司 | 在机器人设备上使用光流传感器进行vslam比例估计的系统和方法 |
| CN109670532B (zh) * | 2018-11-23 | 2022-12-09 | 腾讯医疗健康(深圳)有限公司 | 生物体器官组织图像的异常识别方法、装置及系统 |
| US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
| CN110827375B (zh) * | 2019-10-31 | 2023-05-30 | 湖北大学 | 一种基于微光图像的红外图像真彩着色方法及系统 |
| CN111027421A (zh) * | 2019-11-26 | 2020-04-17 | 西安宏规电子科技有限公司 | 一种基于图的直推式半监督行人再识别方法 |
| EP4073690B1 (en) * | 2019-12-12 | 2025-10-29 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Target detection method, terminal device, and medium |
| KR102343363B1 (ko) * | 2020-03-06 | 2021-12-24 | 경북대학교 산학협력단 | 2차원 손뼈 투영 이미지로부터 회전된 2차원 손뼈 투영 이미지 생성 방법, 이를 수행하기 위한 기록 매체 및 장치 |
| US11830160B2 (en) * | 2020-05-05 | 2023-11-28 | Nvidia Corporation | Object detection using planar homography and self-supervised scene structure understanding |
| EP4165460A4 (en) * | 2020-06-12 | 2023-12-06 | University of Washington | VIEW EYE TRACKING CLOSE TO THE EYES |
| CN112016612A (zh) * | 2020-08-26 | 2020-12-01 | 四川阿泰因机器人智能装备有限公司 | 一种基于单目深度估计的多传感器融合slam方法 |
| US11899095B2 (en) * | 2020-09-17 | 2024-02-13 | Texas Instruments Incorporated | Doppler processing in frequency-modulated continuous wave radar systems using dither |
| US12198395B2 (en) | 2021-01-19 | 2025-01-14 | Objectvideo Labs, Llc | Object localization in video |
| WO2022236647A1 (en) * | 2021-05-11 | 2022-11-17 | Huawei Technologies Co., Ltd. | Methods, devices, and computer readable media for training a keypoint estimation network using cgan-based data augmentation |
| CN113361542B (zh) * | 2021-06-02 | 2022-08-30 | 合肥工业大学 | 一种基于深度学习的局部特征提取方法 |
| KR20230030996A (ko) | 2021-08-26 | 2023-03-07 | 현대자동차주식회사 | 객체 추적 장치 및 방법 |
| US11688169B1 (en) * | 2022-08-29 | 2023-06-27 | Bnsf Railway Company | Drone based automated yard check |
| US12212899B2 (en) * | 2022-09-07 | 2025-01-28 | Texas Instruments Incorporated | System and method for projector geometric correction |
| CN116310339B (zh) * | 2023-03-23 | 2025-08-12 | 长沙理工大学 | 基于矩阵分解增强全局特征的遥感图像分割方法 |
| CN119556017B (zh) * | 2024-10-08 | 2025-10-10 | 扬州市双宝电力设备有限公司 | 一种基于电致发光效应的复合绝缘子电场畸变检测方法 |
| CN120869320B (zh) * | 2025-09-22 | 2026-01-02 | 好特许(杭州)品牌管理有限公司 | 一种基于大模型的重量识别方法、设备及介质 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016015037A (ja) | 2014-07-02 | 2016-01-28 | キヤノン株式会社 | 情報処理装置及びその制御方法、並びに、ビデオカメラ |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20050089213A1 (en) * | 2003-10-23 | 2005-04-28 | Geng Z. J. | Method and apparatus for three-dimensional modeling via an image mosaic system |
| US9064161B1 (en) | 2007-06-08 | 2015-06-23 | Datalogic ADC, Inc. | System and method for detecting generic items in image sequence |
| JP5600954B2 (ja) * | 2010-02-10 | 2014-10-08 | セイコーエプソン株式会社 | 検査システム、その方法及びプログラム |
| US20120092329A1 (en) | 2010-10-13 | 2012-04-19 | Qualcomm Incorporated | Text-based 3d augmented reality |
| US8903128B2 (en) * | 2011-02-16 | 2014-12-02 | Siemens Aktiengesellschaft | Object recognition for security screening and long range video surveillance |
| CN102156995A (zh) * | 2011-04-21 | 2011-08-17 | 北京理工大学 | 一种运动相机下的视频运动前景分割方法 |
| US10027952B2 (en) * | 2011-08-04 | 2018-07-17 | Trx Systems, Inc. | Mapping and tracking system with features in three-dimensional space |
| US8965057B2 (en) * | 2012-03-02 | 2015-02-24 | Qualcomm Incorporated | Scene structure-based self-pose estimation |
| US8818133B2 (en) * | 2012-07-11 | 2014-08-26 | Raytheon Company | Point cloud construction with unposed camera |
| EP2951811A4 (en) * | 2013-01-03 | 2016-08-17 | Meta Co | DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS |
| KR102028952B1 (ko) * | 2013-02-21 | 2019-10-08 | 삼성전자주식회사 | 휴대 단말에 의해 촬영된 이미지들을 합성하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말 |
| US9558426B2 (en) * | 2014-04-24 | 2017-01-31 | Nant Holdings Ip, Llc | Robust feature identification for image-based object recognition |
| US9530235B2 (en) * | 2014-11-18 | 2016-12-27 | Google Inc. | Aligning panoramic imagery and aerial imagery |
| CN106485192B (zh) * | 2015-09-02 | 2019-12-06 | 富士通株式会社 | 用于图像识别的神经网络的训练方法和装置 |
| US20170337682A1 (en) * | 2016-05-18 | 2017-11-23 | Siemens Healthcare Gmbh | Method and System for Image Registration Using an Intelligent Artificial Agent |
| US10489708B2 (en) | 2016-05-20 | 2019-11-26 | Magic Leap, Inc. | Method and system for performing convolutional image transformation estimation |
| CN116778367A (zh) * | 2016-06-03 | 2023-09-19 | 奇跃公司 | 增强现实身份验证 |
| US10477178B2 (en) * | 2016-06-30 | 2019-11-12 | Massachusetts Institute Of Technology | High-speed and tunable scene reconstruction systems and methods using stereo imagery |
| US10467768B2 (en) * | 2017-04-07 | 2019-11-05 | Intel Corporation | Optical flow estimation using 4-dimensional cost volume processing |
| US10783393B2 (en) * | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Semi-supervised learning for landmark localization |
-
2017
- 2017-05-19 US US15/600,545 patent/US10489708B2/en active Active
- 2017-05-19 KR KR1020217004440A patent/KR102347204B1/ko active Active
- 2017-05-19 KR KR1020227030570A patent/KR102506459B1/ko active Active
- 2017-05-19 JP JP2018560637A patent/JP6821707B2/ja active Active
- 2017-05-19 CA CA3021085A patent/CA3021085A1/en active Pending
- 2017-05-19 KR KR1020217043357A patent/KR102442018B1/ko active Active
- 2017-05-19 IL IL262886A patent/IL262886B/en unknown
- 2017-05-19 AU AU2017267983A patent/AU2017267983B2/en active Active
- 2017-05-19 WO PCT/US2017/033661 patent/WO2017201487A1/en not_active Ceased
- 2017-05-19 CN CN201780030961.9A patent/CN109154973B/zh active Active
- 2017-05-19 EP EP17800299.4A patent/EP3459003B1/en active Active
- 2017-05-19 KR KR1020187035437A patent/KR102218603B1/ko active Active
-
2019
- 2019-09-30 US US16/588,505 patent/US11062209B2/en active Active
-
2020
- 2020-03-12 JP JP2020043362A patent/JP7005669B2/ja active Active
-
2021
- 2021-06-07 US US17/341,079 patent/US11593654B2/en active Active
-
2022
- 2022-01-05 JP JP2022000411A patent/JP7241210B2/ja active Active
- 2022-06-29 AU AU2022204613A patent/AU2022204613A1/en not_active Abandoned
- 2022-08-01 IL IL295245A patent/IL295245B2/en unknown
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016015037A (ja) | 2014-07-02 | 2016-01-28 | キヤノン株式会社 | 情報処理装置及びその制御方法、並びに、ビデオカメラ |
Non-Patent Citations (1)
| Title |
|---|
| Panomkhawn Riyamongkol et al.,The Hopfield neural network model for solving affine transformation parameters in the correlation method,2006 IEEE Region 5 Conference,IEEE,2006年04月07日,pp.249-253,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5507421 |
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7005669B2 (ja) | 畳み込み画像変換推定を実行するための方法およびシステム | |
| US12031842B2 (en) | Method and apparatus for binocular ranging | |
| DeTone et al. | Deep image homography estimation | |
| US10235771B2 (en) | Methods and systems of performing object pose estimation | |
| EP3326156B1 (en) | Consistent tessellation via topology-aware surface tracking | |
| US11514645B2 (en) | Electronic device for providing visual localization based on outdoor three-dimension map information and operating method thereof | |
| EP4163873A1 (en) | Method and apparatus with global localization | |
| JP2023145404A (ja) | イメージ間の対応関係を識別するためにピラミッド及び固有性マッチングフライアを使用するシステム及び方法 | |
| KR101586007B1 (ko) | 데이터 처리 장치 및 방법 | |
| CN119205911B (zh) | 一种基于图像联合注意力的直接回归物体6d位姿方法及装置 | |
| US20150015792A1 (en) | Filtering a displacement field between video frames | |
| US20230298192A1 (en) | Method for subpixel disparity calculation | |
| CN106570911A (zh) | 一种基于daisy描述子的脸部卡通画合成方法 | |
| US20240153139A1 (en) | Object pose estimation in the context of neural networks |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200518 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210618 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210625 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220105 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7005669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |

