JP2021530816A - 角検出のための方法および装置 - Google Patents
角検出のための方法および装置 Download PDFInfo
- Publication number
- JP2021530816A JP2021530816A JP2021503756A JP2021503756A JP2021530816A JP 2021530816 A JP2021530816 A JP 2021530816A JP 2021503756 A JP2021503756 A JP 2021503756A JP 2021503756 A JP2021503756 A JP 2021503756A JP 2021530816 A JP2021530816 A JP 2021530816A
- Authority
- JP
- Japan
- Prior art keywords
- image
- corner
- processing unit
- corners
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 143
- 238000001514 detection method Methods 0.000 title description 54
- 238000012545 processing Methods 0.000 claims abstract description 193
- 230000001629 suppression Effects 0.000 claims description 35
- 210000001508 eye Anatomy 0.000 description 21
- 238000004891 communication Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 17
- 210000003128 head Anatomy 0.000 description 16
- 230000001052 transient effect Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000036544 posture Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 239000000758 substrate Substances 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0147—Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/026—Services making use of location information using location based information parameters using orientation information, e.g. compass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/027—Services making use of location information using location based information parameters using movement velocity, acceleration information
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
(1)画像のxおよびy導関数を算出する
(2)ピクセル毎に導関数の積を算出する
(5)ピクセル毎にスコア(Harris応答)を算出する
R=Det(H)−k(Trace(H))^2
式中、Det(H)=λ1λ2であって、Trace(H)=λ1+λ2であって、λ1およびλ2は、Hの固有値である。
(1) min(λ1,λ2)>閾値T1
(2) λ2/λ1<閾値T2
いくつかの実施形態では、閾値T1は、300であるように設定されてもよい。他の実施形態では、閾値T1は、300と異なる他の値を有してもよい。いくつかの実施形態では、閾値T2は、5であるように設定されてもよい。他の実施形態では、閾値T2は、5と異なる他の値を有してもよい。
Trace(H)>2T1およびDet(H)−T1*Trace(H)+T1^2>0
Det(H)−T2/((1+T2)^2)*Trace(H)^2>0
そのような場合、角検出器416は、以下のように、異なるk(k1、k2)の2つのHarris応答を使用して、DetおよびTraceを計算するように構成されてもよい。
(1)k1>0に基づくHarris応答(式中、T2=5であるとき、k1=T2/((1+T2)^2)=0.139)
(2)Trace^2=(k2に基づくHarris応答−k1に基づくHarris応答)/(k1−k2)>4T1^2
いくつかの実施形態では、k2は、計算を簡略化するであろうように選択されてもよい。例えば、上記の方程式(2)は、以下のように書き直されてもよい。
(2)(k2に基づくHarris応答−k1に基づくHarris応答)>(4T1^2)*(k1−k2)
そのような場合、k2は、右項((4T1^2)*(k1−k2))が1になるように選択されてもよく、評価は、左側の式が1を上回ることに基づいて、簡略化されてもよい。いくつかの実施形態では、k2は、以下の式に基づいて計算されてもよい。
K2=(k1−1/16)/16
故に、k1が、0.139に設定される場合、k2は、上記の方程式に基づいて、0.00478125に等しい。
領域1:(C1、0.7)、(C2、0.8)、(C3、0.85)、(C4、0.9)
領域2:(C5、0.6)、(C6、0.65)
領域3:(C7、0.66)、(C8、0.82)
領域4:(C9、0.9)、(C10、0.88)、(C11、0.63)
上記の実施例では、領域1は、3つの検出された角C1−C4を有し、領域2は、2つの検出された角C5−C6を有し、領域3は、2つの検出された角C7−C8を有し、領域4は、3つの検出された角C9−C11を有する。領域毎に所望される角の最大数が、3であるように選択される場合、および角を選択するための基準が、角が0.7またはより高いスコアを有していなければならないことである場合、空間ビニングモジュール424は、異なる個別の領域1−4に関して、以下の角を選択し得る。
領域1:C2、C3、C4(角C1は、領域1内に最低スコアを有し、したがって、領域1内に最高スコアを伴う3つの角が、選択され、空間ビニングモジュール424は、角の最大数が実施例では3であるように事前に規定されているため、4つ全ての角C1−C4を選択することができないことに留意されたい)。
領域2:角は選択されない(角C5およびC6が両方とも、最小スコア基準を満たさない、スコアを有するため)。
領域3:角C8のみが選択される(角C7が、最小スコア基準を満たさない、スコアを有するため)。
領域4:角C9およびC10のみが選択される(角C11が、最小スコア基準を満たさない、スコアを有するため)。
D1=((x1−xr)^2+(y1−yr)^2)^1/2
D2=((x2−xr)^2+(y2−yr)^2)^1/2
角位置決定器426は、次いで、最低対応距離D(すなわち、min(D1,D2)を有する、第1の画像内のピクセルの座標を、検出された角の位置として選択する。
Claims (45)
- ユーザによって頭部に装着されるために構成される装置であって、
前記ユーザのためにグラフィックを提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムに結合される処理ユニットであって、前記処理ユニットは、
第1の解像度を有する第1の画像を取得することであって、前記第1の画像は、第1の角を有する、ことと、
第2の解像度を有する第2の画像を決定することであって、前記第2の画像は、前記第1の画像内の第1の角と対応する第2の角を有し、前記第2の画像は、前記第1の画像に基づき、前記第2の解像度は、前記第1の解像度未満である、ことと、
前記第2の画像内の第2の角を検出することと、
前記第2の画像内の第2の角の位置を決定することと、
少なくとも部分的に、前記第2の画像内の第2の角の決定された位置に基づいて、前記第1の画像内の第1の角の位置を決定することと
を行うように構成される、処理ユニットと
を備える、装置。 - 前記処理ユニットは、前記第2の画像内の角のセットを検出するように構成され、前記角のセットは、前記第2の角を有する、請求項1に記載の装置。
- 前記処理ユニットは、1つ以上の基準に基づいて、前記第2の画像内の角のセットを検出するように構成され、
前記1つ以上の基準は、平面状であり、かつ/または不十分なテクスチャを有する前記第2の画像内の1つ以上のオブジェクトを除外するための第1の基準、線形構成を有する前記第2の画像内の1つ以上のオブジェクトを除外するための第2の基準、または前記第1の基準および前記第2の基準の両方を備える、
請求項2に記載の装置。 - 前記処理ユニットはまた、非最大値抑制を実施し、前記角のセット内の重複する検出された角を排除するように構成される、請求項2に記載の装置。
- 前記処理ユニットは、ハードウェアおよびソフトウェアを備え、
前記処理ユニットのハードウェアは、前記角のセットを検出するように構成され、
前記処理ユニットのソフトウェアは、前記非最大値抑制を実施するように構成される、
請求項4に記載の装置。 - 前記処理ユニットは、空間ビニングを実施し、角のサブセットを前記角のセットから選択するように構成される、請求項2に記載の装置。
- 前記処理ユニットは、
前記第2の画像を第1の画像部分を有する複数の画像部分に分割することと、
前記角のセット内の角毎に、スコアを決定することと、
前記第1の画像部分内の角のスコアに基づいて、かつ前記第1の画像部分に関して事前に規定された角の最大数に基づいて、1つ以上の角を前記第1の画像部分内の角から選択することと
によって、空間ビニングを実施するように構成される、請求項2に記載の装置。 - 前記処理ユニットは、ハードウェアおよびソフトウェアを備え、
前記処理ユニットのハードウェアは、前記角のセットを検出するように構成され、
前記処理ユニットのソフトウェアは、前記空間ビニングを実施するように構成される、
請求項6に記載の装置。 - 前記処理ユニットは、前記第1の角を含む前記第1の画像内の角のセットを検出するように構成され、
前記処理ユニットはまた、少なくとも部分的に、前記第2の画像内の第2の角の位置に基づいて、前記第1の角を前記第1の画像内の角のセットから検出するように構成される、
請求項1に記載の装置。 - 前記処理ユニットは、前記第1の画像内の角のセットを検出するように構成されるハードウェアと、前記第1の角を前記第1の画像内の角のセットから検出するように構成されるソフトウェアとを備える、請求項9に記載の装置。
- 前記処理ユニットは、前記第1の画像の前記第1の解像度と前記第2の画像の前記第2の解像度との間の関係に基づいて、前記第1の角の位置を決定するように構成される、請求項1に記載の装置。
- 前記第2の角の位置は、前記第2の画像内のピクセル位置(xr,yr)と対応し、
前記第2の画像内のピクセル位置(xr,yr)は、前記第1の画像内の複数のピクセル位置と対応し、
前記処理ユニットは、前記第2の画像内のピクセル位置(xr,yr)に対する最良空間関係を有する前記第1の画像内の複数のピクセル位置のうちの1つを選択することによって、前記第1の角の位置を決定するように構成される、
請求項1に記載の装置。 - 前記処理ユニットは、前記第1の画像を前記第2の画像に変換することによって、前記第2の画像を決定するように構成される画像調節器を備え、
前記画像調節器は、前記第1の画像の前記第1の解像度をダウンスケールし、前記第2の解像度を有する前記第2の画像を取得するように構成される、
請求項1に記載の装置。 - 前記処理ユニットは、第1の基準に基づいて動作するように構成される角検出器を備え、
前記第1の基準は、平面状であり、かつ/または不十分なテクスチャを有する前記第2の画像内のオブジェクトを除外する、
請求項1に記載の装置。 - 前記角検出器はさらに、第2の基準に基づいて動作するように構成され、
前記第2の基準は、前記第2の画像内の線形構成を伴うオブジェクトを除外する、
請求項14に記載の装置。 - 前記処理ユニットは、第1の定数k1に基づいて、前記第2の画像内の第2の角を検出するように構成される、請求項1に記載の装置。
- k1=R/(1+R)^2であり、Rは、任意の数である、請求項16に記載の装置。
- 前記処理ユニットは、第2の定数k2に基づいて、前記第2の画像内の第2の角を検出するように構成される、請求項16に記載の装置。
- 前記第2の定数k2は、前記第1の定数k1に基づく、請求項18に記載の装置。
- k2=(k1−1/16)/16である、請求項19に記載の装置。
- 前記処理ユニットは、非最大値抑制または空間ビニングのうちの少なくとも1つを実施するように構成される、請求項1に記載の装置。
- 前記処理ユニットは、非最大値抑制または空間ビニングのうちの少なくとも1つを実施するように構成されるソフトウェアを備える、請求項21に記載の装置。
- 前記処理ユニットは、少なくとも部分的に、前記第1の角の位置に基づいて、マップを作成し、前記作成されたマップに基づいて、前記ユーザの位置特定を実施するように構成される、請求項1に記載の装置。
- 頭部装着型画像ディスプレイデバイスによって実施される方法であって、
第1の解像度を有する第1の画像を取得することであって、前記第1の画像は、第1の角を有する、ことと、
第2の解像度を有する第2の画像を決定することであって、前記第2の画像は、前記第1の画像内の第1の角と対応する第2の角を有し、前記第2の画像は、前記第1の画像に基づき、前記第2の解像度は、前記第1の解像度未満である、ことと、
前記第2の画像内の第2の角を検出することと、
前記第2の画像内の第2の角の位置を決定することと、
少なくとも部分的に、前記第2の画像内の第2の角の決定された位置に基づいて、前記第1の画像内の第1の角の位置を決定することと
を含む、方法。 - 前記第2の角は、検出された前記第2の画像内の角のセットの一部である、請求項24に記載の方法。
- 前記第2の画像内の角のセットは、1つ以上の基準に基づいて検出され、
前記1つ以上の基準は、平面状であり、かつ/または不十分なテクスチャを有する前記第2の画像内の1つ以上のオブジェクトを除外するための第1の基準、線形構成を有する前記第2の画像内の1つ以上のオブジェクトを除外するための第2の基準、または前記第1の基準および前記第2の基準の両方を備える、
請求項25に記載の方法。 - 非最大値抑制を実施し、前記角のセット内で重複する検出された角を排除することをさらに含む、請求項25に記載の方法。
- 前記方法は、ハードウェアおよびソフトウェアを備える処理ユニットによって実施され、
前記角のセットは、前記処理ユニットのハードウェアによって検出され、
前記非最大値抑制は、前記処理ユニットのソフトウェアによって実施される、
請求項27に記載の方法。 - 空間ビニングを実施し、角のサブセットを前記角のセットから選択することをさらに含む、請求項25に記載の方法。
- 前記第2の画像を第1の画像部分を有する複数の画像部分に分割することと、
前記角のセット内の角毎に、スコアを決定することと、
前記第1の画像部分内の角のスコアに基づいて、かつ前記第1の画像部分に関して事前に規定された角の最大数に基づいて、1つ以上の角を前記第1の画像部分内の角から選択することと
によって、空間ビニングを実施すること
をさらに含む、請求項25に記載の方法。 - 前記方法は、ハードウェアおよびソフトウェアを備える処理ユニットによって実施され、
前記角のセットは、前記処理ユニットのハードウェアによって検出され、
前記空間ビニングは、前記処理ユニットのソフトウェアによって実施される、
請求項29に記載の方法。 - 前記第1の角を含む前記第1の画像内の角のセットを検出することと、
少なくとも部分的に、前記第2の画像内の第2の角の位置に基づいて、前記第1の角を前記第1の画像内の角のセットから識別することと
をさらに含む、請求項24に記載の方法。 - 前記第1の画像内の角のセットは、ハードウェアによって検出され、前記第1の角は、ソフトウェアによって、前記第1の画像内の角のセットから識別される、請求項32に記載の方法。
- 前記第1の角の位置は、前記第1の画像の前記第1の解像度と前記第2の画像の前記第2の解像度との間の関係に基づいて決定される、請求項24に記載の方法。
- 前記第2の角の位置は、前記第2の画像内のピクセル位置(xr,yr)と対応し、
前記第2の画像内のピクセル位置(xr,yr)は、前記第1の画像内の複数のピクセル位置と対応し、
前記第1の角の位置は、前記第2の画像内のピクセル位置(xr,yr)に対する最良空間関係を有する前記第1の画像内の複数のピクセル位置のうちの1つを選択することによって決定される、
請求項24に記載の方法。 - 前記第2の画像は、前記第1の画像を前記第2の画像に変換することによって決定され、
前記第1の画像は、前記第1の画像の前記第1の解像度をダウンスケールし、前記第2の解像度を有する前記第2の画像を取得することによって、前記第2の画像に変換される、
請求項24に記載の方法。 - 前記方法は、角検出器を備える処理ユニットによって実施され、前記角検出器は、第1の基準に基づいて動作するように構成され、
前記第1の基準は、平面状であり、かつ/または不十分なテクスチャを有する前記第2の画像内のオブジェクトを除外する、
請求項24に記載の方法。 - 前記角検出器はさらに、第2の基準に基づいて動作するように構成され、
前記第2の基準は、前記第2の画像内の線形構成を伴うオブジェクトを除外する、
請求項37に記載の方法。 - 前記第2の画像内の第2の角は、第1の定数k1に基づいて検出される、請求項24に記載の方法。
- k1=R/(1+R)^2であり、Rは、任意の数である、請求項39に記載の方法。
- 前記第2の画像内の第2の角は、第2の定数k2に基づいて検出される、請求項39に記載の方法。
- 前記第2の定数k2は、前記第1の定数k1に基づく、請求項42に記載の方法。
- k2=(k1−1/16)/16である、請求項43に記載の方法。
- 非最大値抑制または空間ビニングのうちの少なくとも1つを実施することをさらに含む、請求項24に記載の方法。
- 少なくとも部分的に、前記第1の角の位置に基づいて、マップを作成することをさらに含む、請求項24に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023215648A JP2024019662A (ja) | 2018-07-24 | 2023-12-21 | 角検出のための方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862702477P | 2018-07-24 | 2018-07-24 | |
US62/702,477 | 2018-07-24 | ||
PCT/US2019/043070 WO2020023531A1 (en) | 2018-07-24 | 2019-07-23 | Methods and apparatuses for corner detection |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023215648A Division JP2024019662A (ja) | 2018-07-24 | 2023-12-21 | 角検出のための方法および装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021530816A true JP2021530816A (ja) | 2021-11-11 |
JPWO2020023531A5 JPWO2020023531A5 (ja) | 2022-07-29 |
JP7459051B2 JP7459051B2 (ja) | 2024-04-01 |
Family
ID=69177423
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503756A Active JP7459051B2 (ja) | 2018-07-24 | 2019-07-23 | 角検出のための方法および装置 |
JP2023215648A Pending JP2024019662A (ja) | 2018-07-24 | 2023-12-21 | 角検出のための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023215648A Pending JP2024019662A (ja) | 2018-07-24 | 2023-12-21 | 角検出のための方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11430212B2 (ja) |
EP (1) | EP3827374A4 (ja) |
JP (2) | JP7459051B2 (ja) |
CN (1) | CN112470167A (ja) |
WO (1) | WO2020023531A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10755135B2 (en) * | 2018-09-23 | 2020-08-25 | Paulo Eduardo Xavier da Silveira | Computational imaging device and method for improved corner detection |
CN118135082A (zh) * | 2020-02-20 | 2024-06-04 | 奇跃公司 | 具有基于wifi/gps的地图合并的交叉现实系统 |
US11551370B2 (en) | 2020-12-18 | 2023-01-10 | Nationwide Management Services, Inc. | Remote inspection and appraisal of buildings |
CN113192095B (zh) * | 2021-05-20 | 2022-09-23 | 郑州轻工业大学 | 一种基于平行四边形对角线的角点检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004326693A (ja) * | 2003-04-28 | 2004-11-18 | Sony Corp | 画像認識装置及び方法、並びにロボット装置 |
JP2005157911A (ja) * | 2003-11-27 | 2005-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 顔領域検出方法及び装置及びプログラム及び顔領域検出プログラムを格納したコンピュータ読み取り可能な記憶媒体 |
JP2010009375A (ja) * | 2008-06-27 | 2010-01-14 | Fujifilm Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2014099087A (ja) * | 2012-11-15 | 2014-05-29 | Olympus Corp | 特徴点検出装置およびプログラム |
JP2016115305A (ja) * | 2014-12-18 | 2016-06-23 | 富士通テン株式会社 | 物体検出装置、物体検出システム、物体検出方法及びプログラム |
JP2018022376A (ja) * | 2016-08-04 | 2018-02-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040104935A1 (en) | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
DE102009039251A1 (de) * | 2009-08-28 | 2011-03-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum Zusammenfügen von mehreren digitalen Einzelbildern zu einem Gesamtbild |
WO2013076365A1 (en) * | 2011-11-22 | 2013-05-30 | Nokia Corporation | Method for image processing and an apparatus |
US8983198B2 (en) | 2012-03-22 | 2015-03-17 | The Charles Stark Draper Laboratory, Inc. | Compressive sensing with local geometric features |
US8737737B1 (en) * | 2012-03-23 | 2014-05-27 | A9.Com, Inc. | Representing image patches for matching |
US8666159B1 (en) * | 2012-06-04 | 2014-03-04 | Google Inc. | Real time feature extraction |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
KR102378457B1 (ko) | 2013-11-27 | 2022-03-23 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
US9305362B1 (en) | 2014-02-28 | 2016-04-05 | Xilinx, Inc. | Image stabilization |
US10430985B2 (en) * | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
WO2015154286A1 (zh) * | 2014-04-10 | 2015-10-15 | 深圳市大疆创新科技有限公司 | 无人飞行器的飞行参数的测量方法及装置 |
US9955056B2 (en) * | 2015-03-16 | 2018-04-24 | Qualcomm Incorporated | Real time calibration for multi-camera wireless device |
US10043076B1 (en) * | 2016-08-29 | 2018-08-07 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
US10380763B2 (en) * | 2016-11-16 | 2019-08-13 | Seiko Epson Corporation | Hybrid corner and edge-based tracking |
US10719712B2 (en) * | 2018-02-26 | 2020-07-21 | Canon Kabushiki Kaisha | Classify actions in video segments using play state information |
-
2019
- 2019-07-23 EP EP19840933.6A patent/EP3827374A4/en active Pending
- 2019-07-23 CN CN201980048886.8A patent/CN112470167A/zh active Pending
- 2019-07-23 JP JP2021503756A patent/JP7459051B2/ja active Active
- 2019-07-23 US US16/520,119 patent/US11430212B2/en active Active
- 2019-07-23 WO PCT/US2019/043070 patent/WO2020023531A1/en unknown
-
2022
- 2022-07-22 US US17/814,494 patent/US11605223B2/en active Active
-
2023
- 2023-12-21 JP JP2023215648A patent/JP2024019662A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004326693A (ja) * | 2003-04-28 | 2004-11-18 | Sony Corp | 画像認識装置及び方法、並びにロボット装置 |
JP2005157911A (ja) * | 2003-11-27 | 2005-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 顔領域検出方法及び装置及びプログラム及び顔領域検出プログラムを格納したコンピュータ読み取り可能な記憶媒体 |
JP2010009375A (ja) * | 2008-06-27 | 2010-01-14 | Fujifilm Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2014099087A (ja) * | 2012-11-15 | 2014-05-29 | Olympus Corp | 特徴点検出装置およびプログラム |
JP2016115305A (ja) * | 2014-12-18 | 2016-06-23 | 富士通テン株式会社 | 物体検出装置、物体検出システム、物体検出方法及びプログラム |
JP2018022376A (ja) * | 2016-08-04 | 2018-02-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3827374A4 (en) | 2021-09-15 |
US20200034623A1 (en) | 2020-01-30 |
JP2024019662A (ja) | 2024-02-09 |
JP7459051B2 (ja) | 2024-04-01 |
US11430212B2 (en) | 2022-08-30 |
CN112470167A (zh) | 2021-03-09 |
US20220366688A1 (en) | 2022-11-17 |
WO2020023531A1 (en) | 2020-01-30 |
US11605223B2 (en) | 2023-03-14 |
EP3827374A1 (en) | 2021-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11687151B2 (en) | Methods and apparatuses for determining and/or evaluating localizing maps of image display devices | |
JP7422785B2 (ja) | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 | |
JP6860488B2 (ja) | 複合現実システム | |
CN108885342B (zh) | 虚拟图像生成系统及其操作方法 | |
JP7459051B2 (ja) | 角検出のための方法および装置 | |
US20130326364A1 (en) | Position relative hologram interactions | |
US20120105473A1 (en) | Low-latency fusing of virtual and real content | |
US12026351B2 (en) | 3D models for displayed 2D elements | |
US12106509B2 (en) | Methods and apparatuses for corner detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220721 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221130 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230227 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231221 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459051 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |