JP7422785B2 - ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 - Google Patents
ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 Download PDFInfo
- Publication number
- JP7422785B2 JP7422785B2 JP2021568283A JP2021568283A JP7422785B2 JP 7422785 B2 JP7422785 B2 JP 7422785B2 JP 2021568283 A JP2021568283 A JP 2021568283A JP 2021568283 A JP2021568283 A JP 2021568283A JP 7422785 B2 JP7422785 B2 JP 7422785B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- interest
- neural network
- region
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 274
- 238000000034 method Methods 0.000 title claims description 166
- 238000001514 detection method Methods 0.000 title claims description 120
- 238000012545 processing Methods 0.000 claims description 166
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 description 38
- 210000001508 eye Anatomy 0.000 description 27
- 230000015654 memory Effects 0.000 description 24
- 230000003287 optical effect Effects 0.000 description 23
- 230000004807 localization Effects 0.000 description 22
- 210000004027 cell Anatomy 0.000 description 21
- 210000003128 head Anatomy 0.000 description 21
- 230000004044 response Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 230000009466 transformation Effects 0.000 description 11
- 230000002776 aggregation Effects 0.000 description 10
- 238000004220 aggregation Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 239000002131 composite material Substances 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000004931 aggregating effect Effects 0.000 description 7
- 230000001629 suppression Effects 0.000 description 7
- 238000010237 hybrid technique Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 238000000844 transformation Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 239000000758 substrate Substances 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000001994 activation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000010189 synthetic method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T3/18—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Description
本発明は、例えば、以下を提供する。
(項目1)
ユーザによって頭部に装着されるように構成される装置であって、
前記ユーザのためにグラフィックを提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムに結合される処理ユニットであって、前記処理ユニットは、
前記環境と関連付けられる画像データに関する特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと
を行うように構成される、処理ユニットと
を備える、装置。
(項目2)
前記処理ユニットは、前記ニューラルネットワークによって識別される場所のうちの少なくとも1つに基づく位置を有するような着目領域を決定するように構成され、前記位置は、前記画像に対するものである、項目1に記載の装置。
(項目3)
前記画像データは、少なくとも1つの画像と関連付けられ、前記少なくとも1つの画像は、前記カメラシステムによって生成され、前記ニューラルネットワークに伝送される、項目1に記載の装置。
(項目4)
前記ニューラルネットワークは、前記装置のモジュール内にある、項目1に記載の装置。
(項目5)
前記ニューラルネットワークは、前記装置から遠隔の1つ以上のコンピューティングデバイス内に実装される、項目1に記載の装置。
(項目6)
前記ニューラルネットワークは、機械学習能力を有する、項目1に記載の装置。
(項目7)
前記処理ユニットは、前記ニューラルネットワークによって生成されたヒートマップを取得することによって、前記特徴の場所を取得するように構成され、前記ヒートマップは、前記特徴の場所を示す、項目1に記載の装置。
(項目8)
前記着目領域は、N×N個のパッチを備え、前記処理ユニットは、前記角検出を前記N×N個のパッチ上で実施するように構成され、Nは、1より大きい整数である、項目1に記載の装置。
(項目9)
前記着目領域は、144個のピクセルまたはそれ未満を有するパッチを備え、前記処理ユニットは、前記角検出を前記パッチ上で実施するように構成される、項目1に記載の装置。
(項目10)
前記着目領域は、8×8個のパッチを備え、前記処理ユニットは、前記角検出を前記8×8個のパッチ上で実施するように構成される、項目1に記載の装置。
(項目11)
前記画像データは、前記カメラシステムによって生成された少なくとも1つの高分解能画像からの分解能が低減された少なくとも1つの低分解能画像を含む、項目1に記載の装置。
(項目12)
前記処理ユニットはまた、前記第1の分解能を伴う画像を前記第2の分解能を伴う他の画像に変換するように構成される、項目11に記載の装置。
(項目13)
前記第1の分解能は、VGA分解能を備える、項目11に記載の装置。
(項目14)
前記第2の分解能は、QVGA分解能を備える、項目11に記載の装置。
(項目15)
前記ニューラルネットワークをさらに備える、項目1に記載の装置。
(項目16)
前記ニューラルネットワークは、基準データセットを使用して訓練されている、項目15に記載の装置。
(項目17)
前記ニューラルネットワークは、畳み込みニューラルネットワークを備える、項目15に記載の装置。
(項目18)
前記ニューラルネットワークは、着目点場所および記述子を算出するように構成される、項目15に記載の装置。
(項目19)
前記ニューラルネットワークは、入力画像を空間的にダウンサンプリングするように構成されるエンコーダを備える、項目15に記載の装置。
(項目20)
前記ニューラルネットワークはまた、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、項目19に記載の装置。
(項目21)
前記ニューラルネットワークは、着目点検出器の幾何学的一貫性を改良するために、ホモグラフィ適合を使用するように構成される、項目15に記載の装置。
(項目22)
前記ニューラルネットワークは、前記着目点検出器を訓練するように構成される畳み込みニューラルネットワークを備える、項目21に記載の装置。
(項目23)
前記ニューラルネットワークは、画像ワーピングを実施し、前記ホモグラフィ適合内で1つ以上のワーピングされた画像を作成するように構成される、項目21に記載の装置。
(項目24)
前記処理ユニットは、少なくとも部分的に、前記着目領域内の角の位置に基づいて、前記画像内の角の位置を決定するように構成される、項目1に記載の装置。
(項目25)
前記画像内の前記第1の角の位置を記憶するように構成される非一過性媒体をさらに備える、項目24に記載の装置。
(項目26)
前記処理ユニットは、前記着目領域内のピクセル毎に、スコアを決定するように構成される、項目1に記載の装置。
(項目27)
前記ニューラルネットワークは、前記処理ユニットの一部である、項目1に記載の装置。
(項目28)
前記ニューラルネットワークをさらに備え、前記ニューラルネットワークは、前記処理ユニットに通信可能に結合される、項目1に記載の装置。
(項目29)
頭部装着型画像ディスプレイデバイスによって実施される方法であって、
画像内の特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと
を含む、方法。
(項目30)
前記着目領域は、前記ニューラルネットワークによって識別される場所のうちの少なくとも1つに基づく位置を有するように決定され、前記位置は、前記画像に対するものである、項目29に記載の方法。
(項目31)
前記画像を生成することと、
前記画像を前記ニューラルネットワークに伝送することと
をさらに含む、項目29に記載の方法。
(項目32)
前記ニューラルネットワークは、前記頭部装着型画像ディスプレイデバイスのモジュール内にある、項目29に記載の方法。
(項目33)
前記ニューラルネットワークは、前記頭部装着型画像ディスプレイデバイスから遠隔の1つ以上のコンピューティングデバイス内に実装される、項目29に記載の方法。
(項目34)
前記ニューラルネットワークは、機械学習能力を有する、項目29に記載の方法。
(項目35)
前記特徴の場所は、前記ニューラルネットワークからヒートマップを受信することによって取得され、前記ヒートマップは、前記特徴の場所を示す、項目29に記載の方法。
(項目36)
前記着目領域は、N×N個のパッチを備え、前記角検出は、前記N×N個のパッチ上で実施され、Nは、1より大きい整数である、項目29に記載の方法。
(項目37)
前記着目領域は、144個のピクセルまたはそれ未満を有するパッチを備え、前記角検出は、前記パッチ上で実施される、項目29に記載の方法。
(項目38)
前記着目領域は、8×8個のパッチを備え、前記角検出は、前記8×8個のパッチ上で実施される、項目29に記載の方法。
(項目39)
前記画像は、第1の分解能を有し、前記特徴の場所は、前記第1の分解能未満である第2の分解能を有する他の画像に基づいて、前記ニューラルネットワークによって識別される、項目29に記載の方法。
(項目40)
前記第1の分解能を伴う画像を前記第2の分解能を伴う他の画像に変換することをさらに含む、項目39に記載の方法。
(項目41)
前記第1の分解能は、VGA分解能を備える、項目39に記載の方法。
(項目42)
前記第2の分解能は、QVGA分解能を備える、項目39に記載の方法。
(項目43)
前記ニューラルネットワークをさらに備える、項目29に記載の方法。
(項目44)
前記ニューラルネットワークは、基準データセットを使用して訓練されている、項目43に記載の方法。
(項目45)
前記ニューラルネットワークは、畳み込みニューラルネットワークを備える、項目43に記載の方法。
(項目46)
前記ニューラルネットワークは、着目点場所および記述子を算出するように構成される、項目43に記載の方法。
(項目47)
前記ニューラルネットワークは、入力画像を空間的にダウンサンプリングするように構成されるエンコーダを備える、項目43に記載の方法。
(項目48)
前記ニューラルネットワークはまた、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、項目47に記載の方法。
(項目49)
前記ニューラルネットワークは、着目点検出器の幾何学的一貫性を改良するために、ホモグラフィ適合を使用するように構成される、項目43に記載の方法。
(項目50)
前記ニューラルネットワークは、畳み込みニューラルネットワークを備え、前記着目点検出器は、前記畳み込みニューラルネットワークを用いて訓練される、項目49に記載の方法。
(項目51)
前記ニューラルネットワークは、画像ワーピングを実施し、前記ホモグラフィ適合内で1つ以上のワーピングされた画像を作成するように構成される、項目49に記載の方法。
(項目52)
少なくとも部分的に、前記着目領域内の角の位置に基づいて、前記画像内の角の位置を決定することをさらに含む、項目29に記載の方法。
(項目53)
前記画像内の第1の角の位置を非一過性媒体内に記憶することをさらに含む、項目52に記載の方法。
(項目54)
前記着目領域内のピクセル毎に、スコアを決定することをさらに含む、項目29に記載の方法。
x=fθ(I)
理想的着目点演算子は、ホモグラフィに対して共変するはずである。関数fθ(・)は、出力が入力に伴って変換する場合、Hに伴って共変する。換言すると、共変検出器は、全てに関して、以下を充足させるであろう。
Hx=fθ(H(I))
明確にするために、表記Hxは、結果として生じる着目点に適用されているホモグラフィ行列Hを示し、H(I)は、ホモグラフィ行列Hによってワーピングされている画像I全体を示す。ホモグラフィ関連項を右に移動させることは、以下を生産する。
x=H-1fθ(H(I))
いくつかの実施形態では、全ての行列が、技術的能力の欠如からではなく、あらゆる可能性として考えられるランダムホモグラフィが妥当と思われるカメラ変換を表すわけではないため、良好な結果を生産するわけではない。いくつかの実施形態では、潜在的ホモグラフィは、所定の範囲内において、切断正規分布を使用して、平行移動、スケール、面内回転、および対称投影歪みに関してサンプリングすることによって、より単純であまり表現的ではない変換クラスに分解される。これらの変換は、初期ルート中心クロップとともに、境界アーチファクトを回避することに役立つように構成される。
式中、Xは、計算された着目点108であって(またはそれに関連し)、X’は、計算されワーピングされた着目点109であって(またはそれに関連し)、Yは、基準着目点148であって(またはそれに関連し)、Y’は、ワーピングされた基準着目点149であって(またはそれに関連し)、Dは、計算された記述子110であって(またはそれに関連し)、D’は、計算されワーピングされた記述子111である(またはそれに関連する)。Sは、類似性スコア行列であって、全体的に、ランダムに生成されたホモグラフィHに基づいて決定されてもよい。図5に図示されるように、ホモグラフィHまたは類似性スコア行列Sのいずれかは、損失計算機の中にフィードされてもよい。
式中、
記述子損失は、入力画像102からの記述子セルdhw∈Dとワーピングされた入力画像103からのd’h’w’∈D’の全ての対に適用される。(h,w)セルと(h’,w’)セルとの間のホモグラフィ誘発対応は、以下のように記述され得る。
式中、phwは、(h,w)セル内の中心ピクセルの場所を示し、
は、セル場所phwをホモグラフィHによって乗算することを示す。一対の画像に関する対応のセット全体は、Sである。
式中、
(1)画像のxおよびy導関数を算出する
式中、GxおよびGyは、一次方向微分係数である。ある場合には、GxおよびGyは、グレー値および差分演算子を方向x、yに畳み込むことによって計算されてもよい。
(2)ピクセル毎に導関数の積を算出する
(3)各ピクセルにおける導関数の積の和を算出する
(4)各ピクセル(x,y)において行列を定義する
代替として、行列Hは、以下のように表されてもよい。
式中、(Ix,Iy)は、(x,y)における勾配である。
(5)ピクセル毎にスコア(Harris応答)を算出する
R=Det(H)-k(Trace(H))^2
式中、Det(H)=λ1λ2であって、Trace(H)=λ1+λ2であって、λ1およびλ2は、Hの固有値である。
(1)min(λ1,λ2)>閾値T1
(2)λ2/λ1<閾値T2
いくつかの実施形態では、閾値T1は、300であるように設定されてもよい。いくつかの実施形態では、閾値T1は、300と異なる他の値を有してもよい。いくつかの実施形態では、閾値T2は、5であるように設定されてもよい。いくつかの実施形態では、閾値T2は、5と異なる他の値を有してもよい。
そのような場合、角検出器1516は、以下のように、異なるk(k1、k2)の2つのHarris応答を使用して、DetおよびTraceを計算するように構成されてもよい。
T2=5であるときのk1>0に基づくHarris応答であって、式中、以下である。
いくつかの実施形態では、k2は、計算を簡略化するであろうように選択されてもよい。例えば、上記の方程式(5)は、以下のように書き直されてもよい。
そのような場合、k2は、右項((4T1^2)*(k1-k2))が1になるように選択されてもよく、評価は、左側の式が1を上回ることに基づいて、簡略化されてもよい。いくつかの実施形態では、k2は、以下の式に基づいて計算されてもよい。
故に、k1が、0.139に設定される場合、k2は、上記の方程式に基づいて、0.00478125に等しい。
領域1:(C1、0.7)、(C2、0.8)、(C3、0.85)、(C4、0.9)
領域2:(C5、0.6)、(C6、0.65)
領域3:(C7、0.66)、(C8、0.82)
領域4:(C9、0.9)、(C10、0.88)、(C11、0.63)
上記の実施例では、領域1は、3つの検出された角C1-C4を有し、領域2は、2つの検出された角C5-C6を有し、領域3は、2つの検出された角C7-C8を有し、領域4は、3つの検出された角C9-C11を有する。領域毎に所望される最大数の角が、3であるように選択される場合、および角を選択するための基準が、角が0.7またはより高いスコアを有していなければならないことである場合、空間ビニングモジュール1924は、異なる個別の領域1-4に関して、以下の角を選択し得る。
領域1:C2、C3、C4(角C1は、領域1内に最低スコアを有し、したがって、領域1内に最高スコアを伴う3つの角が、選択され、空間ビニングモジュール1924は、最大数の角が、実施例では3であるように事前に規定されているため、4つ全ての角C1-C4を選択することができないことに留意されたい)。
領域2:角は選択されない(角C5およびC6が両方とも、最小スコア基準を満たさない、スコアを有するため)。
領域3:角C8のみが選択される(角C7が、最小スコア基準を満たさない、スコアを有するため)。
領域4:角C9およびC10のみが選択される(角C11が、最小スコア基準を満たさない、スコアを有するため)。
角位置決定器1926は、次いで、最低対応距離D(すなわち、min(D1,D2)を有する、第1の画像内のピクセルの座標を、検出された角の位置として選択する。
Claims (46)
- ユーザによって頭部に装着されるように構成される装置であって、
前記ユーザのためにグラフィックを提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムに結合される処理ユニットであって、前記処理ユニットは、
前記環境と関連付けられる画像データに関する特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと
を行うように構成される、処理ユニットと
を備え、
前記画像データは、前記カメラシステムによって生成された少なくとも1つの高分解能画像からの分解能が低減された少なくとも1つの低分解能画像を含み、
前記ニューラルネットワークは、
入力画像を空間的にダウンサンプリングするように構成されるエンコーダと、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、装置。 - 前記処理ユニットは、前記ニューラルネットワークによって識別される場所のうちの少なくとも1つに基づく位置を有するような着目領域を決定するように構成され、前記位置は、前記画像に対するものである、請求項1に記載の装置。
- 前記画像データは、少なくとも1つの画像と関連付けられ、前記少なくとも1つの画像は、前記カメラシステムによって生成され、前記ニューラルネットワークに伝送される、請求項1に記載の装置。
- 前記ニューラルネットワークは、前記装置のモジュール内にある、請求項1に記載の装置。
- 前記ニューラルネットワークは、前記装置から遠隔の1つ以上のコンピューティングデバイス内に実装される、請求項1に記載の装置。
- 前記ニューラルネットワークは、機械学習能力を有する、請求項1に記載の装置。
- 前記処理ユニットは、前記ニューラルネットワークによって生成されたヒートマップを取得することによって、前記特徴の場所を取得するように構成され、前記ヒートマップは、前記特徴の場所を示す、請求項1に記載の装置。
- 前記着目領域は、N×N個のパッチを備え、前記処理ユニットは、前記角検出を前記N×N個のパッチ上で実施するように構成され、Nは、1より大きい整数である、請求項1に記載の装置。
- 前記着目領域は、144個のピクセルまたはそれ未満を有するパッチを備え、前記処理ユニットは、前記角検出を前記パッチ上で実施するように構成される、請求項1に記載の装置。
- 前記着目領域は、8×8個のパッチを備え、前記処理ユニットは、前記角検出を前記8×8個のパッチ上で実施するように構成される、請求項1に記載の装置。
- 前記処理ユニットはまた、第1の分解能を伴う画像を第2の分解能を伴う他の画像に変換するように構成される、請求項1に記載の装置。
- 第1の分解能は、VGA分解能を備える、請求項1に記載の装置。
- 第2の分解能は、QVGA分解能を備える、請求項1に記載の装置。
- 前記ニューラルネットワークをさらに備える、請求項1に記載の装置。
- 前記ニューラルネットワークは、基準データセットを使用して訓練されている、請求項14に記載の装置。
- 前記ニューラルネットワークは、畳み込みニューラルネットワークを備える、請求項14に記載の装置。
- 前記ニューラルネットワークは、着目点場所および記述子を算出するように構成される、請求項14に記載の装置。
- 前記ニューラルネットワークは、着目点検出器の幾何学的一貫性を改良するために、ホモグラフィ適合を使用するように構成される、請求項14に記載の装置。
- 前記ニューラルネットワークは、前記着目点検出器を訓練するように構成される畳み込みニューラルネットワークを備える、請求項18に記載の装置。
- 前記ニューラルネットワークは、画像ワーピングを実施し、前記ホモグラフィ適合内で1つ以上のワーピングされた画像を作成するように構成される、請求項19に記載の装置。
- 前記ニューラルネットワークは、前記処理ユニットの一部である、請求項1に記載の装置。
- 前記ニューラルネットワークをさらに備え、前記ニューラルネットワークは、前記処理ユニットに通信可能に結合される、請求項1に記載の装置。
- ユーザによって頭部に装着されるように構成される装置であって、
前記ユーザのためにグラフィックを提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムに結合される処理ユニットであって、前記処理ユニットは、
前記環境と関連付けられる画像データに関する特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと
を行うように構成される、処理ユニットと
を備え、
前記処理ユニットは、前記着目領域内の角の位置に少なくとも部分的に基づいて、前記画像内の角の位置を決定するように構成され、
前記ニューラルネットワークは、
入力画像を空間的にダウンサンプリングするように構成されるエンコーダと、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、装置。 - ユーザによって頭部に装着されるように構成される装置であって、
前記ユーザのためにグラフィックを提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムに結合される処理ユニットであって、前記処理ユニットは、
前記環境と関連付けられる画像データに関する特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと
を行うように構成される、処理ユニットと
を備え、
前記処理ユニットは、前記着目領域内のピクセル毎に、スコアを決定するように構成され、
前記ニューラルネットワークは、
入力画像を空間的にダウンサンプリングするように構成されるエンコーダと、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、装置。 - 頭部装着型画像ディスプレイデバイスによって実施される方法であって、
画像内の特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと
を含み、
前記画像は、第1の分解能を有し、前記特徴の場所は、前記第1の分解能未満である第2の分解能を有する他の画像に基づいて、前記ニューラルネットワークによって識別され、
前記ニューラルネットワークは、
入力画像を空間的にダウンサンプリングするように構成されるエンコーダと、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、方法。 - 前記着目領域は、前記ニューラルネットワークによって識別される場所のうちの少なくとも1つに基づく位置を有するように決定され、前記位置は、前記画像に対するものである、請求項25に記載の方法。
- 前記画像を生成することと、
前記画像を前記ニューラルネットワークに伝送することと
をさらに含む、請求項25に記載の方法。 - 前記ニューラルネットワークは、前記頭部装着型画像ディスプレイデバイスのモジュール内にある、請求項25に記載の方法。
- 前記ニューラルネットワークは、前記頭部装着型画像ディスプレイデバイスから遠隔の1つ以上のコンピューティングデバイス内に実装される、請求項25に記載の方法。
- 前記ニューラルネットワークは、機械学習能力を有する、請求項25に記載の方法。
- 前記特徴の場所は、前記ニューラルネットワークからヒートマップを受信することによって取得され、前記ヒートマップは、前記特徴の場所を示す、請求項25に記載の方法。
- 前記着目領域は、N×N個のパッチを備え、前記角検出は、前記N×N個のパッチ上で実施され、Nは、1より大きい整数である、請求項25に記載の方法。
- 前記着目領域は、144個のピクセルまたはそれ未満を有するパッチを備え、前記角検出は、前記パッチ上で実施される、請求項25に記載の方法。
- 前記着目領域は、8×8個のパッチを備え、前記角検出は、前記8×8個のパッチ上で実施される、請求項25に記載の方法。
- 前記第1の分解能を伴う画像を前記第2の分解能を伴う他の画像に変換することをさらに含む、請求項25に記載の方法。
- 前記第1の分解能は、VGA分解能を備える、請求項25に記載の方法。
- 前記第2の分解能は、QVGA分解能を備える、請求項25に記載の方法。
- 前記ニューラルネットワークをさらに備える、請求項25に記載の方法。
- 前記ニューラルネットワークは、基準データセットを使用して訓練されている、請求項38に記載の方法。
- 前記ニューラルネットワークは、畳み込みニューラルネットワークを備える、請求項38に記載の方法。
- 前記ニューラルネットワークは、着目点場所および記述子を算出するように構成される、請求項38に記載の方法。
- 前記ニューラルネットワークは、着目点検出器の幾何学的一貫性を改良するために、ホモグラフィ適合を使用するように構成される、請求項38に記載の方法。
- 前記ニューラルネットワークは、畳み込みニューラルネットワークを備え、前記着目点検出器は、前記畳み込みニューラルネットワークを用いて訓練される、請求項42に記載の方法。
- 前記ニューラルネットワークは、画像ワーピングを実施し、前記ホモグラフィ適合内で1つ以上のワーピングされた画像を作成するように構成される、請求項42に記載の方法。
- 頭部装着型画像ディスプレイデバイスによって実施される方法であって、
画像内の特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと、
前記着目領域内の角の位置に少なくとも部分的に基づいて、前記画像内の角の位置を決定することと
を含み、
前記ニューラルネットワークは、
入力画像を空間的にダウンサンプリングするように構成されるエンコーダと、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、方法。 - 頭部装着型画像ディスプレイデバイスによって実施される方法であって、
画像内の特徴の場所を取得することであって、前記特徴の場所は、ニューラルネットワークによって識別される、ことと、
前記画像内の特徴のうちの1つに関する着目領域を決定することであって、前記着目領域は、前記画像のサイズ未満のサイズを有する、ことと、
角検出アルゴリズムを使用して、角検出を実施し、前記着目領域内の角を識別することと、
前記着目領域内のピクセル毎に、スコアを決定することと
を含み、
前記ニューラルネットワークは、
入力画像を空間的にダウンサンプリングするように構成されるエンコーダと、
着目点デコーダであって、前記着目点デコーダは、前記エンコーダからのエンコーダ出力に作用し、前記入力画像内のピクセル毎に、スコアを生産するように構成される、着目点デコーダと、
記述子デコーダであって、前記記述子デコーダは、前記エンコーダ出力に作用し、前記エンコーダ出力をより高い分解能にアップサンプリングし、前記入力画像内のピクセル毎に、ベクトルを生産するように構成される、記述子デコーダと
を備える、方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024004488A JP2024028494A (ja) | 2019-05-17 | 2024-01-16 | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962849386P | 2019-05-17 | 2019-05-17 | |
US62/849,386 | 2019-05-17 | ||
PCT/US2020/033208 WO2020236624A1 (en) | 2019-05-17 | 2020-05-15 | Methods and apparatuses for corner detection using neural network and corner detector |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024004488A Division JP2024028494A (ja) | 2019-05-17 | 2024-01-16 | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022532238A JP2022532238A (ja) | 2022-07-13 |
JPWO2020236624A5 JPWO2020236624A5 (ja) | 2023-05-17 |
JP7422785B2 true JP7422785B2 (ja) | 2024-01-26 |
Family
ID=73245048
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021568283A Active JP7422785B2 (ja) | 2019-05-17 | 2020-05-15 | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 |
JP2024004488A Pending JP2024028494A (ja) | 2019-05-17 | 2024-01-16 | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024004488A Pending JP2024028494A (ja) | 2019-05-17 | 2024-01-16 | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11686941B2 (ja) |
EP (1) | EP3970114A4 (ja) |
JP (2) | JP7422785B2 (ja) |
CN (1) | CN113892127A (ja) |
WO (1) | WO2020236624A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11210547B2 (en) * | 2019-03-20 | 2021-12-28 | NavInfo Europe B.V. | Real-time scene understanding system |
US11340624B2 (en) * | 2019-08-29 | 2022-05-24 | Ford Global Technologies, Llc | Vehicle neural network |
US11783444B1 (en) * | 2019-11-14 | 2023-10-10 | Apple Inc. | Warping an input image based on depth and offset information |
US11354913B1 (en) * | 2019-11-27 | 2022-06-07 | Woven Planet North America, Inc. | Systems and methods for improving vehicle predictions using point representations of scene |
US11176425B2 (en) * | 2019-12-11 | 2021-11-16 | Naver Corporation | Joint detection and description systems and methods |
CN112561979B (zh) * | 2020-12-25 | 2022-06-28 | 天津大学 | 一种基于深度学习的自监督单目深度估计方法 |
TWI778519B (zh) * | 2021-02-09 | 2022-09-21 | 鴻海精密工業股份有限公司 | 瑕疵圖像生成方法、裝置、電子設備及存儲介質 |
US11822620B2 (en) * | 2021-02-18 | 2023-11-21 | Microsoft Technology Licensing, Llc | Personalized local image features using bilevel optimization |
TW202300201A (zh) * | 2021-04-30 | 2023-01-01 | 美商尼安蒂克公司 | 興趣點之重複性預測 |
CN114049502B (zh) * | 2021-12-22 | 2023-04-07 | 贝壳找房(北京)科技有限公司 | 神经网络的训练、特征提取、数据处理方法和设备 |
CN115170746B (zh) * | 2022-09-07 | 2022-11-22 | 中南大学 | 一种基于深度学习的多视图三维重建方法、系统及设备 |
CN115542318B (zh) * | 2022-10-12 | 2024-01-09 | 南京航空航天大学 | 面向无人机群目标的空地联合多域探测系统和方法 |
JP7477849B1 (ja) | 2023-01-16 | 2024-05-02 | 国立大学法人 東京大学 | 作業システム及び溶接システム |
CN116245950B (zh) * | 2023-05-11 | 2023-08-01 | 合肥高维数据技术有限公司 | 用于全屏或单角缺失的屏幕角点定位方法 |
CN117726541A (zh) * | 2024-02-08 | 2024-03-19 | 北京理工大学 | 一种基于二值化神经网络的暗光视频增强方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160300121A1 (en) | 2014-04-01 | 2016-10-13 | Superfish Ltd. | Neural network image representation |
JP2017072560A (ja) | 2015-10-09 | 2017-04-13 | ソニー株式会社 | 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム |
JP2017191501A (ja) | 2016-04-14 | 2017-10-19 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018060296A (ja) | 2016-10-03 | 2018-04-12 | グローリー株式会社 | 画像処理装置、画像処理システム及び画像処理方法 |
US20180137642A1 (en) | 2016-11-15 | 2018-05-17 | Magic Leap, Inc. | Deep learning system for cuboid detection |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160267720A1 (en) * | 2004-01-30 | 2016-09-15 | Electronic Scripting Products, Inc. | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience |
KR101377950B1 (ko) | 2007-05-04 | 2014-03-25 | 엘지전자 주식회사 | 영상 디스플레이 방법 및 이를 구현할 수 있는 단말기 |
US8831277B1 (en) | 2009-10-02 | 2014-09-09 | Rockwell Collins, Inc. | Optical helmet tracking system |
US8860760B2 (en) * | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
US10726560B2 (en) * | 2014-10-31 | 2020-07-28 | Fyusion, Inc. | Real-time mobile device capture and generation of art-styled AR/VR content |
JP6557973B2 (ja) * | 2015-01-07 | 2019-08-14 | 株式会社リコー | 地図生成装置、地図生成方法およびプログラム |
US10037712B2 (en) | 2015-01-30 | 2018-07-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vision-assist devices and methods of detecting a classification of an object |
US9922220B2 (en) * | 2015-06-11 | 2018-03-20 | Digimarc Corporation | Image block selection for efficient time-limited decoding |
DE102016110902A1 (de) * | 2015-06-14 | 2016-12-15 | Facense Ltd. | Head-Mounted-Devices zur Erfassung thermischer Messwerte |
US11301045B1 (en) * | 2015-08-22 | 2022-04-12 | Bertec Corporation | Measurement system that includes at least one measurement assembly, a visual display device, and at least one data processing device |
US10354364B2 (en) * | 2015-09-14 | 2019-07-16 | Intel Corporation | Automatic perspective control using vanishing points |
EP3761232A1 (en) * | 2015-10-16 | 2021-01-06 | Magic Leap, Inc. | Eye pose identification using eye features |
EP3458167B1 (en) * | 2016-04-26 | 2022-10-19 | Magic Leap, Inc. | Electromagnetic tracking with augmented reality systems |
US10290111B2 (en) * | 2016-07-26 | 2019-05-14 | Qualcomm Incorporated | Systems and methods for compositing images |
US10664722B1 (en) * | 2016-10-05 | 2020-05-26 | Digimarc Corporation | Image processing arrangements |
US10573040B2 (en) * | 2016-11-08 | 2020-02-25 | Adobe Inc. | Image modification using detected symmetry |
US11393160B2 (en) * | 2018-03-23 | 2022-07-19 | Intel Corporation | Deep geometric model fitting |
US20190303648A1 (en) * | 2018-04-02 | 2019-10-03 | QRI Group, LLC | Smart surveillance and diagnostic system for oil and gas field surface environment via unmanned aerial vehicle and cloud computation |
CA3102035C (en) * | 2018-06-01 | 2021-05-18 | Motion Metrics International Corp. | Method, apparatus and system for monitoring a condition associated with operating heavy equipment such as a mining shovel or excavator |
IL310722A (en) * | 2018-07-13 | 2024-04-01 | Asml Netherlands Bv | Systems and methods for SEM image enhancement |
US20200065559A1 (en) * | 2018-08-22 | 2020-02-27 | Nitin Vats | Generating a video using a video and user image or video |
CN112689802B (zh) * | 2018-08-28 | 2024-03-29 | Asml荷兰有限公司 | 最佳量测指导的系统和方法 |
US11282198B2 (en) * | 2018-11-21 | 2022-03-22 | Enlitic, Inc. | Heat map generating system and methods for use therewith |
-
2020
- 2020-05-15 EP EP20810549.4A patent/EP3970114A4/en active Pending
- 2020-05-15 US US16/875,499 patent/US11686941B2/en active Active
- 2020-05-15 CN CN202080037833.9A patent/CN113892127A/zh active Pending
- 2020-05-15 WO PCT/US2020/033208 patent/WO2020236624A1/en active Application Filing
- 2020-05-15 JP JP2021568283A patent/JP7422785B2/ja active Active
-
2023
- 2023-05-11 US US18/315,766 patent/US20230288703A1/en active Pending
-
2024
- 2024-01-16 JP JP2024004488A patent/JP2024028494A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160300121A1 (en) | 2014-04-01 | 2016-10-13 | Superfish Ltd. | Neural network image representation |
JP2017072560A (ja) | 2015-10-09 | 2017-04-13 | ソニー株式会社 | 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム |
JP2017191501A (ja) | 2016-04-14 | 2017-10-19 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018060296A (ja) | 2016-10-03 | 2018-04-12 | グローリー株式会社 | 画像処理装置、画像処理システム及び画像処理方法 |
US20180137642A1 (en) | 2016-11-15 | 2018-05-17 | Magic Leap, Inc. | Deep learning system for cuboid detection |
Also Published As
Publication number | Publication date |
---|---|
EP3970114A4 (en) | 2022-07-13 |
EP3970114A1 (en) | 2022-03-23 |
US20200364876A1 (en) | 2020-11-19 |
US11686941B2 (en) | 2023-06-27 |
WO2020236624A1 (en) | 2020-11-26 |
JP2022532238A (ja) | 2022-07-13 |
JP2024028494A (ja) | 2024-03-04 |
US20230288703A1 (en) | 2023-09-14 |
CN113892127A (zh) | 2022-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7422785B2 (ja) | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 | |
JP7403700B2 (ja) | ホモグラフィ適合を介した完全畳み込み着目点検出および記述 | |
JP7357676B2 (ja) | 自己改良ビジュアルオドメトリを実施するためのシステムおよび方法 | |
US11605223B2 (en) | Methods and apparatuses for corner detection | |
JP2022540549A (ja) | 複数のコンピューティングデバイスにわたってニューラルネットワークを分散させるためのシステムおよび方法 | |
US11361507B1 (en) | Articulated body mesh estimation using three-dimensional (3D) body keypoints | |
US20230334806A1 (en) | Scaling neural representations for multi-view reconstruction of scenes | |
US11922558B2 (en) | Hybrid differentiable rendering for light transport simulation systems and applications | |
WO2022251619A1 (en) | Hybrid differentiable rendering for light transport simulation systems and applications | |
US20210192782A1 (en) | Methods and apparatuses for corner detection | |
US11783532B1 (en) | View synthesis using attribute correspondences and geometric relationship constraints | |
WO2023200936A1 (en) | Scaling neural representations for multi-view reconstruction of scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230509 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230509 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7422785 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |