JP7135180B2 - 部屋レイアウト推定方法および技法 - Google Patents
部屋レイアウト推定方法および技法 Download PDFInfo
- Publication number
- JP7135180B2 JP7135180B2 JP2021131087A JP2021131087A JP7135180B2 JP 7135180 B2 JP7135180 B2 JP 7135180B2 JP 2021131087 A JP2021131087 A JP 2021131087A JP 2021131087 A JP2021131087 A JP 2021131087A JP 7135180 B2 JP7135180 B2 JP 7135180B2
- Authority
- JP
- Japan
- Prior art keywords
- room
- image
- encoder
- network
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 127
- 238000013528 artificial neural network Methods 0.000 claims description 99
- 230000015654 memory Effects 0.000 claims description 57
- 230000006870 function Effects 0.000 claims description 40
- 238000011176 pooling Methods 0.000 claims description 23
- 230000000306 recurrent effect Effects 0.000 claims description 23
- 230000011218 segmentation Effects 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 15
- 230000001052 transient effect Effects 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 description 64
- 230000008569 process Effects 0.000 description 35
- 238000012545 processing Methods 0.000 description 26
- 238000013527 convolutional neural network Methods 0.000 description 16
- 230000003190 augmentative effect Effects 0.000 description 14
- 238000009826 distribution Methods 0.000 description 14
- 238000010801 machine learning Methods 0.000 description 12
- 238000012544 monitoring process Methods 0.000 description 11
- 238000010606 normalization Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000001994 activation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 241000256837 Apidae Species 0.000 description 2
- 235000009499 Vanilla fragrans Nutrition 0.000 description 2
- 244000263375 Vanilla tahitensis Species 0.000 description 2
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013529 biological neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006993 memory improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Description
本願は、2017年3月17日に出願され“ROOM LAYOUT ESTIMATION METHODS AND TECHNIQUES”と題された米国特許出願第62/473,257号に対する優先権の利益を主張するものであり、該米国特許出願は、その全体が参照により本明細書中に援用される。
例えば、本発明は以下の項目を提供する。
(項目1)
システムであって、
非一過性メモリであって、
部屋のレイアウトの推定のための部屋画像と、
部屋のレイアウトを推定するためのニューラルネットワークであって、前記ニューラルネットワークは、
エンコーダ-デコーダサブネットワークと、
前記エンコーダ-デコーダサブネットワークに接続される分類子サブネットワークと
を備える、ニューラルネットワークと
を記憶するように構成される、非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記部屋画像にアクセスすることと、
前記エンコーダ-デコーダサブネットワークおよび前記部屋画像を使用して、複数の部屋タイプに対応する複数の予測される2次元(2D)特徴点マップを決定することと、
前記エンコーダ-デコーダサブネットワーク、前記分類子サブネットワーク、および前記部屋画像を使用して、予測される部屋タイプを前記複数の部屋タイプから決定することと、
前記複数の予測される2D特徴点マップおよび前記予測される部屋タイプを使用して、前記予測される部屋タイプと関連付けられた複数の順序付けられた特徴点を決定することと、
前記複数の順序付けられた特徴点を使用して、前記部屋画像内の部屋の予測されるレイアウトを決定することと
を行うようにプログラムされている、ハードウェアプロセッサと
を備える、システム。
(項目2)
前記複数の部屋タイプ内の各部屋タイプは、部屋タイプ特徴点の順序付けられたセットを含む、項目1に記載のシステム。
(項目3)
前記複数の部屋タイプ内の各部屋タイプは、前記部屋タイプ内の領域に関する意味論セグメント化を含み、前記意味論セグメント化は、床、天井、または壁としての識別を含む、項目2に記載のシステム。
(項目4)
第1の特徴点順序は、前記複数の部屋タイプのうちの第1の部屋タイプと関連付けられ、第2の特徴点順序は、前記複数の部屋タイプのうちの第2の部屋タイプと関連付けられ、前記第1の特徴点順序および前記第2の特徴点順序は、異なる、項目2に記載のシステム。
(項目5)
前記部屋画像は、単眼画像を含む、項目1に記載のシステム。
(項目6)
前記部屋画像は、赤色-緑色-青色(RGB)画像を含む、項目1に記載のシステム。
(項目7)
前記部屋画像の次元は、前記予測される2D特徴点マップの次元より大きい、項目1に記載のシステム。
(項目8)
前記エンコーダ-デコーダサブネットワークは、複数の畳み込み層および複数のプーリング層を含むエンコーダサブネットワークを備える、項目1に記載のシステム。
(項目9)
前記エンコーダ-デコーダサブネットワークは、複数の畳み込み層および複数のアップサンプリング層を含むデコーダサブネットワークを備える、項目1に記載のシステム。
(項目10)
前記エンコーダ-デコーダサブネットワークは、メモリ増強再帰エンコーダ-デコーダ(MRED)ネットワークを備える、項目1に記載のシステム。
(項目11)
前記エンコーダ-デコーダサブネットワークは、複数の再帰層を備える、項目1に記載のシステム。
(項目12)
前記複数の再帰層の再帰反復数は、2である、項目11に記載のシステム。
(項目13)
前記複数の再帰層の再帰反復数は、少なくとも3である、項目11に記載のシステム。
(項目14)
前記複数の再帰層はそれぞれ、加重行列を有し、前記加重行列は、前記複数の再帰層の全てに関して同一である、項目11-13のいずれか1項に記載のシステム。
(項目15)
前記予測される2次元(2D)特徴点マップは、ヒートマップを含む、項目1に記載のシステム。
(項目16)
前記ハードウェアプロセッサは、前記ヒートマップからの特徴点場所を前記ヒートマップの最大値として抽出するようにプログラムされている、項目15に記載のシステム。
(項目17)
前記ハードウェアプロセッサは、
前記部屋画像を分析するオブジェクト認識装置からオブジェクト情報にアクセスすることと、
前記オブジェクト情報と前記部屋の予測されるレイアウトを組み合わせることと
を行うようにプログラムされている、項目1に記載のシステム。
(項目18)
前記オブジェクト認識装置は、前記部屋画像内の直方体を検出するように構成される、項目17に記載のシステム。
(項目19)
ウェアラブルディスプレイデバイスであって、
前記部屋のレイアウトの推定のための部屋画像を捕捉するように構成される、外向きに面した結像システムと、
項目1に記載のシステムと
を備える、ウェアラブルディスプレイデバイス。
(項目20)
システムであって、
ニューラルネットワークのためのパラメータを記憶するように構成される非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
訓練用部屋画像を受信することであって、前記訓練用部屋画像は、
複数の部屋タイプからの基準部屋タイプと、
部屋の基準レイアウトと関連付けられた基準特徴点と
と関連付けられている、ことと、
部屋のレイアウト推定のためのニューラルネットワークを生成することであって、前記ニューラルネットワークは、
前記複数の部屋タイプのそれぞれと関連付けられた予測される部屋のレイアウトと関連付けられた予測される2次元(2D)特徴点を出力するように構成されるエンコーダ-デコーダサブネットワークと、
予測される部屋タイプを前記複数の部屋タイプから出力するように構成される前記エンコーダ-デコーダネットワークに接続されるサイドサブネットワークと
を備えている、ことと、
前記予測される2D特徴点に関する第1の損失および前記予測される部屋タイプに関
する第2の損失に基づいて、損失関数を最適化することと、
前記最適化された損失関数に基づいて、前記ニューラルネットワークのパラメータを更新することと
を行うようにプログラムされている、ハードウェアプロセッサと
を備える、システム。
(項目21)
前記複数の部屋タイプの数は、5を上回る、項目20に記載のシステム。
(項目22)
前記基準特徴点および前記予測される2D特徴点は、特徴点順序と関連付けられる、項目20に記載のシステム。
(項目23)
第1の特徴点順序は、前記複数の部屋タイプのうちの第1の部屋タイプと関連付けられ、第2の特徴点順序は、前記複数の部屋タイプのうちの第2の部屋タイプと関連付けられ、前記第1の特徴点順序および前記第2の特徴点順序は、異なる、項目20に記載のシステム。
(項目24)
前記訓練用部屋画像は、単眼画像を含む、項目20に記載のシステム。
(項目25)
前記訓練用部屋画像は、赤色-緑色-青色(RGB)画像を含む、項目20に記載のシステム。
(項目26)
前記訓練用部屋画像の次元は、前記予測される2D特徴点と関連付けられたマップの次元より大きい、項目20に記載のシステム。
(項目27)
前記エンコーダサブネットワークおよび前記デコーダサブネットワークは、複数の再帰層を備える、項目20に記載のシステム。
(項目28)
前記再帰層の再帰反復数は、2または3である、項目27に記載のシステム。
(項目29)
深層監視が、前記再帰層に適用される、項目27に記載のシステム。
(項目30)
前記再帰層の反復の第1の再帰反復と関連付けられた加重は、前記再帰層の第2の再帰反復と関連付けられた加重と同じである、項目27に記載のシステム。
(項目31)
前記複数の再帰層は、メモリ増強再帰エンコーダ-デコーダ(MRED)ネットワークとして構成される、項目27に記載のシステム。
(項目32)
前記サイドサブネットワークは、部屋タイプ分類子を含む、項目20に記載のシステム。
(項目33)
前記予測される2D特徴点に関する前記第1の損失は、複数の基準特徴点場所と前記予測される2D特徴点との間のユークリッド損失を含む、項目20に記載のシステム。
(項目34)
前記予測される部屋タイプに関する前記第2の損失は、クロスエントロピ損失を含む、項目20に記載のシステム。
(項目35)
前記予測される2D特徴点は、予測されるヒートマップから抽出される、項目20に記載のシステム。
(項目36)
ハードウェアプロセッサは、
前記訓練画像の基準特徴点と関連付けられた基準ヒートマップを計算することと、
前記予測されるヒートマップと前記基準ヒートマップとの間の差異に基づいて、前記予測される2D特徴点に関する前記第1の損失を計算することと
を行うようにプログラムされている、項目35に記載のシステム。
(項目37)
前記基準ヒートマップは、基準特徴点毎の場所を中心とする2次元分布を含む、項目36に記載のシステム。
(項目38)
前記基準ヒートマップは、前記基準特徴点から離れた背景と、前記基準特徴点と関連付けられた前景とを含み、前記ハードウェアプロセッサは、前記前景と前記背景との間の比率に基づいて、前記基準ヒートマップ内の勾配に加重するようにプログラムされている、項目36に記載のシステム。
(項目39)
前記基準ヒートマップ内の勾配に加重するために、前記ハードウェアプロセッサは、1未満の減少係数によって、前記背景内のピクセルの値を減少させるようにプログラムされている、項目38に記載のシステム。
(項目40)
ウェアラブルディスプレイシステムであって、
前記ウェアラブルディスプレイシステムの装着者の環境の部屋画像を取得するように構成される外向きに面した結像システムと、
前記部屋画像を記憶するように構成される非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサであって、前記プロセッサは、
前記環境の部屋画像にアクセスすることと、
前記部屋画像を分析し、前記部屋画像内の予測される部屋のレイアウトを決定することと
を行うようにプログラムされており、前記部屋画像を分析するために、前記プロセッサは、
ニューラルネットワークを使用して、前記部屋画像内の部屋に関する部屋タイプと関連付けられた2次元(2D)特徴点の順序付けられたセットを決定することと、
少なくとも部分的に、前記2D特徴点および前記部屋タイプに基づいて、前記部屋のレイアウトを提供することと
を行うようにプログラムされている、ハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。
(項目41)
前記ニューラルネットワークは、畳み込みエンコーダ-デコーダネットワークを備える、項目40に記載のウェアラブルディスプレイシステム。
(項目42)
前記畳み込みエンコーダ-デコーダネットワークは、メモリ増強再帰エンコーダ-デコーダネットワークを備える、項目41に記載のウェアラブルディスプレイシステム。
(項目43)
前記ニューラルネットワークは、前記部屋タイプを決定するように構成される分類子を含む、項目40に記載のウェアラブルディスプレイシステム。
(項目44)
前記ハードウェアプロセッサはさらに、前記2D特徴点の順序付けられたセットをヒートマップから抽出するようにプログラムされている、項目40に記載のウェアラブルディスプレイシステム。
(項目45)
前記ハードウェアプロセッサはさらに、
前記部屋画像を分析するオブジェクト認識装置からオブジェクト情報にアクセスすることと、
前記オブジェクト情報と前記部屋のレイアウトを組み合わせることと
を行うようにプログラムされている、項目40に記載のウェアラブルディスプレイシステム。
関数、アルゴリズム、システム、および同等物等のデータ関係およびパターンを表す、モデルは、入力を受け取り、何らかの方法において、入力に対応する出力を生産し得る。例えば、モデルは、畳み込みニューラルネットワーク(CNN)または深層ニューラルネットワーク(DNN)等の機械学習方法として実装されてもよい。深層学習は、タスク特有アルゴリズムとは対照的に、学習データ表現の概念に基づく、機械学習方法のより広義の系統の一部であって、拡張現実、複合現実、仮想現実、および機械知能に有用な視聴覚計算問題を解法する際、著しい有望性を示す。機械学習では、畳み込みニューラルネットワーク(CNNまたはConvNet)は、深層フィードフォワード人工ニューラルネットワークのクラスを含むことができ、CNNは、視覚的画像の分析の適用に成功を収めている。機械学習方法は、眼画像セグメント化および眼追跡を含む、様々な問題に対するロバストかつ正確なソリューションを有効にし得る、方法の系統を含む。
(例示的特徴点ベースの部屋のレイアウト表現)
(RoomNetの例示的アーキテクチャ)
(例えば、デコーダサブネットワーク304bから出力される)および部屋タイプ分類子
(例えば、全結合サイドヘッド層304cから出力される)を前提として、方程式[1]に示される損失関数Lは、最適化される(例えば、低減または最小限にされる)ことができる。
式中、
は、特徴点kがグラウンドトゥルース部屋タイプt内に現れるかどうかを示し、
は、部屋タイプインデックスcがグラウンドトゥルース部屋タイプtと等しいかどうかを示し、関数Gは、yを中心とするガウス分布であって、加重項は、λである。例えば、加重項λ(例えば、5)は、クロス検証によって設定されることができる。損失関数における第1の項は、予測されるヒートマップ320r0-320r10と特徴点毎に別個に合成されたグラウンドトゥルースヒートマップを比較する。特徴点ヒートマップ毎のグラウンドトゥルースは、あるピクセルの数(例えば、5ピクセル)の標準偏差を伴う、真の特徴点場所上を中心とする2Dガウス分布であることができる。損失関数における第2の項は、サイドヘッド304c全結合層332a-332cに正しい部屋タイプクラスラベルに対する高信頼度値を生産するように促すことができる。
式中、
および
は、層lに関する入力およびフィードフォワード加重であって、blは、層lに関するバイアスであって、σは、活性化関数、例えば、正規化線形ユニット(ReLU)活性化関数である。
(例示的訓練)
(例示的性能)
例示的RoomNet分析
例示的代替エンコーダ-デコーダ
RoomNetを訓練する例示的プロセス
部屋のレイアウト推定のためのRoomNetを使用する例示的プロセス
(例示的NN層)
例示的ウェアラブルディスプレイシステム
付加的側面
(付加的考慮点)
Claims (24)
- システムであって、前記システムは、
非一過性メモリであって、前記非一過性メモリは、
部屋の画像と、
ニューラルネットワークと
を記憶するように構成され、前記ニューラルネットワークは、
エンコーダとデコーダとを備えるエンコーダ-デコーダサブネットワークと、
前記エンコーダ-デコーダサブネットワークと通信する分類子サブネットワークと
を備える、非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記画像にアクセスすることと、
前記エンコーダ、デコーダ、および前記画像を使用して、部屋タイプに対応する2次元(2D)特徴点マップを予測することと、
前記エンコーダ、前記分類子サブネットワーク、および前記画像を使用して、予測される部屋タイプを前記部屋タイプから決定することと、
前記2D特徴点マップおよび前記予測される部屋タイプに少なくとも部分的に基づいて、前記画像内の前記部屋の予測されるレイアウトを決定することと
を行うようにプログラムされている、ハードウェアプロセッサと
を備える、システム。 - 前記部屋タイプ内の各部屋タイプは、前記部屋タイプ内の領域に関する意味論セグメント化を含み、前記意味論セグメント化は、床、天井、または壁としての識別を含む、請求項1に記載のシステム。
- 第1の特徴点順序は、前記部屋タイプのうちの第1の部屋タイプと関連付けられ、第2の特徴点順序は、前記部屋タイプのうちの第2の部屋タイプと関連付けられ、前記第1の特徴点順序および前記第2の特徴点順序は、異なる、請求項1に記載のシステム。
- 前記エンコーダが複数の畳み込み層および複数のプーリング層を含むか、または、前記デコーダが複数の畳み込み層および複数のアップサンプリング層を含む、請求項1に記載のシステム。
- 前記エンコーダ-デコーダサブネットワークは、複数の再帰層を備える、請求項1に記載のシステム。
- 前記複数の再帰層の再帰反復数は、少なくとも2である、請求項5に記載のシステム。
- 前記予測される2次元(2D)特徴点マップは、ヒートマップを含む、請求項1に記載のシステム。
- 前記ハードウェアプロセッサは、前記ヒートマップからの特徴点場所を前記ヒートマップの最大値として抽出するようにプログラムされている、請求項7に記載のシステム。
- 前記ハードウェアプロセッサは、
前記画像を分析するオブジェクト認識装置からオブジェクト情報にアクセスすることと、
前記オブジェクト情報と前記部屋の前記予測されるレイアウトを組み合わせることと
を行うようにプログラムされている、請求項1に記載のシステム。 - 前記オブジェクト認識装置は、前記画像内の直方体を検出するように構成される、請求項9に記載のシステム。
- システムであって、前記システムは、
ニューラルネットワークのためのパラメータを記憶するように構成される非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
画像を受信することであって、前記画像は、
複数の部屋タイプからの基準部屋タイプと、
基準部屋レイアウトと関連付けられた基準特徴点と
と関連付けられている、ことと、
ニューラルネットワークを生成することであって、前記ニューラルネットワークは、
予測される部屋レイアウトと関連付けられた2次元(2D)特徴点を出力するように構成されるエンコーダ-デコーダサブネットワークであって、前記エンコーダ-デコーダサブネットワークは、エンコーダとデコーダとを備える、エンコーダ-デコーダサブネットワークと、
予測される部屋タイプを前記複数の部屋タイプから出力するように構成される、前記エンコーダ-デコーダサブネットワークと通信する、サイドサブネットワークと
を備えている、ことと、
最適化された損失関数に少なくとも部分的に基づいて、前記ニューラルネットワークのための前記パラメータを更新することと
を行うようにプログラムされている、ハードウェアプロセッサと
を備える、システム。 - 第1の特徴点順序は、前記複数の部屋タイプのうちの第1の部屋タイプと関連付けられ、第2の特徴点順序は、前記複数の部屋タイプのうちの第2の部屋タイプと関連付けられ、前記第1の特徴点順序および前記第2の特徴点順序は、異なる、請求項11に記載のシステム。
- 前記エンコーダおよび前記デコーダは、複数の再帰層を備える、請求項11に記載のシステム。
- 前記最適化された損失関数は、前記2D特徴点に関する第1の損失および前記予測される部屋タイプに関する第2の損失に少なくとも部分的に基づいている、請求項11に記載のシステム。
- 前記2D特徴点は、予測されるヒートマップから抽出される、請求項11に記載のシステム。
- ハードウェアプロセッサは、
前記基準特徴点と関連付けられた基準ヒートマップを計算することと、
前記予測されるヒートマップと前記基準ヒートマップとの間の差異に基づいて、前記2D特徴点に関する前記第1の損失を計算することと
を行うようにプログラムされている、請求項15に記載のシステム。 - ウェアラブルディスプレイシステムであって、
前記ウェアラブルディスプレイシステムの装着者の環境の画像を取得するように構成される外向きに面した結像システムと、
前記画像を記憶するように構成される非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサであって、前記プロセッサは、
前記画像にアクセスすることと、
前記画像を分析して、前記画像内の部屋の予測されるレイアウトを決定することと
を行うようにプログラムされており、前記画像を分析するために、前記プロセッサは、
ニューラルネットワークを使用して、前記画像と関連付けられた部屋タイプと関連付けられた2次元(2D)特徴点を決定することであって、前記ニューラルネットワークは、
前記2D特徴点を出力するように構成されるエンコーダ-デコーダサブネットワークと、
前記部屋タイプを出力するように構成される、前記エンコーダ-デコーダサブネットワークと通信する、サイドサブネットワークと
を備える、ことと、
前記2D特徴点および前記部屋タイプに少なくとも部分的に基づいて、前記部屋レイアウトを提供することと
を行うようにプログラムされている、ハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。 - 前記ニューラルネットワークは、畳み込みエンコーダ-デコーダサブネットワークを備える、請求項17に記載のウェアラブルディスプレイシステム。
- 前記ニューラルネットワークは、前記部屋タイプを決定するように構成される分類子を含む、請求項17に記載のウェアラブルディスプレイシステム。
- 方法であって、前記方法は、
部屋の画像にアクセスすることと、
前記画像に少なくとも部分的に基づいて、部屋タイプに対応する2次元(2D)特徴点マップを予測することと、
前記画像に少なくとも部分的に基づいて、予測される部屋タイプを前記部屋タイプから決定することと、
前記2D特徴点マップおよび前記予測される部屋タイプに少なくとも部分的に基づいて、前記画像内の前記部屋の予測されるレイアウトを決定することと
を含む、方法。 - 2D特徴点マップを予測することはまた、ニューラルネットワークに少なくとも部分的に基づいている、請求項20に記載の方法。
- 予測される部屋タイプを決定することはまた、ニューラルネットワークに少なくとも部分的に基づいている、請求項21に記載の方法。
- 前記部屋タイプ内の各部屋タイプは、前記部屋タイプ内の領域に関する意味論セグメント化を含み、前記意味論セグメント化は、床、天井、または壁としての識別を含む、請求項20に記載の方法。
- 第1の特徴点順序は、前記部屋タイプのうちの第1の部屋タイプと関連付けられ、第2の特徴点順序は、前記部屋タイプのうちの第2の部屋タイプと関連付けられ、前記第1の特徴点順序および前記第2の特徴点順序は、異なる、請求項20に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137791A JP7305859B2 (ja) | 2017-03-17 | 2022-08-31 | 部屋レイアウト推定方法および技法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762473257P | 2017-03-17 | 2017-03-17 | |
US62/473,257 | 2017-03-17 | ||
JP2019547140A JP6929953B2 (ja) | 2017-03-17 | 2018-03-16 | 部屋レイアウト推定方法および技法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019547140A Division JP6929953B2 (ja) | 2017-03-17 | 2018-03-16 | 部屋レイアウト推定方法および技法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022137791A Division JP7305859B2 (ja) | 2017-03-17 | 2022-08-31 | 部屋レイアウト推定方法および技法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021176109A JP2021176109A (ja) | 2021-11-04 |
JP7135180B2 true JP7135180B2 (ja) | 2022-09-12 |
Family
ID=63519469
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019547140A Active JP6929953B2 (ja) | 2017-03-17 | 2018-03-16 | 部屋レイアウト推定方法および技法 |
JP2021131087A Active JP7135180B2 (ja) | 2017-03-17 | 2021-08-11 | 部屋レイアウト推定方法および技法 |
JP2022137791A Active JP7305859B2 (ja) | 2017-03-17 | 2022-08-31 | 部屋レイアウト推定方法および技法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019547140A Active JP6929953B2 (ja) | 2017-03-17 | 2018-03-16 | 部屋レイアウト推定方法および技法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022137791A Active JP7305859B2 (ja) | 2017-03-17 | 2022-08-31 | 部屋レイアウト推定方法および技法 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10657376B2 (ja) |
EP (1) | EP3596659A4 (ja) |
JP (3) | JP6929953B2 (ja) |
KR (2) | KR102302725B1 (ja) |
CN (2) | CN117893680A (ja) |
AU (3) | AU2018236433B2 (ja) |
CA (1) | CA3055597A1 (ja) |
IL (2) | IL268913B (ja) |
WO (1) | WO2018170421A1 (ja) |
Families Citing this family (101)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
IL297846B2 (en) * | 2016-11-15 | 2023-12-01 | Magic Leap Inc | A deep learning system for discovering a cube |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
EP3596659A4 (en) | 2017-03-17 | 2021-01-27 | Magic Leap, Inc. | SPACE LAYOUT APPRAISAL METHODS AND TECHNIQUES |
US10838396B2 (en) * | 2017-04-18 | 2020-11-17 | Cisco Technology, Inc. | Connecting robotic moving smart building furnishings |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
US10299982B2 (en) * | 2017-07-21 | 2019-05-28 | David M Frankel | Systems and methods for blind and visually impaired person environment navigation assistance |
IL294197A (en) | 2017-09-20 | 2022-08-01 | Magic Leap Inc | A personal neural network for eye tracking |
WO2019084189A1 (en) | 2017-10-26 | 2019-05-02 | Magic Leap, Inc. | SYSTEMS AND METHODS FOR GRADIENT NORMALIZATION FOR ADAPTIVE LOSS BALANCING IN DEEP MULTITASK NETWORKS |
US10410350B2 (en) * | 2017-10-30 | 2019-09-10 | Rakuten, Inc. | Skip architecture neural network machine and method for improved semantic segmentation |
US10395147B2 (en) | 2017-10-30 | 2019-08-27 | Rakuten, Inc. | Method and apparatus for improved segmentation and recognition of images |
US11775824B1 (en) | 2017-12-04 | 2023-10-03 | Express Scripts Strategic Development, Inc. | Labeling apparatus |
US10908561B2 (en) | 2017-12-12 | 2021-02-02 | Distech Controls Inc. | Environment controller and method for inferring one or more commands for controlling an appliance taking into account room characteristics |
US10845768B2 (en) | 2017-12-12 | 2020-11-24 | Distech Controls Inc. | Environment controller and method for inferring via a neural network one or more commands for controlling an appliance |
US10895853B2 (en) | 2017-12-12 | 2021-01-19 | Distech Controls Inc. | Inference server and environment controller for inferring one or more commands for controlling an appliance taking into account room characteristics |
US10838375B2 (en) * | 2017-12-12 | 2020-11-17 | Distech Controls Inc. | Inference server and environment controller for inferring via a neural network one or more commands for controlling an appliance |
US10726597B1 (en) | 2018-02-22 | 2020-07-28 | A9.Com, Inc. | Optically challenging surface detection for augmented reality |
US10592747B2 (en) * | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
WO2019212069A1 (ko) * | 2018-04-30 | 2019-11-07 | 서울대학교 산학협력단 | 딥-러닝을 통한 무선신호 전파 채널 해석을 이용한 실내공간의 구조를 예측하는 방법 |
GB2574795B (en) * | 2018-05-04 | 2022-10-05 | Signaturize Holdings Ltd | Generating virtual representations |
US11552731B2 (en) * | 2018-07-20 | 2023-01-10 | Nokia Technologies Oy | Learning in communication systems by updating of parameters in a receiving algorithm |
WO2020023399A1 (en) | 2018-07-23 | 2020-01-30 | Magic Leap, Inc. | Deep predictor recurrent neural network for head pose prediction |
US11055531B1 (en) | 2018-08-24 | 2021-07-06 | United Services Automobiie Association (USAA) | Augmented reality method for repairing damage or replacing physical objects |
US11164067B2 (en) * | 2018-08-29 | 2021-11-02 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging |
US10832437B2 (en) * | 2018-09-05 | 2020-11-10 | Rakuten, Inc. | Method and apparatus for assigning image location and direction to a floorplan diagram based on artificial intelligence |
US11188787B1 (en) | 2018-09-28 | 2021-11-30 | Apple Inc. | End-to-end room layout estimation |
KR20200043005A (ko) * | 2018-10-17 | 2020-04-27 | 삼성전자주식회사 | 이미지 인식 모델을 트레이닝시키는 장치 및 방법과 이미지 인식 장치 및 방법 |
EP3654247A1 (en) * | 2018-11-15 | 2020-05-20 | IMEC vzw | Convolution engine for neural networks |
US11087165B2 (en) * | 2018-11-29 | 2021-08-10 | Nec Corporation | Method and system for contextualizing automatic image segmentation and regression |
CN111353349B (zh) * | 2018-12-24 | 2023-10-17 | 杭州海康威视数字技术股份有限公司 | 人体关键点检测方法、装置、电子设备及存储介质 |
US10839606B2 (en) * | 2018-12-28 | 2020-11-17 | National Tsing Hua University | Indoor scene structural estimation system and estimation method thereof based on deep learning network |
US10776651B2 (en) | 2019-01-18 | 2020-09-15 | Intelligrated Headquarters, Llc | Material handling method, apparatus, and system for identification of a region-of-interest |
US20200242771A1 (en) * | 2019-01-25 | 2020-07-30 | Nvidia Corporation | Semantic image synthesis for generating substantially photorealistic images using neural networks |
US10628688B1 (en) * | 2019-01-30 | 2020-04-21 | Stadvision, Inc. | Learning method and learning device, and testing method and testing device for detecting parking spaces by using point regression results and relationship between points to thereby provide an auto-parking system |
CN109886176B (zh) * | 2019-02-14 | 2023-02-24 | 武汉大学 | 复杂驾驶场景下的车道线检测方法 |
CN109902601B (zh) * | 2019-02-14 | 2023-04-07 | 武汉大学 | 一种结合卷积网络和递归网络的视频目标检测方法 |
CN111581414B (zh) * | 2019-02-18 | 2024-01-16 | 北京京东尚科信息技术有限公司 | 服饰识别、分类及检索的方法、装置、设备及存储介质 |
US11210547B2 (en) * | 2019-03-20 | 2021-12-28 | NavInfo Europe B.V. | Real-time scene understanding system |
US10984560B1 (en) * | 2019-03-29 | 2021-04-20 | Amazon Technologies, Inc. | Computer vision using learnt lossy image compression representations |
US11461640B2 (en) | 2019-04-18 | 2022-10-04 | International Business Machines Corporation | Mitigation of conductance drift in neural network resistive processing units |
JP7472170B2 (ja) | 2019-04-26 | 2024-04-22 | エヌビディア コーポレーション | 自律マシン・アプリケーションにおける交差点姿勢検出 |
US11067786B2 (en) * | 2019-06-07 | 2021-07-20 | Leica Microsystems Inc. | Artifact regulation methods in deep model training for image transformation |
CA3145241A1 (en) * | 2019-06-24 | 2020-12-30 | Insurance Services Office, Inc. | Machine learning systems and methods for improved localization of image forgery |
CN110378253B (zh) * | 2019-07-01 | 2021-03-26 | 浙江大学 | 一种基于轻量化神经网络的实时关键点检测方法 |
US11473915B2 (en) * | 2019-07-04 | 2022-10-18 | Mapsted Corp. | Magnetic fingerprint neural network training for mobile device indoor navigation |
WO2021020305A1 (ja) * | 2019-07-29 | 2021-02-04 | 京セラ株式会社 | 画像処理システム、機械学習器、画像処理器及び撮像装置 |
JP7309506B2 (ja) * | 2019-07-29 | 2023-07-18 | 京セラ株式会社 | 画像処理システム、機械学習器、撮像装置及び学習方法 |
US11321566B2 (en) * | 2019-08-22 | 2022-05-03 | Jpmorgan Chase Bank, N.A. | Systems and methods for self-learning a floorplan layout using a camera system |
US10860954B1 (en) | 2019-08-27 | 2020-12-08 | Capital One Services, Llc | Roomfinder platform |
US11243656B2 (en) * | 2019-08-28 | 2022-02-08 | Zillow, Inc. | Automated tools for generating mapping information for buildings |
US11127139B2 (en) * | 2019-09-18 | 2021-09-21 | Adobe Inc. | Enhanced semantic segmentation of images |
US11256986B2 (en) * | 2019-09-24 | 2022-02-22 | Toyota Research Institute, Inc. | Systems and methods for training a neural keypoint detection network |
WO2021071436A1 (en) * | 2019-10-10 | 2021-04-15 | National University Of Singapore | A sensory flooring system and a sensory floor comprising a sensory flooring system |
US11144790B2 (en) * | 2019-10-11 | 2021-10-12 | Baidu Usa Llc | Deep learning model embodiments and training embodiments for faster training |
JP7363384B2 (ja) * | 2019-11-05 | 2023-10-18 | 富士通株式会社 | 解析装置、解析プログラム及び解析方法 |
US11454978B2 (en) * | 2019-11-07 | 2022-09-27 | Naver Corporation | Systems and methods for improving generalization in visual navigation |
CN111062416B (zh) * | 2019-11-14 | 2021-09-21 | 支付宝(杭州)信息技术有限公司 | 用户聚类及特征学习方法、设备、计算机可读介质 |
CN111104879B (zh) * | 2019-12-09 | 2020-11-27 | 贝壳找房(北京)科技有限公司 | 房屋功能间的识别方法和装置、可读存储介质、电子设备 |
EP4083528A4 (en) * | 2019-12-23 | 2024-01-10 | Lg Electronics Inc | AIR CONDITIONER AND ITS CONTROL METHOD |
KR20220089218A (ko) | 2020-12-21 | 2022-06-28 | 엘지전자 주식회사 | 공기조화기 및 그 제어 방법 |
KR102447814B1 (ko) | 2020-12-21 | 2022-09-26 | 엘지전자 주식회사 | 공기조화기 및 그 제어 방법 |
CN110751721B (zh) * | 2019-12-24 | 2020-10-30 | 广东博智林机器人有限公司 | 家具布局图纸的生成方法和装置、计算机设备及存储介质 |
CN111179160A (zh) * | 2020-01-02 | 2020-05-19 | 广东博智林机器人有限公司 | 一种信息过滤方法、装置、电子设备及存储介质 |
CN111259850B (zh) * | 2020-01-23 | 2022-12-16 | 同济大学 | 一种融合随机批掩膜和多尺度表征学习的行人重识别方法 |
US11796333B1 (en) | 2020-02-11 | 2023-10-24 | Keysight Technologies, Inc. | Methods, systems and computer readable media for augmented reality navigation in network test environments |
CN111340938B (zh) * | 2020-02-21 | 2020-12-11 | 贝壳找房(北京)科技有限公司 | 用于获得房屋布局信息的方法、网络模型训练方法及装置 |
WO2021174060A1 (en) * | 2020-02-27 | 2021-09-02 | Scale Builders Co | Apparatus and method of converting digital images to three-dimensional construction images |
US11450008B1 (en) * | 2020-02-27 | 2022-09-20 | Amazon Technologies, Inc. | Segmentation using attention-weighted loss and discriminative feature learning |
KR102119687B1 (ko) * | 2020-03-02 | 2020-06-05 | 엔에이치네트웍스 주식회사 | 영상 이미지 학습장치 및 방법 |
KR102167808B1 (ko) * | 2020-03-31 | 2020-10-20 | 한밭대학교 산학협력단 | Ar에 적용 가능한 의미적인 분할 방법 및 시스템 |
CN111507354B (zh) * | 2020-04-17 | 2023-12-12 | 北京百度网讯科技有限公司 | 信息抽取方法、装置、设备以及存储介质 |
WO2021210413A1 (ja) * | 2020-04-17 | 2021-10-21 | 株式会社Roxy | 判別対象の分類方法、これに用いるプログラム、および、判別装置 |
US20230103374A1 (en) * | 2020-04-17 | 2023-04-06 | Roxy Corp. | Visualization method, program for the same, visualization device, and discrimination device having the same |
CN111523169B (zh) * | 2020-04-24 | 2023-06-13 | 广东博智林机器人有限公司 | 一种装修方案生成方法、装置、电子设备及存储介质 |
CN111914612B (zh) * | 2020-05-21 | 2024-03-01 | 淮阴工学院 | 一种基于改进的卷积神经网络的施工图图元自适应识别方法 |
US11341473B2 (en) | 2020-09-30 | 2022-05-24 | Block, Inc. | Context-based communication requests |
US11803829B2 (en) | 2020-09-30 | 2023-10-31 | Block, Inc. | Device-aware communication requests |
US11699001B2 (en) * | 2020-10-13 | 2023-07-11 | Flyreel, Inc. | Generating measurements of physical structures and environments through automated analysis of sensor data |
CN112464311A (zh) * | 2020-11-24 | 2021-03-09 | 中天众达智慧城市科技有限公司 | 一种智慧城市数据中心的设备布置方法 |
CN112434198A (zh) * | 2020-11-24 | 2021-03-02 | 深圳市明源云科技有限公司 | 图表组件推荐方法及装置 |
US11570050B2 (en) | 2020-11-30 | 2023-01-31 | Keysight Technologies, Inc. | Methods, systems and computer readable media for performing cabling tasks using augmented reality |
CN112836710B (zh) * | 2021-02-23 | 2022-02-22 | 浙大宁波理工学院 | 一种基于特征金字塔网络的房间布局估计获取方法与系统 |
CN112837336B (zh) * | 2021-02-23 | 2022-02-22 | 浙大宁波理工学院 | 一种基于关键点热图修正的房间布局估计获取方法与系统 |
US11790648B2 (en) | 2021-02-25 | 2023-10-17 | MFTB Holdco, Inc. | Automated usability assessment of buildings using visual data of captured in-room images |
US11836973B2 (en) | 2021-02-25 | 2023-12-05 | MFTB Holdco, Inc. | Automated direction of capturing in-room information for use in usability assessment of buildings |
EP4298610A1 (en) * | 2021-05-25 | 2024-01-03 | Samsung Electronics Co., Ltd. | A method and an electronic apparatus for acquiring a floor map of a room layout |
US11657611B2 (en) * | 2021-05-28 | 2023-05-23 | Verizon Patent And Licensing Inc. | Methods and systems for augmented reality room identification based on room-object profile data |
KR102325838B1 (ko) * | 2021-06-01 | 2021-11-15 | 한밭대학교 산학협력단 | Ar에 적용 가능한 마커리스 기반의 실내위치 측정시스템 및 그 방법 |
CN113362461B (zh) * | 2021-06-18 | 2024-04-02 | 盎锐(杭州)信息科技有限公司 | 基于语义分割的点云匹配方法、系统及扫描终端 |
US20220405500A1 (en) * | 2021-06-21 | 2022-12-22 | Google Llc | Computationally efficient and robust ear saddle point detection |
WO2023007215A1 (en) * | 2021-07-27 | 2023-02-02 | Hinge Health, Inc. | Two-dimensional pose estimations |
US11417069B1 (en) * | 2021-10-05 | 2022-08-16 | Awe Company Limited | Object and camera localization system and localization method for mapping of the real world |
CN113642090B (zh) * | 2021-10-14 | 2022-04-01 | 深圳润世华软件和信息技术服务有限公司 | 建筑布局生成方法、装置、计算机设备和存储介质 |
KR20230063234A (ko) * | 2021-11-01 | 2023-05-09 | 삼성전자주식회사 | 카메라의 캘리브레이션을 위한 전자 장치 및 방법 |
USD1021943S1 (en) | 2021-12-15 | 2024-04-09 | Block, Inc. | Display screen or portion thereof with a graphical user interface |
CN114491772B (zh) * | 2022-03-23 | 2022-09-13 | 清华大学 | 一种户型布局生成方法及装置 |
US11776206B1 (en) | 2022-12-23 | 2023-10-03 | Awe Company Limited | Extended reality system and extended reality method with two-way digital interactive digital twins |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014220804A (ja) | 2013-05-11 | 2014-11-20 | 三菱電機株式会社 | 単一の2次元画像からシーンを再構成する方法 |
Family Cites Families (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5583795A (en) | 1995-03-17 | 1996-12-10 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for measuring eye gaze and fixation duration, and method therefor |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US7856055B2 (en) | 2002-03-13 | 2010-12-21 | Imax Corporation | Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data |
US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
KR20050025927A (ko) | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
US7248720B2 (en) | 2004-10-21 | 2007-07-24 | Retica Systems, Inc. | Method and system for generating a combined retina/iris pattern biometric |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
JP4824420B2 (ja) | 2006-02-07 | 2011-11-30 | アイテック株式会社 | 視線ベクトル検出方法及び同装置 |
US7970179B2 (en) | 2006-09-25 | 2011-06-28 | Identix Incorporated | Iris data extraction |
US8363783B2 (en) | 2007-06-04 | 2013-01-29 | Oraya Therapeutics, Inc. | Method and device for ocular alignment and coupling of ocular structures |
US8098891B2 (en) | 2007-11-29 | 2012-01-17 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3D tracking in crowded scenes |
WO2010003044A2 (en) | 2008-07-03 | 2010-01-07 | Nec Laboratories America, Inc. | Epithelial layer detector and related methods |
WO2010129074A1 (en) | 2009-01-14 | 2010-11-11 | Indiana University Research & Technology Corporation | System and method for identifying a person with reference to a sclera image |
AU2011207402B2 (en) | 2010-01-22 | 2015-01-29 | Amo Development, Llc | Apparatus for automated placement of scanned laser capsulorhexis incisions |
US8345984B2 (en) | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
KR101997845B1 (ko) | 2010-12-24 | 2019-10-01 | 매직 립, 인코포레이티드 | 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템 |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CN107656615B (zh) | 2011-05-06 | 2021-09-14 | 奇跃公司 | 大量同时远程数字呈现世界 |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
EP3666352B1 (en) | 2011-10-28 | 2021-12-01 | Magic Leap, Inc. | Method and device for augmented and virtual reality |
EP4036862A1 (en) | 2011-11-23 | 2022-08-03 | Magic Leap, Inc. | Three dimensional virtual and augmented reality display system |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
WO2013188464A1 (en) | 2012-06-11 | 2013-12-19 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9141916B1 (en) | 2012-06-29 | 2015-09-22 | Google Inc. | Using embedding functions with a deep network |
KR101506525B1 (ko) | 2012-07-31 | 2015-03-27 | 도꾸리쯔교세이호징 가가꾸 기쥬쯔 신꼬 기꼬 | 주시점 검출 장치, 주시점 검출 방법, 개인 파라미터 산출 장치, 개인 파라미터 산출 방법, 프로그램, 및 컴퓨터 판독 가능한 기록 매체 |
US8369595B1 (en) | 2012-08-10 | 2013-02-05 | EyeVerify LLC | Texture features for biometric authentication |
KR20150054967A (ko) | 2012-09-11 | 2015-05-20 | 매직 립, 인코포레이티드 | 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템 |
WO2014113506A1 (en) | 2013-01-15 | 2014-07-24 | Magic Leap, Inc. | Ultra-high resolution scanning fiber display |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
US9147154B2 (en) | 2013-03-13 | 2015-09-29 | Google Inc. | Classifying resources using a deep network |
KR102271198B1 (ko) | 2013-03-15 | 2021-06-29 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
WO2014182769A1 (en) | 2013-05-07 | 2014-11-13 | The Johns Hopkins University | Automated and non-mydriatic fundus-perimetry camera for irreversible eye diseases |
US9275308B2 (en) | 2013-05-31 | 2016-03-01 | Google Inc. | Object detection using deep neural networks |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20140380249A1 (en) | 2013-06-25 | 2014-12-25 | Apple Inc. | Visual recognition of gestures |
CN103431840B (zh) | 2013-07-31 | 2016-01-20 | 北京智谷睿拓技术服务有限公司 | 眼睛光学参数检测系统及方法 |
EP4321915A3 (en) | 2013-10-16 | 2024-05-01 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
US9202144B2 (en) | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
US10095917B2 (en) | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
JP6236296B2 (ja) | 2013-11-14 | 2017-11-22 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
CN107219628B (zh) | 2013-11-27 | 2020-05-01 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US9430829B2 (en) | 2014-01-30 | 2016-08-30 | Case Western Reserve University | Automatic detection of mitosis using handcrafted and convolutional neural network features |
KR102207799B1 (ko) | 2014-01-31 | 2021-01-26 | 매직 립, 인코포레이티드 | 멀티-포컬 디스플레이 시스템 및 방법 |
CN110376743B (zh) | 2014-01-31 | 2022-03-04 | 奇跃公司 | 多焦点显示系统和方法 |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
IL231862A (en) | 2014-04-01 | 2015-04-30 | Superfish Ltd | Image representation using a neural network |
WO2015164807A1 (en) | 2014-04-25 | 2015-10-29 | Texas State University | Detection of brain injury and subject state with eye movement biometrics |
AU2015297035B2 (en) | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
KR102193052B1 (ko) | 2014-05-30 | 2020-12-18 | 매직 립, 인코포레이티드 | 가상 또는 증강 현실 장치로 가상 콘텐츠 디스플레이를 생성하기 위한 방법들 및 시스템들 |
US9536293B2 (en) | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
US20160034811A1 (en) | 2014-07-31 | 2016-02-04 | Apple Inc. | Efficient generation of complementary acoustic models for performing automatic speech recognition system combination |
US9659384B2 (en) | 2014-10-03 | 2017-05-23 | EyeEm Mobile GmbH. | Systems, methods, and computer program products for searching and sorting images by aesthetic quality |
WO2016054779A1 (en) | 2014-10-09 | 2016-04-14 | Microsoft Technology Licensing, Llc | Spatial pyramid pooling networks for image processing |
US9530071B2 (en) | 2014-10-10 | 2016-12-27 | Beijing Kuangshi Technology Co., Ltd. | Hierarchical interlinked multi-scale convolutional network for image parsing |
KR102276339B1 (ko) | 2014-12-09 | 2021-07-12 | 삼성전자주식회사 | Cnn의 근사화를 위한 학습 장치 및 방법 |
WO2016106238A1 (en) | 2014-12-24 | 2016-06-30 | Google Inc. | Augmenting neural networks to generate additional outputs |
EP3295368A1 (en) * | 2015-05-13 | 2018-03-21 | Google LLC | Deepstereo: learning to predict new views from real world imagery |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
CN112836664A (zh) | 2015-08-21 | 2021-05-25 | 奇跃公司 | 使用眼睛姿态测量的眼睑形状估计 |
US9767565B2 (en) * | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
JP6678930B2 (ja) * | 2015-08-31 | 2020-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
WO2018013200A1 (en) | 2016-07-14 | 2018-01-18 | Magic Leap, Inc. | Deep neural network for iris identification |
CN114495249A (zh) | 2016-07-14 | 2022-05-13 | 奇跃公司 | 使用角膜曲率的虹膜边界估计 |
EP3500911B1 (en) | 2016-08-22 | 2023-09-27 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
RU2016138608A (ru) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
WO2018067603A1 (en) | 2016-10-04 | 2018-04-12 | Magic Leap, Inc. | Efficient data layouts for convolutional neural networks |
IL297846B2 (en) | 2016-11-15 | 2023-12-01 | Magic Leap Inc | A deep learning system for discovering a cube |
EP3596659A4 (en) | 2017-03-17 | 2021-01-27 | Magic Leap, Inc. | SPACE LAYOUT APPRAISAL METHODS AND TECHNIQUES |
-
2018
- 2018-03-16 EP EP18767554.1A patent/EP3596659A4/en active Pending
- 2018-03-16 KR KR1020197029282A patent/KR102302725B1/ko active IP Right Grant
- 2018-03-16 WO PCT/US2018/022905 patent/WO2018170421A1/en active Application Filing
- 2018-03-16 US US15/923,511 patent/US10657376B2/en active Active
- 2018-03-16 CA CA3055597A patent/CA3055597A1/en active Pending
- 2018-03-16 AU AU2018236433A patent/AU2018236433B2/en active Active
- 2018-03-16 CN CN202410006125.9A patent/CN117893680A/zh active Pending
- 2018-03-16 JP JP2019547140A patent/JP6929953B2/ja active Active
- 2018-03-16 CN CN201880017801.5A patent/CN110419049B/zh active Active
- 2018-03-16 KR KR1020217028859A patent/KR20210113443A/ko not_active Application Discontinuation
-
2019
- 2019-08-26 IL IL268913A patent/IL268913B/en unknown
-
2020
- 2020-04-09 US US16/844,812 patent/US11775835B2/en active Active
-
2021
- 2021-08-11 JP JP2021131087A patent/JP7135180B2/ja active Active
-
2022
- 2022-01-03 IL IL289588A patent/IL289588A/en unknown
- 2022-05-19 AU AU2022203390A patent/AU2022203390A1/en active Pending
- 2022-06-02 AU AU2022203838A patent/AU2022203838A1/en not_active Abandoned
- 2022-08-31 JP JP2022137791A patent/JP7305859B2/ja active Active
-
2023
- 2023-08-23 US US18/454,680 patent/US20230394315A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014220804A (ja) | 2013-05-11 | 2014-11-20 | 三菱電機株式会社 | 単一の2次元画像からシーンを再構成する方法 |
Non-Patent Citations (2)
Title |
---|
Hansung Kim;Teofilo De Campos;Adrian Hilton,Room Layout Estimation with Object and Material Attributes Information Using a Spherical Camera,2016 Fourth International Conference on 3D Vision (3DV),IEEE,2016年,pp.519-527,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7785127 |
Zhang et al.,Learning to Predict High-quality Edge Maps for Room Layout Estimation,IEEE transaction on Multimedia,IEEE,2016年11月21日,Vol.19 Issue 5,https://ieeexplore.ieee.org/ielaam/6046/7902243/7792744-aam.pdf |
Also Published As
Publication number | Publication date |
---|---|
CN110419049B (zh) | 2024-01-23 |
JP2022171705A (ja) | 2022-11-11 |
AU2022203390A1 (en) | 2022-06-09 |
CN110419049A (zh) | 2019-11-05 |
CA3055597A1 (en) | 2018-09-20 |
WO2018170421A1 (en) | 2018-09-20 |
US10657376B2 (en) | 2020-05-19 |
US20180268220A1 (en) | 2018-09-20 |
EP3596659A4 (en) | 2021-01-27 |
JP2021176109A (ja) | 2021-11-04 |
AU2018236433A1 (en) | 2019-09-12 |
AU2022203838A1 (en) | 2022-06-23 |
AU2018236433B2 (en) | 2022-03-03 |
IL289588A (en) | 2022-03-01 |
US11775835B2 (en) | 2023-10-03 |
KR20210113443A (ko) | 2021-09-15 |
IL268913B (en) | 2022-02-01 |
JP6929953B2 (ja) | 2021-09-01 |
JP2020514890A (ja) | 2020-05-21 |
CN117893680A (zh) | 2024-04-16 |
JP7305859B2 (ja) | 2023-07-10 |
KR102302725B1 (ko) | 2021-09-14 |
IL268913A (en) | 2019-10-31 |
US20200234051A1 (en) | 2020-07-23 |
KR20190128190A (ko) | 2019-11-15 |
EP3596659A1 (en) | 2020-01-22 |
US20230394315A1 (en) | 2023-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7135180B2 (ja) | 部屋レイアウト推定方法および技法 | |
US11853894B2 (en) | Meta-learning for multi-task learning for neural networks | |
JP7151016B2 (ja) | 直方体検出のための深層機械学習システム | |
CA3078530A1 (en) | Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks | |
Mandal et al. | Unsupervised Learning of Depth, Camera Pose and Optical Flow from Monocular Video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210811 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7135180 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |