JP7282175B2 - 人工現実システムにおいて平面を識別すること - Google Patents
人工現実システムにおいて平面を識別すること Download PDFInfo
- Publication number
- JP7282175B2 JP7282175B2 JP2021530141A JP2021530141A JP7282175B2 JP 7282175 B2 JP7282175 B2 JP 7282175B2 JP 2021530141 A JP2021530141 A JP 2021530141A JP 2021530141 A JP2021530141 A JP 2021530141A JP 7282175 B2 JP7282175 B2 JP 7282175B2
- Authority
- JP
- Japan
- Prior art keywords
- vanishing point
- image
- virtual object
- straight line
- line segments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 46
- 230000015654 memory Effects 0.000 claims description 35
- 238000003860 storage Methods 0.000 claims description 34
- 230000001131 transforming effect Effects 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 30
- 230000006855 networking Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 230000009466 transformation Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013475 authorization Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/38—Outdoor scenes
- G06V20/39—Urban scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Description
コンピューティングデバイスによって、物理世界シーンの画像にアクセスすることと、
コンピューティングデバイスによって、アクセスされた画像における複数の直線セグメントを検出することと、
コンピューティングデバイスによって、画像における第1の消失点および第2の消失点を識別することであって、各消失点が複数の直線セグメントのサブセットに対応し、第1の消失点と第2の消失点とが直交する、第1の消失点および第2の消失点を識別することと、
コンピューティングデバイスによって、第1の消失点に関連する1つまたは複数の直線セグメントと、第2の消失点に関連する1つまたは複数の直線セグメントとに基づいて、アクセスされた画像における平面領域を識別することと、
コンピューティングデバイスによって、平面領域に関連する1つまたは複数の特性に基づいて平面領域に関連する仮想オブジェクトを変換することと、
コンピューティングデバイスによって、画像上で、変換された仮想オブジェクトを表示することと
を含み得る。
アクセスされた画像におけるエッジを検出することであって、エッジは、画像輝度が不連続性を有する点のセットである、アクセスされた画像におけるエッジを検出することと、
アクセスされた画像における検出されたエッジから非直線エッジをフィルタ処理することと
を含み得る。
ユーザからのコマンドに基づいて、平面領域内の新しい位置に仮想オブジェクトを移動することであって、仮想オブジェクトが、平面領域の配向に対する仮想オブジェクトの相対配向と、平面領域のサイズに対する仮想オブジェクトの相対サイズとを移動後に同じに保つやり方で変換される、仮想オブジェクトを移動すること
を含み得る。
ユーザからのコマンドに基づいて、平面領域内の仮想オブジェクトをリサイズすることであって、仮想オブジェクトが、平面領域の配向に対する仮想オブジェクトの相対配向と、仮想オブジェクトの配置位置とをリサイズ後に同じに保つやり方で変換される、仮想オブジェクトをリサイズすること
を含み得る。
後のフレームにおいて平面領域の配向が変化することを検出することと、
平面領域の配向に対する仮想オブジェクトの相対配向を整合するように維持するように、仮想オブジェクトを変換することと
を含み得る。
後のフレームにおいて平面領域のスケールが変化することを検出することと、
平面領域のサイズに対する仮想オブジェクトの相対サイズを整合するように維持するように、仮想オブジェクトを変換することと
を含み得る。
物理世界シーンの画像にアクセスすることと、
アクセスされた画像における複数の直線セグメントを検出することと、
画像における第1の消失点および第2の消失点を識別することであって、各消失点が複数の直線セグメントのサブセットに対応し、第1の消失点と第2の消失点とが直交する、第1の消失点および第2の消失点を識別することと、
第1の消失点に関連する1つまたは複数の直線セグメントと、第2の消失点に関連する1つまたは複数の直線セグメントとに基づいて、アクセスされた画像における平面領域を識別することと、
平面領域に関連する1つまたは複数の特性に基づいて平面領域に関連する仮想オブジェクトを変換することと、
画像上で、変換された仮想オブジェクトを表示することと
を行うように動作可能である。
アクセスされた画像におけるエッジを検出することであって、エッジは、画像輝度が不連続性を有する点のセットである、アクセスされた画像におけるエッジを検出することと、
アクセスされた画像における検出されたエッジから非直線エッジをフィルタ処理することと
を含み得る。
物理世界シーンの画像にアクセスすることと、
アクセスされた画像における複数の直線セグメントを検出することと、
画像における第1の消失点および第2の消失点を識別することであって、各消失点が複数の直線セグメントのサブセットに対応し、第1の消失点と第2の消失点とが直交する、第1の消失点および第2の消失点を識別することと、
第1の消失点に関連する1つまたは複数の直線セグメントと、第2の消失点に関連する1つまたは複数の直線セグメントとに基づいて、アクセスされた画像における平面領域を識別することと、
平面領域に関連する1つまたは複数の特性に基づいて平面領域に関連する仮想オブジェクトを変換することと、
画像上で、変換された仮想オブジェクトを表示することと
を行うように動作可能である。
図5は、ソーシャルネットワーキングシステムに関連する例示的なネットワーク環境500を示す。ネットワーク環境500は、ネットワーク510によって互いに接続された、ユーザ501と、クライアントシステム530と、ソーシャルネットワーキングシステム560と、サードパーティシステム570とを含む。図5は、ユーザ501、クライアントシステム530、ソーシャルネットワーキングシステム560、サードパーティシステム570、およびネットワーク510の特定の構成を示すが、本開示は、ユーザ501、クライアントシステム530、ソーシャルネットワーキングシステム560、サードパーティシステム570、およびネットワーク510の任意の好適な構成を企図する。限定としてではなく一例として、クライアントシステム530、ソーシャルネットワーキングシステム560、およびサードパーティシステム570のうちの2つまたはそれ以上が、ネットワーク510をバイパスして、直接互いに接続され得る。別の例として、クライアントシステム530、ソーシャルネットワーキングシステム560、およびサードパーティシステム570のうちの2つまたはそれ以上が、全体的にまたは部分的に、物理的にまたは論理的に互いとコロケートされ得る。その上、図5は、特定の数のユーザ501、クライアントシステム530、ソーシャルネットワーキングシステム560、サードパーティシステム570、およびネットワーク510を示すが、本開示は、任意の好適な数のユーザ501、クライアントシステム530、ソーシャルネットワーキングシステム560、サードパーティシステム570、およびネットワーク510を企図する。限定としてではなく一例として、ネットワーク環境500は、複数のユーザ501と、クライアントシステム530と、ソーシャルネットワーキングシステム560と、サードパーティシステム570と、ネットワーク510とを含み得る。
図6は、例示的なコンピュータシステム600を示す。特定の実施形態では、1つまたは複数のコンピュータシステム600は、本明細書で説明または示される1つまたは複数の方法の1つまたは複数のステップを実施する。特定の実施形態では、1つまたは複数のコンピュータシステム600は、本明細書で説明または示される機能性を提供する。特定の実施形態では、1つまたは複数のコンピュータシステム600上で稼働しているソフトウェアは、本明細書で説明または示される1つまたは複数の方法の1つまたは複数のステップを実施するか、あるいは本明細書で説明または示される機能性を提供する。特定の実施形態は、1つまたは複数のコンピュータシステム600の1つまたは複数の部分を含む。本明細書では、コンピュータシステムへの言及は、適切な場合、コンピューティングデバイスを包含し得、その逆も同様である。その上、コンピュータシステムへの言及は、適切な場合、1つまたは複数のコンピュータシステムを包含し得る。
Claims (20)
- コンピューティングデバイスによって、物理世界シーンの画像にアクセスすることと、
前記コンピューティングデバイスによって、アクセスされた画像における複数の直線セグメントを検出することと、
前記コンピューティングデバイスによって、前記画像における第1の消失点および第2の消失点を識別することであって、各消失点が前記複数の直線セグメントのサブセットに対応し、前記第1の消失点と前記第2の消失点とが直交する、第1の消失点および第2の消失点を識別することと、
前記コンピューティングデバイスによって、前記第1の消失点に関連する1つまたは複数の直線セグメントと、前記第2の消失点に関連する1つまたは複数の直線セグメントとに基づいて、前記アクセスされた画像における平面領域を識別することと、
前記コンピューティングデバイスによって、前記平面領域に関連する1つまたは複数の特性に基づいて前記平面領域に関連する仮想オブジェクトを変換することと、
前記コンピューティングデバイスによって、前記画像上で、変換された前記仮想オブジェクトを表示することと、
前記コンピューティングデバイスによって、後のフレームにおいて前記第1の消失点に対応する1つまたは複数の直線セグメントを追跡することと、
前記コンピューティングデバイスによって、変換された前記仮想オブジェクトの相対サイズを、後のフレームにおいて追跡された前記1つまたは複数の直線セグメントのサイズに維持することと
を含む、方法。 - 前記アクセスされた画像における前記複数の直線セグメントを検出することが、
前記アクセスされた画像におけるエッジを検出することであって、エッジは、画像輝度が不連続性を有する点のセットである、前記アクセスされた画像におけるエッジを検出することと、
前記アクセスされた画像における検出された前記エッジから非直線エッジをフィルタ処理することと
を含む、請求項1に記載の方法。 - 前記アクセスされた画像におけるエッジが、オブジェクトの境界、物質特性の境界、またはライティングの境界を表す、請求項2に記載の方法。
- 前記アクセスされた画像におけるエッジが、ステップエッジとバーエッジとを含む、請求項2に記載の方法。
- 前記第1の消失点または前記第2の消失点は、前記複数の直線セグメントの関連する前記サブセットから延長された線が、前記画像を含む2次元平面における点において交差する、有限消失点である、請求項1に記載の方法。
- 前記第1の消失点または前記第2の消失点が無限消失点であり、関連する前記直線セグメントから延長された線が、前記画像において平行のままである、請求項1に記載の方法。
- 前記第1の消失点または前記第2の消失点を識別することが、前記複数の直線セグメントをクラスタリングすることを含む、請求項1に記載の方法。
- 前記第1の消失点または前記第2の消失点を識別することが、候補消失点を生成するために、ランダムサンプルコンセンサス(RANSAC)を利用することを含む、請求項1に記載の方法。
- 前記第1の消失点または前記第2の消失点を識別することが、前記コンピューティングデバイス上で利用可能な慣性測定ユニット(IMU)情報に基づく、請求項1に記載の方法。
- 同時位置特定およびマッピング(SLAM)からの点群が、前記平面領域の深度を検出するために使用される、請求項1に記載の方法。
- 前記仮想オブジェクトが2次元オブジェクトである、請求項1に記載の方法。
- 前記仮想オブジェクトが3次元オブジェクトである、請求項1に記載の方法。
- ユーザからのコマンドに基づいて、前記平面領域内の新しい位置に前記仮想オブジェクトを移動することであって、前記仮想オブジェクトが、前記平面領域の配向に対する前記仮想オブジェクトの相対配向と、前記平面領域のサイズに対する前記仮想オブジェクトの相対サイズとを移動後に同じに保つやり方で変換される、前記仮想オブジェクトを移動すること
をさらに含む、請求項1に記載の方法。 - ユーザからのコマンドに基づいて、前記平面領域内の前記仮想オブジェクトをリサイズすることであって、前記仮想オブジェクトが、前記平面領域の配向に対する前記仮想オブジェクトの相対配向と、前記仮想オブジェクトの配置位置とをリサイズ後に同じに保つやり方で変換される、前記仮想オブジェクトをリサイズすること
をさらに含む、請求項1に記載の方法。 - 前記平面領域が、平面追跡アルゴリズムを利用することによって後続のフレームにおいて追跡される、請求項1に記載の方法。
- 後のフレームにおいて前記平面領域の配向が変化することを検出することと、
前記平面領域の前記配向に対する前記仮想オブジェクトの相対配向を整合するように維持するように、前記仮想オブジェクトを変換することと
をさらに含む、請求項15に記載の方法。 - 後のフレームにおいて前記平面領域のスケールが変化することを検出することと、
前記平面領域のサイズに対する前記仮想オブジェクトの相対サイズを整合するように維持するように、前記仮想オブジェクトを変換することと
をさらに含む、請求項15に記載の方法。 - ソフトウェアを具現する1つまたは複数のコンピュータ可読非一時的記憶媒体であって、前記ソフトウェアは、実行されたとき、
物理世界シーンの画像にアクセスすることと、
アクセスされた画像における複数の直線セグメントを検出することと、
前記画像における第1の消失点および第2の消失点を識別することであって、各消失点が前記複数の直線セグメントのサブセットに対応し、前記第1の消失点と前記第2の消失点とが直交する、第1の消失点および第2の消失点を識別することと、
前記第1の消失点に関連する1つまたは複数の直線セグメントと、前記第2の消失点に関連する1つまたは複数の直線セグメントとに基づいて、前記アクセスされた画像における平面領域を識別することと、
前記平面領域に関連する1つまたは複数の特性に基づいて前記平面領域に関連する仮想オブジェクトを変換することと、
前記画像上で、変換された前記仮想オブジェクトを表示することと、
後のフレームにおいて前記第1の消失点に対応する1つまたは複数の直線セグメントを追跡することと、
変換された前記仮想オブジェクトの相対サイズを、後のフレームにおいて追跡された前記1つまたは複数の直線セグメントのサイズに維持することと
を行うように動作可能である、1つまたは複数のコンピュータ可読非一時的記憶媒体。 - 前記アクセスされた画像における前記複数の直線セグメントを検出することが、
前記アクセスされた画像におけるエッジを検出することであって、エッジは、画像輝度が不連続性を有する点のセットである、前記アクセスされた画像におけるエッジを検出することと、
前記アクセスされた画像における検出された前記エッジから非直線エッジをフィルタ処理することと
を含む、請求項18に記載の媒体。 - 1つまたは複数のプロセッサと、前記プロセッサによって実行可能な命令を備える、前記プロセッサに結合された非一時的メモリとを備えるシステムであって、前記プロセッサは、前記命令を実行したとき、
物理世界シーンの画像にアクセスすることと、
アクセスされた画像における複数の直線セグメントを検出することと、
前記画像における第1の消失点および第2の消失点を識別することであって、各消失点が前記複数の直線セグメントのサブセットに対応し、前記第1の消失点と前記第2の消失点とが直交する、第1の消失点および第2の消失点を識別することと、
前記第1の消失点に関連する1つまたは複数の直線セグメントと、前記第2の消失点に関連する1つまたは複数の直線セグメントとに基づいて、前記アクセスされた画像における平面領域を識別することと、
前記平面領域に関連する1つまたは複数の特性に基づいて前記平面領域に関連する仮想オブジェクトを変換することと、
前記画像上で、変換された前記仮想オブジェクトを表示することと、
後のフレームにおいて前記第1の消失点に対応する1つまたは複数の直線セグメントを追跡することと、
変換された前記仮想オブジェクトの相対サイズを、後のフレームにおいて追跡された前記1つまたは複数の直線セグメントのサイズに維持することと
を行うように動作可能である、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/248,654 US10878608B2 (en) | 2019-01-15 | 2019-01-15 | Identifying planes in artificial reality systems |
US16/248,654 | 2019-01-15 | ||
PCT/US2019/018538 WO2020149867A1 (en) | 2019-01-15 | 2019-02-19 | Identifying planes in artificial reality systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022520517A JP2022520517A (ja) | 2022-03-31 |
JP7282175B2 true JP7282175B2 (ja) | 2023-05-26 |
Family
ID=71516765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021530141A Active JP7282175B2 (ja) | 2019-01-15 | 2019-02-19 | 人工現実システムにおいて平面を識別すること |
Country Status (6)
Country | Link |
---|---|
US (1) | US10878608B2 (ja) |
EP (1) | EP3912141A4 (ja) |
JP (1) | JP7282175B2 (ja) |
KR (1) | KR20210104905A (ja) |
CN (1) | CN113302666A (ja) |
WO (1) | WO2020149867A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11741676B2 (en) | 2021-01-21 | 2023-08-29 | Samsung Electronics Co., Ltd. | System and method for target plane detection and space estimation |
US20230100507A1 (en) * | 2021-09-29 | 2023-03-30 | Canoo Technologies Inc. | Vanishing point determination, symmetry-based boundary refinement, and component detection for vehicle object detection or other applications |
CN117351185A (zh) * | 2022-06-29 | 2024-01-05 | 北京字跳网络技术有限公司 | 虚拟特效挂载平面检测方法、装置、设备及存储介质 |
US11935207B2 (en) * | 2022-07-06 | 2024-03-19 | Adobe Inc. | Spacing guides for objects in perspective views |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017059041A (ja) | 2015-09-17 | 2017-03-23 | 株式会社リコー | 画像処理装置、画像処理方法、およびプログラム |
JP2018200699A (ja) | 2018-07-09 | 2018-12-20 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120180084A1 (en) * | 2011-01-12 | 2012-07-12 | Futurewei Technologies, Inc. | Method and Apparatus for Video Insertion |
US8638986B2 (en) | 2011-04-20 | 2014-01-28 | Qualcomm Incorporated | Online reference patch generation and pose estimation for augmented reality |
JPWO2015145544A1 (ja) * | 2014-03-24 | 2017-04-13 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
US20150371440A1 (en) | 2014-06-19 | 2015-12-24 | Qualcomm Incorporated | Zero-baseline 3d map initialization |
WO2016028813A1 (en) | 2014-08-18 | 2016-02-25 | Groopic, Inc. | Dynamically targeted ad augmentation in video |
US20170256096A1 (en) * | 2016-03-07 | 2017-09-07 | Google Inc. | Intelligent object sizing and placement in a augmented / virtual reality environment |
CN108492284B (zh) * | 2018-03-12 | 2020-03-03 | 百度在线网络技术(北京)有限公司 | 用于确定图像的透视形状的方法和装置 |
-
2019
- 2019-01-15 US US16/248,654 patent/US10878608B2/en active Active
- 2019-02-19 WO PCT/US2019/018538 patent/WO2020149867A1/en unknown
- 2019-02-19 CN CN201980089224.5A patent/CN113302666A/zh active Pending
- 2019-02-19 JP JP2021530141A patent/JP7282175B2/ja active Active
- 2019-02-19 KR KR1020217024203A patent/KR20210104905A/ko unknown
- 2019-02-19 EP EP19910332.6A patent/EP3912141A4/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017059041A (ja) | 2015-09-17 | 2017-03-23 | 株式会社リコー | 画像処理装置、画像処理方法、およびプログラム |
JP2018200699A (ja) | 2018-07-09 | 2018-12-20 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2022520517A (ja) | 2022-03-31 |
CN113302666A (zh) | 2021-08-24 |
WO2020149867A1 (en) | 2020-07-23 |
EP3912141A4 (en) | 2022-04-06 |
US10878608B2 (en) | 2020-12-29 |
EP3912141A1 (en) | 2021-11-24 |
US20200226805A1 (en) | 2020-07-16 |
KR20210104905A (ko) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7282175B2 (ja) | 人工現実システムにおいて平面を識別すること | |
JP6458371B2 (ja) | 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム | |
US10600150B2 (en) | Utilizing an inertial measurement device to adjust orientation of panorama digital images | |
US10049490B2 (en) | Generating virtual shadows for displayable elements | |
JP2018507476A (ja) | コンピュータビジョンに関する遮蔽処理 | |
US9972131B2 (en) | Projecting a virtual image at a physical surface | |
US11922568B2 (en) | Finite aperture omni-directional stereo light transport | |
US20230037750A1 (en) | Systems and methods for generating stabilized images of a real environment in artificial reality | |
US11625862B2 (en) | Mirror reconstruction | |
US11030820B1 (en) | Systems and methods for surface detection | |
CN110313021B (zh) | 增强现实提供方法、装置以及计算机可读记录介质 | |
EP3956752B1 (en) | Semantic-augmented artificial-reality experience | |
US11210860B2 (en) | Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality | |
KR20210110164A (ko) | 전자 장치 및 전자 장치에서 깊이 맵의 재-투사 방법 | |
KR20210123994A (ko) | 전자 장치 및 페어링된 전자 장치를 이용한 객체 식별 방법 | |
CN115516517A (zh) | 用于构建三维几何图形的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7282175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |