JP6818968B2 - オーサリング装置、オーサリング方法、及びオーサリングプログラム - Google Patents
オーサリング装置、オーサリング方法、及びオーサリングプログラム Download PDFInfo
- Publication number
- JP6818968B2 JP6818968B2 JP2020558547A JP2020558547A JP6818968B2 JP 6818968 B2 JP6818968 B2 JP 6818968B2 JP 2020558547 A JP2020558547 A JP 2020558547A JP 2020558547 A JP2020558547 A JP 2020558547A JP 6818968 B2 JP6818968 B2 JP 6818968B2
- Authority
- JP
- Japan
- Prior art keywords
- plane
- authoring
- virtual object
- arrangement
- placement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 81
- 238000004364 calculation method Methods 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 32
- 238000009877 rendering Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 28
- 238000009795 derivation Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Description
《1−1》構成
《1−1−1》ハードウェア構成
図1は、実施の形態1に係るオーサリング装置1のハードウェア構成の例を示す図である。図1は、仮想オブジェクトを含むオーサリングデータに基づいてAR画像を表示する処理であるレンダリングを実行するための構成を示していない。しかし、オーサリング装置1は、カメラ又はセンサなどのような実空間の情報を取得する構成を備えてもよい。
図2は、実施の形態1に係るオーサリング装置1の構成を概略的に示す機能ブロック図である。オーサリング装置1は、実施の形態1に係るオーサリング方法を実施することができる装置である。オーサリング装置1は、仮想オブジェクトの奥行きを考慮したオーサリングを行う。
(1)実空間に存在する対象物を指定するユーザ操作を受け付け、
(2)指定された対象物である指定先の対象物に関連する基準平面上の基準点を特定し(この処理は、後述する図9(A)から(C)に示される。)、
(3)基準平面と基準点とに基づいて、基準点を含む位置に配置され、仮想オブジェクトが配置されることができる第1の配置平面を決定し(この処理は、後述する図10(A)から(C)に示される。)、
(4)第1の配置平面を回転させることで得られ、仮想オブジェクトが配置されることができる1つ以上の第2の配置平面を決定し(この処理は、後述する図14から図16に示される。)、
(5)第1の配置平面と仮想オブジェクトとを紐づけした情報及び第2の配置平面と仮想オブジェクトとを紐づけした情報とをオーサリングデータとして、例えば、ストレージ105に出力する。
図3(A)から(D)は、実施の形態1に係るオーサリング装置1のデータ取得部20によって扱われるデータ及び実空間を撮影するカメラの位置及び姿勢を示すパラメータを示す図である。カメラについては、実施の形態2で説明する。データ取得部20は、オーサリング部10がオーサリングを実行するときに用いるデータを取得する。オーサリングの実行時に用いられるデータは、3次元モデルを示す3次元モデルデータ、仮想オブジェクトを示す仮想オブジェクトデータ、及びセンサから出力されるセンサデータを含むことができる。これらのデータは、予めストレージ105に記憶されていてもよい。
3次元モデルデータは、AR画像を表示する実空間の情報を、3次元的に表すデータである。3次元モデルデータは、図3(A)から(C)に示されるデータを含むことができる。3次元モデルデータは、例えば、SLAM(Simultaneous Localization and Mapping)技術を用いて取得することができる。SLAM技術では、実空間のカラー画像(すなわち、RGB画像)と奥行き画像(すなわち、Depth画像)とを取得することができるカメラ(以下「RGBDカメラ」とも言う。)を用いて実空間を撮影することによって、3次元モデルデータを取得する。
図5は、平面状の仮想オブジェクトの例を示す図である。図6は、立体状の仮想オブジェクトの例を示す図である。仮想オブジェクトデータは、AR画像として表示される仮想オブジェクトを示す情報を格納するデータである。ここで扱われる仮想オブジェクトには、2種類の属性がある。
センサデータは、画像データ撮影時のカメラの位置及び姿勢の推定処理を支援するために用いられるデータである。センサデータは、例えば、実空間を撮影するカメラの傾きを測定するジャイロセンサから出力された傾きデータ、このカメラの加速度を測定する加速度センサから出力された加速度データ、などを含むことができる。センサデータは、カメラに付随する情報に限られず、例えば、位置情報計測システムであるGPS(Global Positioning System)によって計測された位置データを含んでもよい。
認識部30は、データ取得部20によって取得された3次元モデルデータを用いて、画像上の特定箇所に存在する平面又は対象物を認識する。認識部30は、ピンホールカメラモデルに従って、画像上の2次元位置を実空間上の3次元位置に変換し、この3次元位置を3次元モデルデータと照合することによって画像の特定箇所に存在する平面又は対象物を認識する。なお、画像上の2次元位置は、ピクセル座標によって表される。
オーサリング部10は、データ取得部20によって取得された3次元モデルデータ、仮想オブジェクトデータ、又はこれらの両方のデータを用いて、仮想オブジェクトのオーサリングを実行する。オーサリング部10は、オーサリングの結果をオーサリングデータとして出力する。オーサリング部10は、ユーザが指定した箇所、すなわち、ユーザが指定した指定先の領域、に関連する仮想オブジェクトが、指定先の領域の奥行き方向の位置に合致する奥行き方向の位置を持つように、オーサリングを実行する。図2に示されるように、オーサリング部10は、ユーザインターフェース部11と、指定先特定部12と、配置位置計算部13と、複数視点計算部14とを含む。
ユーザインターフェース部11は、オーサリングのためのユーザインターフェースを提供する。ユーザインターフェース部11は、例えば、図1に示される入力装置103、及び表示装置104、などである。ユーザインターフェース部11は、GUI(Graphical User Interface)アプリケーションを含むことができる。具体的には、ユーザインターフェース部11は、オーサリングに利用される画像又は3次元データ(例えば、3次元点群データ、平面データ、など)を表示装置104に表示させ、オーサリングに必要な、入力装置103からのユーザ操作を受け付ける。ここで、3次元データは、例えば、3次元点群データ、平面データ、などである。
指定先特定部12は、ユーザインターフェース部11によってユーザが指定した指定先から、基準点pと基準平面Spとを求める。指定先を指定する方法としては、第1の指定方法と第2の指定方法とがある。指定先特定部12は、指定先の指定方法ごとに、基準点p及び基準平面Spの導出方法として、異なる方法を用いる。
第1の指定方法では、ユーザは、GUIが表示された画像に対して、指定先とする領域を、矩形又は多角形などの直線で囲う操作を行う。直線で囲われた箇所が、指定先の領域となる。第1の指定方法で指定先が指定された場合、基準点pと基準平面Spとは、以下のように求められる。
C={c1,c2,…,cn−3}
ユーザは、GUIが表示された画像に対して、指定先とする1つの点を指定する操作を行う。第2の指定方法では、ユーザによって指定先の領域である点が指定された場合、基準点pと基準平面Spは、以下のように求められる。
配置位置計算部13は、以下に示される第1の処理13aと、第2の処理13bとを行う。
第1の導出方法では、配置位置計算部13は、基準平面Spを、そのまま配置平面Sqとして扱う。
第2の導出方法では、まず、配置位置計算部13は、3次元モデルデータから実空間における水平面Shを検出する。水平面Shは、ユーザインターフェース部11を用いるユーザのユーザ操作によって選択されてもよい。また、水平面Shは、画像認識及び空間認識技術を用いて自動的に決定されてもよい。図9(A)は、ユーザ操作によって指定された指定先の領域及び基準点pの例を示す図である。図9(B)は、基準点p及び基準平面Spの例を示す図である。図9(C)は、水平面Shの例を示す図である。
配置位置計算部13までの処理の結果、ある1方向から見た際に、指定先の領域の奥行き方向の位置と仮想オブジェクトの奥行き方向の位置とが揃えられている。図12(A)は、指定先の領域を手前から見る場合に、配置平面Sq上に表示された仮想オブジェクト#1及び#2を視認することができることを示す図である。図12(B)は、指定先の領域を上から見る場合に、配置平面Sq上に表示された仮想オブジェクト#1及び#2を視認することができないことを示す図である。
オーサリングデータは、オーサリング部10によって行われたオーサリングの結果がストレージ105に格納されたデータである。オーサリングデータには、例えば、以下の第1から第6の情報I1〜I6が含まれる。
図17は、実施の形態1に係るオーサリング装置1の動作を示すフローチャートである。まず、ステップS11において、オーサリング装置1は、ユーザ指示に従い、オーサリング部10の機能を搭載したオーサリングアプリケーションを起動する。
以上に説明したように、実施の形態1では、実空間における指定先の対象物と、その指定先の対象物に関連する仮想オブジェクトとに基づくオーサリングを実行する際に、指定先特定部12によって、ユーザの指定先から基準点pと基準平面Spを求める。このため、指定先の形状及び傾きに依存せずに、仮想オブジェクトの奥行き方向の位置を指定先の奥行き方向の位置に合致させることができる。
《2−1》構成
《2−1−1》ハードウェア構成
実施の形態1に係るオーサリング装置1は、オーサリングデータを生成し出力する装置であるが、オーサリング装置は、レンダリングを実行するための構成を備えてもよい。
図19は、実施の形態2に係るオーサリング装置2の構成を概略的に示す機能ブロック図である。図19において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号が付される。実施の形態2に係るオーサリング装置2は、画像取得部40と、表示装置104に画像データを出力するAR表示部50とを備えた点において、実施の形態1に係るオーサリング装置1と相違する。
AR表示部50は、オーサリング部10から出力された又はストレージ105に記憶されたオーサリングデータを利用して、表示装置104に仮想オブジェクトを表示させる画像データを生成するためのレンダリングを実行する。図19に示されるように、AR表示部50は、位置姿勢推定部51と、表示平面特定部52と、レンダリング部53とを備えている。
位置姿勢推定部51は、オーサリング装置2に接続されているカメラ107の位置及び姿勢を推定する。画像取得部40によってカメラ107から取得された撮像画像の画像データは、認識部30に与えられる。認識部30は、画像データを入力として受け取り、受け取った画像データに基づいて、この画像を撮影したカメラの位置及び姿勢を認識する。位置姿勢推定部51は、認識部30の認識の結果に基づいて、オーサリング装置2に接続されているカメラ107の位置及び姿勢を推定する。
実施の形態2におけるオーサリングデータには、複数視点計算部14によって、ユーザが指定した1つの指定先に対して複数の配置平面が存在する場合がある。複数の配置平面は、例えば、図14から図16に示されている配置平面Sr1,Sr2,Sr3である。表示平面特定部52は、現在のカメラ107の位置及び姿勢情報を利用して、複数の配置平面の中からレンダリングの対象となる平面を決定する。ある指定先に対応する基準点をpとし、t個(tは正の整数である。)の表示平面をS1,S2,…,Stとする。また、カメラ107の3次元位置と基準点pとによって決まるベクトルと、表示平面S1,S2,…,Stとのなす角度[°]をそれぞれθ1,θ2,…,θtとし、iを1以上t以下の整数とすると、レンダリングの対象となる平面SRは、0°<θi≦90°のときには、例えば、以下の式(3)のように求まる。カメラ107の3次元位置と基準点pとによって決まるベクトルは、例えば、カメラ107の光軸の位置と基準点pとを結ぶ方向のベクトルである。
レンダリング部53は、位置姿勢推定部51によって取得されたカメラ107の位置及び姿勢並びに表示平面特定部52によって取得された仮想オブジェクトの配置平面、配置位置の情報に基づいて、仮想オブジェクトの3次元座標を表示装置104のディスプレイ上の2次元座標に変換し、表示装置104のディスプレイにおいて、変換で得られた2次元座標に仮想オブジェクトを重畳表示する。
表示装置104は、AR画像をレンダリングするための装置である。表示装置104は、例えば、PC(Personal Computer)のディスプレイ、スマートフォンのディスプレイ、タブレット端末のディスプレイ、又はヘッドマウントディスプレイ、などである。
図20は、実施の形態2に係るオーサリング装置2の動作を示すフローチャートである。実施の形態2に係るオーサリング装置2によって実行されるオーサリングは、実施の形態1のものと同様である。
以上に説明したように、実施の形態2では、仮想オブジェクトの対象となる指定先とそれに関連する仮想オブジェクトをレンダリングする際に、オーサリング部10によって出力されたオーサリングデータに基づいたレンダリングを行う。このため、指定先の形状又は傾きに依存せずに、仮想オブジェクトの奥行き方向の位置を指定先の奥行き方向の位置に合致させるレンダリングが可能となる。
Claims (8)
- 実空間に存在する対象物を指定する操作を受け付けるユーザインターフェース部と、
前記ユーザインターフェース部によって指定された前記対象物である指定先の対象物に関連する基準平面上の基準点を特定する指定先特定部と、
前記基準平面と前記基準点とに基づいて、前記基準点を含む位置に配置され、仮想オブジェクトが配置されることができる第1の配置平面を決定する配置位置計算部と、
前記第1の配置平面を回転させることで得られ、前記仮想オブジェクトが配置されることができる1つ以上の第2の配置平面を決定する複数視点計算部と、
を備え、
前記第1の配置平面と前記仮想オブジェクトとを紐づけした情報及び前記第2の配置平面と前記仮想オブジェクトとを紐づけした情報とをオーサリングデータとして出力する
ことを特徴とするオーサリング装置。 - 前記ユーザインターフェース部による前記操作は、nを3以上の整数とした場合に、前記指定先の対象物を示す領域をn角形で囲う操作であることを特徴とする請求項1に記載のオーサリング装置。
- 前記指定先特定部は、
前記n角形の頂点のうちの3つの頂点を含む平面のうちの1つを前記基準平面とし、
前記n角形の重心位置と前記基準平面とに基づいて前記基準点を決定する
ことを特徴とする請求項2に記載のオーサリング装置。 - 前記複数視点計算部は、前記基準点を含む軸線を中心に前記第1の配置平面を回転させることで前記1つ以上の第2の配置平面を決定することを特徴とする請求項1から3のいずれか1項に記載のオーサリング装置。
- 実空間を撮影するカメラから出力される画像データから前記カメラの位置及び姿勢を推定する位置姿勢推定部と、
推定された前記カメラの前記位置及び前記姿勢と前記オーサリングデータとに基づいて、前記仮想オブジェクトが配置される表示平面を、前記第1の配置平面及び前記1つ以上の第2の配置平面の中から選択する表示平面特定部と、
前記画像データと前記表示平面上に配置された前記仮想オブジェクトとに基づく表示画像データを出力するレンダリング部と、
をさらに備えたことを特徴とする請求項1から4のいずれか1項に記載のオーサリング装置。 - 前記表示平面特定部は、前記第1の配置平面及び前記1つ以上の第2の配置平面のうちの、前記カメラの位置と前記基準点とによって決まるベクトルと前記第1の配置平面とのなす角度及び前記ベクトルと前記1つ以上の第2の配置平面とのなす角度が最も90°に近い配置平面を、前記仮想オブジェクトが表示される表示平面として選択することを特徴とする請求項5に記載のオーサリング装置。
- 実空間に存在する対象物を指定する操作を受け付けるステップと、
指定された前記対象物である指定先の対象物に関連する基準平面上の基準点を特定するステップと、
前記基準平面と前記基準点とに基づいて、前記基準点を含む位置に配置され、仮想オブジェクトが配置されることができる第1の配置平面を決定するステップと、
前記第1の配置平面を回転させることで得られ、前記仮想オブジェクトが配置されることができる1つ以上の第2の配置平面を決定するステップと、
前記第1の配置平面と前記仮想オブジェクトとを紐づけした情報及び前記第2の配置平面と前記仮想オブジェクトとを紐づけした情報とをオーサリングデータとして出力するステップと、
を有することを特徴とするオーサリング方法。 - 実空間に存在する対象物を指定する操作を受け付ける処理と、
指定された前記対象物である指定先の対象物に関連する基準平面上の基準点を特定する処理と、
前記基準平面と前記基準点とに基づいて、前記基準点を含む位置に配置され、仮想オブジェクトが配置されることができる第1の配置平面を決定する処理と、
前記第1の配置平面を回転させることで得られ、前記仮想オブジェクトが配置されることができる1つ以上の第2の配置平面を決定する処理と、
前記第1の配置平面と前記仮想オブジェクトとを紐づけした情報及び前記第2の配置平面と前記仮想オブジェクトとを紐づけした情報とをオーサリングデータとして出力する処理と、
をコンピュータに実行させることを特徴とするオーサリングプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/000687 WO2020144848A1 (ja) | 2019-01-11 | 2019-01-11 | オーサリング装置、オーサリング方法、及びオーサリングプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6818968B2 true JP6818968B2 (ja) | 2021-01-27 |
JPWO2020144848A1 JPWO2020144848A1 (ja) | 2021-02-18 |
Family
ID=71521116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020558547A Active JP6818968B2 (ja) | 2019-01-11 | 2019-01-11 | オーサリング装置、オーサリング方法、及びオーサリングプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210327160A1 (ja) |
JP (1) | JP6818968B2 (ja) |
CN (1) | CN113228117A (ja) |
DE (1) | DE112019006107T5 (ja) |
TW (1) | TW202026861A (ja) |
WO (1) | WO2020144848A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022219780A1 (ja) * | 2021-04-15 | 2022-10-20 | 三菱電機株式会社 | 点検支援装置、点検支援システム、点検支援方法、及び点検支援プログラム |
US20240005579A1 (en) * | 2022-06-30 | 2024-01-04 | Microsoft Technology Licensing, Llc | Representing two dimensional representations as three-dimensional avatars |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5674441B2 (ja) * | 2010-12-02 | 2015-02-25 | 新日鉄住金ソリューションズ株式会社 | 情報処理システム、その制御方法及びプログラム |
JP5799521B2 (ja) * | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
US8638986B2 (en) * | 2011-04-20 | 2014-01-28 | Qualcomm Incorporated | Online reference patch generation and pose estimation for augmented reality |
JP2013008257A (ja) * | 2011-06-27 | 2013-01-10 | Celsys:Kk | 画像合成プログラム |
WO2014119098A1 (ja) * | 2013-02-01 | 2014-08-07 | ソニー株式会社 | 情報処理装置、端末装置、情報処理方法及びプログラム |
GB2522855A (en) * | 2014-02-05 | 2015-08-12 | Royal College Of Art | Three dimensional image generation |
US9830700B2 (en) * | 2014-02-18 | 2017-11-28 | Judy Yee | Enhanced computed-tomography colonography |
KR20150133585A (ko) * | 2014-05-20 | 2015-11-30 | 삼성전자주식회사 | 3차원 영상의 단면 탐색 시스템 및 방법 |
US10304248B2 (en) * | 2014-06-26 | 2019-05-28 | Korea Advanced Institute Of Science And Technology | Apparatus and method for providing augmented reality interaction service |
JP6476657B2 (ja) * | 2014-08-27 | 2019-03-06 | 株式会社リコー | 画像処理装置、画像処理方法、およびプログラム |
US10740971B2 (en) * | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
JP6491574B2 (ja) * | 2015-08-31 | 2019-03-27 | Kddi株式会社 | Ar情報表示装置 |
US11221750B2 (en) * | 2016-02-12 | 2022-01-11 | Purdue Research Foundation | Manipulating 3D virtual objects using hand-held controllers |
JP2018084886A (ja) * | 2016-11-22 | 2018-05-31 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム |
US20200015904A1 (en) * | 2018-07-16 | 2020-01-16 | Ethicon Llc | Surgical visualization controls |
-
2019
- 2019-01-11 WO PCT/JP2019/000687 patent/WO2020144848A1/ja active Application Filing
- 2019-01-11 DE DE112019006107.0T patent/DE112019006107T5/de active Pending
- 2019-01-11 JP JP2020558547A patent/JP6818968B2/ja active Active
- 2019-01-11 CN CN201980086529.0A patent/CN113228117A/zh active Pending
- 2019-04-10 TW TW108112464A patent/TW202026861A/zh unknown
-
2021
- 2021-06-28 US US17/360,900 patent/US20210327160A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20210327160A1 (en) | 2021-10-21 |
DE112019006107T5 (de) | 2021-11-18 |
CN113228117A (zh) | 2021-08-06 |
JPWO2020144848A1 (ja) | 2021-02-18 |
TW202026861A (zh) | 2020-07-16 |
WO2020144848A1 (ja) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102222974B1 (ko) | 홀로그램 스냅 그리드 | |
JP5799521B2 (ja) | 情報処理装置、オーサリング方法及びプログラム | |
US9639988B2 (en) | Information processing apparatus and computer program product for processing a virtual object | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
JP5920352B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20170132806A1 (en) | System and method for augmented reality and virtual reality applications | |
TWI544447B (zh) | 擴增實境的方法及系統 | |
US10037614B2 (en) | Minimizing variations in camera height to estimate distance to objects | |
US20180225837A1 (en) | Scenario extraction method, object locating method and system thereof | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
JP6609640B2 (ja) | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 | |
JP2011095797A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6310149B2 (ja) | 画像生成装置、画像生成システム及び画像生成方法 | |
JP7162079B2 (ja) | 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体 | |
US9672588B1 (en) | Approaches for customizing map views | |
CN115039166A (zh) | 增强现实地图管理 | |
JP2009278456A (ja) | 映像表示装置 | |
US20210327160A1 (en) | Authoring device, authoring method, and storage medium storing authoring program | |
JP2021136017A (ja) | 仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム | |
US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
KR20190048810A (ko) | 증강현실용 컨텐츠 제공 장치 및 방법 | |
CN109710054B (zh) | 用于头戴式显示设备的虚拟物体呈现方法和装置 | |
CN115578432A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
JP6581348B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2019066196A (ja) | 傾き測定装置及び傾き測定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201019 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201019 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6818968 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |