JP5799521B2 - 情報処理装置、オーサリング方法及びプログラム - Google Patents
情報処理装置、オーサリング方法及びプログラム Download PDFInfo
- Publication number
- JP5799521B2 JP5799521B2 JP2011030006A JP2011030006A JP5799521B2 JP 5799521 B2 JP5799521 B2 JP 5799521B2 JP 2011030006 A JP2011030006 A JP 2011030006A JP 2011030006 A JP2011030006 A JP 2011030006A JP 5799521 B2 JP5799521 B2 JP 5799521B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- user
- unit
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.一実施形態に係る情報処理装置の概要
2.ハードウェア構成例
3.データ構成例
3−1.モデルデータ
3−2.仮想オブジェクトデータ
4.機能構成例
4−1.画像取得部
4−2.データ取得部
4−3.画像認識部
4−4.ユーザインタフェース部
4−5.オーサリング部
4−6.計算部
5.インスタンスデータの生成
6.作業シナリオ
7.まとめ
まず、図1及び図2を参照しながら、本発明の一実施形態に係る情報処理装置の概要を説明する。図1を参照すると、一例としての情報処理装置100が示されている。情報処理装置100は、ARコンテンツをオーサリングするユーザが使用する装置である。図1では、情報処理装置100の一例として、PC(Personal Computer)が示されている。しかしながら、情報処理装置100は、スマートフォン、PDA(Personal Digital Assistant)、ゲーム端末又はワークステーションなどの他の種類の装置であってもよい。
図3は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示すブロック図である。図3を参照すると、情報処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部112、接続ポート114、バス116及び制御部118を備える。
撮像部102は、図1に例示した撮像装置102に相当するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間1を撮像することにより、撮像画像を生成する。
センサ部104は、情報処理装置100の位置及び姿勢(撮像部102の位置及び姿勢)の認識を支援するセンサ群である。例えば、センサ部104は、GPS(Global Positioning System)信号を受信して情報処理装置100の緯度、経度及び高度を測定するGPSセンサを含んでもよい。また、センサ部104は、無線アクセスポイントから受信される無線信号の強度に基づいて情報処理装置100の位置を測定する測位センサを含んでもよい。また、センサ部104は、情報処理装置100の傾き角を測定するジャイロセンサ、3軸加速度を測定する加速度センサ、又は方位を測定する地磁気センサを含んでもよい。なお、情報処理装置100が画像認識に基づく位置推定機能及び姿勢推定機能を有する場合には、センサ部104は情報処理装置100の構成から省略されてもよい。
入力部106は、ユーザが情報処理装置100を操作し又は情報処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、キーボード、キーパッド、マウス、ボタン、スイッチ又はタッチパネルなどを含み得る。入力部106は、入力画像に映るユーザのジェスチャを認識するジェスチャ認識モジュールを含んでもよい。また、入力部106は、HMD(Head Mounted Display)を装着したユーザの視線方向をユーザ入力として検出する視線検出モジュールを含んでもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体を用いて、情報処理装置100による処理のためのプログラム及びデータを記憶する。例えば、記憶部108は、撮像部102から出力される画像データ及びセンサ部104から出力されるセンサデータを記憶する。また、記憶部108は、オーサリングのために使用されるモデルデータ及び仮想オブジェクトデータを記憶する。さらに記憶部108は、オーサリングの結果として生成されるインスタンスデータを記憶する。
表示部112は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成される表示モジュールである。表示部112の画面上には、情報処理装置100により提供されるARコンテンツのオーサリングのためのユーザインタフェースが表示される。表示部112は、情報処理装置100の一部であってもよく、又は情報処理装置100とは別体に構成されてもよい。また、表示部112は、ユーザにより装着されるHMDであってもよい。
接続ポート114は、情報処理装置100を周辺機器又はネットワークと接続するためのポートである。例えば、接続ポート114には、追加的な記憶媒体としてのリムーバブルメディアが接続されてもよい。また、接続ポート114には、有線又は無線通信インタフェースが接続されてもよい。それにより、例えば情報処理装置100がネットワーク上のサーバから画像を取得することが可能となる。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部112、接続ポート114及び制御部118を相互に接続する。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する情報処理装置100の様々な機能を動作させる。
次に、図4〜図12を参照しながら、本実施形態において情報処理装置100により使用されるモデルデータ及び仮想オブジェクトデータについて説明する。
モデルデータは、実空間内の1つ以上の物体の各々の外観の特徴を表すデータである。モデルデータは、入力画像に映る物体を認識するために用いられる。また、入力画像に映る物体の位置及び姿勢、又は撮像装置(若しくは情報処理装置100)の位置及び姿勢も、モデルデータを用いて認識され得る。モデルデータは、さらに2種類のデータに分けられる。第1の種類のモデルデータは、各物体の外観を表すデータに加えて各物体の位置を表す位置データを含む実空間モデルである。即ち、実空間モデルは、モデル化された実空間のマップに相当する。第2の種類のモデルデータは、位置と関連付けられない物体の外観の特徴を表す物体モデルである。情報処理装置100は、実空間モデル及び物体モデルの少なくとも一方を使用する。
図4は、実空間モデルの概要について説明するための説明図である。図4を参照すると、実空間1内の5つの物体B1〜B5が示されている。物体B1、B3、B4及びB5は、実空間1内に存在する建物(のモデル)である。物体B2は、実空間1内に存在する看板(のモデル)である。各物体は、実空間1においてグローバル座標系X(x、y、z)で表現され得る固有の位置にそれぞれ位置する。
図6は、物体モデルの概要について説明するための説明図である。図6を参照すると、実空間1内に存在し得る物体B8が示されている。例えば、物体B8は、自動車(のモデル)である。物体B8は、固有のローカル座標系を有し、物体B8の外観はそのローカル座標系を用いてポリゴンの集合として定義される。例えば、物体B8は、面F81、F82及びF83、並びに図示されていない他の面を有する。これら面の頂点の座標は、ローカル座標系X´で表現される。また、各面は、当該面が属する物体の外側を向いた法線を有する。例えば、法線n81は、面F81の法線である。法線n82は、面F82の法線である。法線n83は、面F83の法線である
仮想オブジェクトデータは、仮想オブジェクトの形状の特徴及び当該仮想オブジェクトの構成要素の属性を表すデータである。図8〜図11は、仮想オブジェクトの4つの例を示している。
図13は、図3に示した情報処理装置100の制御部118により実現される機能の構成の一例を示すブロック図である。図13を参照すると、制御部118は、画像取得部120、データ取得部130、画像認識部140、ユーザインタフェース部150、オーサリング部160及び計算部170を含む。
画像取得部120は、撮像部102(又は他の撮像装置)を用いて撮像された実空間を映す入力画像を取得する。入力画像は、仮想オブジェクトが配置される実空間内の場所又は物体が映された画像である。画像取得部120は、取得した入力画像を、画像認識部140及びユーザインタフェース部150へ出力する。
データ取得部130は、情報処理装置100におけるオーサリングのために使用されるデータを取得する。データ取得部130により取得されるデータは、上述したモデルデータ(実空間モデル及び物体モデルの一方又は双方)並びに仮想オブジェクトデータを含む。データ取得部130は、モデルデータを画像認識部140へ出力する。また、データ取得部130は、仮想オブジェクトデータをオーサリング部160へ出力する。さらに、センサ部104により測定されたセンサデータもまた、データ取得部130により取得され得る。
画像認識部140は、データ取得部130から入力されるモデルデータを入力画像と照合することにより、入力画像に映る物体を認識する。より具体的には、例えば、画像認識部140は、FAST特徴検出法(FAST feature detection)などの任意の公知の手法に従って、入力画像内の特徴点を抽出する。そして、画像認識部140は、抽出された特徴点をモデルデータに含まれる物体の頂点と照合する。その結果、画像認識部140は、入力画像にどの物体が映っているか、及び認識された各物体がどの位置にどのような姿勢で映っているかを認識する。認識された物体が実空間モデルに含まれる物体である場合には、当該物体の3次元位置及び姿勢は、実空間モデルにおいて示されている。認識された物体が物体モデルに含まれる物体である場合には、当該物体の3次元位置及び姿勢は、当該物体の頂点群の撮像面上での2次元位置をピンホールモデルに従って実空間内の3次元位置に変換することにより求められ得る(例えば、特開2008−304268号公報参照)。
ユーザインタフェース部150は、後に説明するオーサリング部160による制御の下、オーサリングのためのユーザインタフェースをユーザに提供する。ユーザインタフェース部150により提供されるユーザインタフェースは、典型的には、入力部106及び表示部112を用いて実現されるGUI(Graphical User Interface)である。より具体的には、ユーザインタフェース部150は、画像取得部120から入力される入力画像を表示するオーサリング画面を、表示部112を用いて表示する。
オーサリング部160は、ユーザインタフェース部150により提供されるユーザインタフェースを介したARコンテンツのオーサリングを制御する。オーサリング部160は、入力画像に映る物体の3次元位置及び姿勢、並びに情報処理装置100の位置及び姿勢を画像認識部140から取得する。また、オーサリング部160は、図12に例示した仮想オブジェクトデータをデータ取得部130から取得する。そして、オーサリング部160は、上述したオーサリング画面をユーザインタフェース部150に表示させる。その後、オーサリング部160は、オーサリング画面上で指定されるパラメータに基づいて、AR空間内での仮想オブジェクトの3次元位置及び姿勢を、計算部170に計算させる。そして、オーサリング部160は、計算された仮想オブジェクトの3次元位置及び姿勢を記憶部108又はその他の記憶媒体に記憶させる。
計算部170は、オーサリング部160による制御の下、オーサリング画面上で指定されるパラメータを用いて、仮想オブジェクトのインスタンスの3次元位置及び姿勢を決定するための計算処理を行う。
実空間のグローバル座標系X(AR空間の座標系でもある)と1つの仮想オブジェクトのローカル座標系X´との間の関係は、次の関係式(1)により表される。
被コンタクト面のIDは、図14に例示したオーサリング画面SC1の入力画像エリアSA1に映る被コンタクト面をユーザが(クリック又はタップなどの操作により)指定することで特定される。なお、画像認識部140による画像認識の結果として、オーサリング部160は、入力画像内で他の面の背後に隠れた面の位置も知得している。そこで、オーサリング部160は、入力画像エリアSA1において他の面の背後に位置する面を透過又は枠線の強調表示などの手法で表示させ、当該背後の面をユーザにより指定可能としてもよい。
コンタクト位置Yもまた、基準点を配置したい場所を入力画像エリアSA1においてユーザが指定することで特定される。単一のユーザ入力で、被コンタクト面及びコンタクト位置が同時に指定されてもよい。
基準線配置ベクトルaは、入力画像エリアSA1において2点(ベクトルの始点及び終点)をユーザが指定することで特定される。単一のユーザ入力で、コンタクト位置Y及び基準線配置ベクトルaの始点が同時に指定されてもよい。計算部170は、上述したコンタクト位置Yと同様の手法で、ユーザにより指定される2つの2次元位置から、基準線配置ベクトルaの始点及び終点のグローバル座標系での3次元位置をそれぞれ計算することができる。
本実施形態において、AR空間への仮想オブジェクトのより柔軟な配置を可能とするために、オーサリング部160は、以下に述べる追加的なパラメータをユーザにより指定可能とする。
図16は、本実施形態に係る計算部170による位置・姿勢計算処理の流れの一例を示すフローチャートである。
オーサリング部160は、仮想オブジェクトのインスタンスのAR空間内の3次元位置及び姿勢が計算されると、計算された3次元位置及び姿勢に従って、オーサリング画面に表示される入力画像に当該インスタンスを重畳する。インスタンスが重畳される画面上での位置は、上述したピンホールモデルの関係式(6)に基づく射影変換により、インスタンスの3次元位置及び姿勢から算出され得る。そして、画面を確認したユーザからデータの保存の指示が与えられると、オーサリング部160は、インスタンスの3次元位置及び姿勢を表すインスタンスデータを記憶媒体に記憶させる。
次に、本実施形態において提供されるユーザインタフェースを用いたオーサリング作業の5つの例示的なシナリオを説明する。
第1のシナリオでは、ユーザは、仮想オブジェクトを選択した後、当該仮想オブジェクトのインスタンスの基準点の位置に対応する指定位置のみをオーサリング画面上で指定する。
第2のシナリオでは、ユーザは、被コンタクト面とコンタクト位置とを別々に指定する。また、生成されるインスタンスデータの「座標タイプ」は「ローカル」である。
第3のシナリオでは、ユーザは、被コンタクト面及びコンタクト位置を同時に指定し、さらに基準線配置ベクトルをオーサリング画面上で指定する。
第4のシナリオでは、ユーザは、第3のシナリオのように基準線配置ベクトルを指定した後、さらにオフセットをオーサリング画面上で指定する。
第5のシナリオでは、ユーザは、2つの被コンタクト面を指定する。
なお、仮想オブジェクトのインスタンスのサイズもまた、上述したオーサリング画面上で変更可能であってよい。仮想オブジェクトのインスタンスのサイズは、例えば、オーサリング画面上でのユーザのドラッグなどの操作により変更され得る。その代わりに、例えば、計算部170は、被コンタクト面のサイズに合わせて、仮想オブジェクトのインスタンスのサイズを拡大又は縮小してもよい。図28の例では、物体B2の被コンタクト面F21のコンタクト位置P1に配置された仮想オブジェクトV1のインスタンスのサイズが、被コンタクト面F21のサイズに合わせて自動的に拡大されている。オーサリング部160は、このように変更されるインスタンスのサイズの倍率(又はサイズそのもの)を、インスタンスデータに含めてもよい。
ここまで、図1〜図28を用いて、本発明の一実施形態について詳細に説明した。本実施形態によれば、実空間を映す入力画像が表示されるオーサリング画面がユーザに提供される。そして、ユーザは、当該オーサリング画面上で、仮想オブジェクトを配置したい位置を指定する。情報処理装置100は、仮想オブジェクトのAR空間内での3次元位置をユーザに指定された上記指定位置から計算し、計算された3次元位置を上記仮想オブジェクトと関連付けて記憶媒体に記憶させる。従って、ユーザは、上記オーサリング画面に表示される入力画像を見ながら、簡易な操作で仮想オブジェクトをAR空間内の所望の位置に配置することができる。それにより、専門知識を有しない一般のユーザでも容易にARコンテンツをオーサリングすることが可能となる。また、ユーザ自身が複雑な座標変換などの計算を行わなくてよく、画面の表示を確認しながら仮想オブジェクトを配置できるため、仮想オブジェクトの配置のミスも防止される。
100 情報処理装置
102 撮像装置(撮像部)
112 表示装置(表示部)
120 画像取得部
130 データ取得部
140 画像認識部
150 ユーザインタフェース部
160 オーサリング部
170 計算部
Claims (11)
- 撮像装置を用いて撮像された実空間を映す入力画像を取得する画像取得部と、
前記入力画像を表示装置の画面上に表示させ、前記画面上でユーザにより指定されるカメラ座標系での指定位置を検出するユーザインタフェース部と、
前記ユーザインタフェース部により検出される前記指定位置における座標を、前記カメラ座標系から拡張現実空間を表現する実空間モデルにおいて固定のグローバル座標系に変換することにより、仮想オブジェクトの前記実空間モデルに対応付けられた拡張現実空間内での3次元位置を決定する計算部と、
前記計算部により計算される前記仮想オブジェクトの前記グローバル座標系における前記3次元位置を前記仮想オブジェクトと関連付けて記憶媒体に記憶させるオーサリング部と、
を備える情報処理装置。 - 前記ユーザインタフェース部は、前記入力画像に映る物体のいずれかの面を第1の面として前記ユーザに指定させ、
前記計算部により計算される前記3次元位置は、前記拡張現実空間内の前記第1の面を包含する平面上の、前記指定位置に対応する位置である、
請求項1に記載の情報処理装置。 - 前記ユーザインタフェース部は、前記画面上で前記ユーザにベクトルをさらに指定させ、
前記計算部は、指定される前記ベクトルを用いて、前記仮想オブジェクトの前記拡張現実空間内での姿勢をさらに計算し、
前記オーサリング部は、前記計算部により計算される前記仮想オブジェクトの前記姿勢を前記記憶媒体にさらに記憶させる、
請求項2に記載の情報処理装置。 - 前記計算部は、前記仮想オブジェクトが表示される際に前記仮想オブジェクトの少なくとも1つの面の法線が前記第1の面の法線と平行となるように、前記仮想オブジェクトの前記拡張現実空間内での姿勢を計算する、請求項3に記載の情報処理装置。
- 前記ユーザインタフェース部は、前記仮想オブジェクトの前記少なくとも1つの面と前記第1の面を包含する前記平面との間の距離を前記ユーザにさらに指定させ、
前記計算部は、前記距離がゼロでない場合には、前記仮想オブジェクトの前記3次元位置を前記距離に応じてオフセットする、
請求項4に記載の情報処理装置。 - 前記ユーザインタフェース部は、前記画面上で前記ユーザにより指定される2つの指定位置を検出し、
前記計算部は、前記2つの指定位置にそれぞれ対応する前記入力画像に映る物体の面が前記仮想オブジェクトの2つの面に接するように、前記仮想オブジェクトの前記拡張現実空間内での前記3次元位置及び姿勢を計算し、
前記オーサリング部は、前記計算部により計算される前記仮想オブジェクトの前記3次元位置及び前記姿勢を前記記憶媒体に記憶させる、
請求項2に記載の情報処理装置。 - 前記ユーザインタフェース部は、前記仮想オブジェクトと関連付けられる前記実空間内の物体を前記ユーザに指定させ、
前記3次元位置は、前記ユーザにより指定される前記物体からの相対位置として記憶される、
請求項1に記載の情報処理装置。 - 前記情報処理装置は、
前記実空間内の1つ以上の物体の各々の外観の特徴を表すモデルデータを取得するデータ取得部と、
前記モデルデータと前記入力画像とを照合することにより、前記入力画像に映る各物体の前記実空間内での位置及び姿勢を認識する認識部と、
をさらに備える、
請求項2に記載の情報処理装置。 - 前記計算部は、前記第1の面の前記実空間内でのサイズに応じて、前記仮想オブジェクトが表示される際の前記仮想オブジェクトの前記拡張現実空間内でのサイズをさらに計算する、請求項2に記載の情報処理装置。
- 撮像装置を用いて撮像された実空間を映す入力画像を取得するステップと、
前記入力画像を表示装置の画面上に表示するステップと、
前記画面上でユーザにより指定されるカメラ座標系での指定位置を検出するステップと、
前記指定位置における座標を、前記カメラ座標系から拡張現実空間を表現する実空間モデルにおいて固定のグローバル座標系に変換することにより、仮想オブジェクトの前記実空間モデルに対応付けられた拡張現実空間内での3次元位置を決定するステップと、
計算された前記仮想オブジェクトの前記グローバル座標系における前記3次元位置を前記仮想オブジェクトと関連付けて記憶媒体に記憶させるステップと、
を含むオーサリング方法。 - 表示装置と接続される情報処理装置を制御するコンピュータを、
撮像装置を用いて撮像された実空間を映す入力画像を取得する画像取得部と、
前記入力画像を前記表示装置の画面上に表示させ、前記画面上でユーザにより指定されるカメラ座標系での指定位置を検出するユーザインタフェース部と、
前記ユーザインタフェース部により検出される前記指定位置における座標を、前記カメラ座標系から拡張現実空間を表現する実空間モデルにおいて固定のグローバル座標系に変換することにより、仮想オブジェクトの前記実空間モデルに対応付けられた拡張現実空間内での3次元位置を決定する計算部と、
前記計算部により計算される前記仮想オブジェクトの前記グローバル座標系における前記3次元位置を前記仮想オブジェクトと関連付けて記憶媒体に記憶させるオーサリング部と、
として機能させるためのプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011030006A JP5799521B2 (ja) | 2011-02-15 | 2011-02-15 | 情報処理装置、オーサリング方法及びプログラム |
EP12153989A EP2490182A1 (en) | 2011-02-15 | 2012-02-06 | authoring of augmented reality |
EP20150854.6A EP3664040A1 (en) | 2011-02-15 | 2012-02-06 | Information processing device, authoring method, and program |
CN201210027593.1A CN102708355B (zh) | 2011-02-15 | 2012-02-08 | 信息处理装置、信息处理方法 |
US13/368,867 US8850337B2 (en) | 2011-02-15 | 2012-02-08 | Information processing device, authoring method, and program |
US14/466,433 US9996982B2 (en) | 2011-02-15 | 2014-08-22 | Information processing device, authoring method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011030006A JP5799521B2 (ja) | 2011-02-15 | 2011-02-15 | 情報処理装置、オーサリング方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012168798A JP2012168798A (ja) | 2012-09-06 |
JP5799521B2 true JP5799521B2 (ja) | 2015-10-28 |
Family
ID=45655372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011030006A Active JP5799521B2 (ja) | 2011-02-15 | 2011-02-15 | 情報処理装置、オーサリング方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (2) | US8850337B2 (ja) |
EP (2) | EP2490182A1 (ja) |
JP (1) | JP5799521B2 (ja) |
CN (1) | CN102708355B (ja) |
Families Citing this family (96)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101036280B1 (ko) * | 2010-01-26 | 2011-05-23 | 광주과학기술원 | 수동 조작 도구를 이용한 3차원 메뉴 시스템 |
US8627508B2 (en) * | 2011-06-17 | 2014-01-07 | Microsoft Corporation | Cloud key directory for federating data exchanges |
US8891772B2 (en) | 2011-06-17 | 2014-11-18 | Microsoft Corporation | Cloud key escrow system |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US9153195B2 (en) | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
WO2013028908A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Touch and social cues as inputs into a computer |
KR101533320B1 (ko) * | 2012-04-23 | 2015-07-03 | 주식회사 브이터치 | 포인터가 불필요한 3차원 객체 정보 획득 장치 |
US9767720B2 (en) * | 2012-06-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Object-centric mixed reality space |
US9576397B2 (en) | 2012-09-10 | 2017-02-21 | Blackberry Limited | Reducing latency in an augmented-reality display |
EP2706508B1 (en) * | 2012-09-10 | 2019-08-28 | BlackBerry Limited | Reducing latency in an augmented-reality display |
US20140123507A1 (en) | 2012-11-02 | 2014-05-08 | Qualcomm Incorporated | Reference coordinate system determination |
KR101984915B1 (ko) * | 2012-12-03 | 2019-09-03 | 삼성전자주식회사 | 증강 현실 컨텐츠 운용 방법 및 이를 지원하는 단말기와 시스템 |
US20140192182A1 (en) * | 2013-01-10 | 2014-07-10 | General Electric Company | Method for viewing virtual objects within an appliance |
EP2958079A4 (en) * | 2013-02-14 | 2016-10-19 | Manin Company Construcciones En Acero Inoxidable S L U | METHOD FOR PRESENTING GEOGRAPHIC VIRTUAL ENVIRONMENTS AND MOBILE DEVICE THEREFOR |
US20140278053A1 (en) * | 2013-03-14 | 2014-09-18 | Samsung Electronics Co., Ltd. | Navigation system with dynamic update mechanism and method of operation thereof |
JP2014191718A (ja) * | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
JP5790692B2 (ja) | 2013-03-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法および記録媒体 |
CN103150658B (zh) * | 2013-04-02 | 2016-05-18 | 武汉友睿科技有限公司 | 一种面向终端用户的现实增强定制系统及方法 |
JP6255706B2 (ja) | 2013-04-22 | 2018-01-10 | 富士通株式会社 | 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム |
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
JP6245837B2 (ja) * | 2013-04-30 | 2017-12-13 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
GB201310360D0 (en) | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-Mountable apparatus and systems |
JP6171671B2 (ja) * | 2013-07-24 | 2017-08-02 | 富士通株式会社 | 情報処理装置、位置指定方法および位置指定プログラム |
US20150042678A1 (en) * | 2013-08-09 | 2015-02-12 | Metaio Gmbh | Method for visually augmenting a real object with a computer-generated image |
US9776364B2 (en) | 2013-08-09 | 2017-10-03 | Apple Inc. | Method for instructing a 3D printing system comprising a 3D printer and 3D printing system |
JP6314394B2 (ja) | 2013-09-13 | 2018-04-25 | 富士通株式会社 | 情報処理装置、設定方法、設定プログラム、システムおよび管理装置 |
US9607437B2 (en) * | 2013-10-04 | 2017-03-28 | Qualcomm Incorporated | Generating augmented reality content for unknown objects |
JP6110780B2 (ja) * | 2013-12-05 | 2017-04-05 | 株式会社ジオ技術研究所 | 付加情報表示システム |
JP6402443B2 (ja) * | 2013-12-18 | 2018-10-10 | 富士通株式会社 | 制御プログラム、制御装置及び制御システム |
US20150185825A1 (en) * | 2013-12-30 | 2015-07-02 | Daqri, Llc | Assigning a virtual user interface to a physical object |
US20150206343A1 (en) * | 2014-01-17 | 2015-07-23 | Nokia Corporation | Method and apparatus for evaluating environmental structures for in-situ content augmentation |
JP6244954B2 (ja) | 2014-02-06 | 2017-12-13 | 富士通株式会社 | 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム |
JP6217437B2 (ja) * | 2014-02-14 | 2017-10-25 | 富士通株式会社 | 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム |
WO2015141214A1 (ja) * | 2014-03-17 | 2015-09-24 | パナソニックIpマネジメント株式会社 | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 |
JP2015184778A (ja) * | 2014-03-20 | 2015-10-22 | コニカミノルタ株式会社 | 拡張現実表示システム、拡張現実情報生成装置、拡張現実表示装置、サーバー、拡張現実情報生成プログラム、拡張現実表示プログラムおよび拡張現実情報のデータ構造 |
JP6265027B2 (ja) * | 2014-04-22 | 2018-01-24 | 富士通株式会社 | 表示装置、位置特定プログラム、および位置特定方法 |
US10600245B1 (en) | 2014-05-28 | 2020-03-24 | Lucasfilm Entertainment Company Ltd. | Navigating a virtual environment of a media content item |
CN112651288B (zh) * | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
JP6488591B2 (ja) * | 2014-08-27 | 2019-03-27 | 株式会社リコー | 画像処理装置、画像処理方法、及びプログラム |
JP6417797B2 (ja) * | 2014-09-03 | 2018-11-07 | 株式会社リコー | 情報端末装置、情報処理方法、システムおよびプログラム |
US9892560B2 (en) | 2014-09-11 | 2018-02-13 | Nant Holdings Ip, Llc | Marker-based augmented reality authoring tools |
US9734634B1 (en) * | 2014-09-26 | 2017-08-15 | A9.Com, Inc. | Augmented reality product preview |
WO2016103521A1 (ja) * | 2014-12-26 | 2016-06-30 | 株式会社ニコン | 検出装置およびプログラム |
US9836895B1 (en) * | 2015-06-19 | 2017-12-05 | Waymo Llc | Simulating virtual objects |
CN106558103A (zh) * | 2015-09-24 | 2017-04-05 | 鸿富锦精密工业(深圳)有限公司 | 扩增实境图像处理系统及扩增实境图像处理方法 |
US10152825B2 (en) * | 2015-10-16 | 2018-12-11 | Fyusion, Inc. | Augmenting multi-view image data with synthetic objects using IMU and image data |
CN105608745B (zh) * | 2015-12-21 | 2019-01-29 | 大连新锐天地文化科技有限公司 | 应用于图像或视频的ar显示系统 |
CN108701237B (zh) * | 2016-01-15 | 2022-01-18 | 英卓美特公司 | 用于跨越多个组装单元自动生成公共测量的方法 |
JP6723018B2 (ja) * | 2016-02-02 | 2020-07-15 | 株式会社パスコ | 対象物記録装置及び対象物記録プログラム |
IL302656A (en) * | 2016-02-11 | 2023-07-01 | Magic Leap Inc | Multi-depth planar display system with limited change between depth planes |
CN105681684A (zh) * | 2016-03-09 | 2016-06-15 | 北京奇虎科技有限公司 | 基于移动终端的图像实时处理方法及装置 |
CN105657294A (zh) * | 2016-03-09 | 2016-06-08 | 北京奇虎科技有限公司 | 在移动终端上呈现虚拟特效的方法及装置 |
CN105786432A (zh) * | 2016-03-18 | 2016-07-20 | 北京奇虎科技有限公司 | 在移动终端上展示虚拟画面的方法及装置 |
JP6701930B2 (ja) | 2016-04-28 | 2020-05-27 | 富士通株式会社 | オーサリング装置、オーサリング方法およびオーサリングプログラム |
JP6126271B1 (ja) * | 2016-05-17 | 2017-05-10 | 株式会社コロプラ | 仮想空間を提供する方法、プログラム及び記録媒体 |
US10539797B2 (en) | 2016-05-06 | 2020-01-21 | Colopl, Inc. | Method of providing virtual space, program therefor, and recording medium |
WO2017199848A1 (ja) * | 2016-05-17 | 2017-11-23 | 株式会社コロプラ | 仮想空間を提供する方法、プログラム及び記録媒体 |
CN109804334B (zh) * | 2016-08-11 | 2022-07-15 | 奇跃公司 | 用于三维空间中虚拟对象的自动放置的系统和方法 |
JP6113897B1 (ja) * | 2016-08-22 | 2017-04-12 | 株式会社コロプラ | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 |
WO2018071562A1 (en) * | 2016-10-12 | 2018-04-19 | Viar Inc | Virtual/augmented reality content management system |
JP2018077644A (ja) | 2016-11-08 | 2018-05-17 | 富士ゼロックス株式会社 | 情報処理システム及びプログラム |
JP6350640B2 (ja) * | 2016-12-15 | 2018-07-04 | 富士通株式会社 | 表示制御装置、表示制御方法、表示制御プログラム |
TWI615776B (zh) * | 2016-12-23 | 2018-02-21 | 李雨暹 | 移動物件的虛擬訊息建立方法、搜尋方法與應用系統 |
DE112017006836T5 (de) * | 2017-01-16 | 2019-09-26 | Sony Corporation | Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm |
CN110313021B (zh) * | 2017-03-06 | 2023-07-25 | 连株式会社 | 增强现实提供方法、装置以及计算机可读记录介质 |
DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
CN107888600A (zh) * | 2017-11-21 | 2018-04-06 | 北京恒华伟业科技股份有限公司 | 一种定位方法 |
WO2019118002A1 (en) * | 2017-12-15 | 2019-06-20 | Google Llc | Methods and systems for generating augmented reality environments |
JP7017689B2 (ja) * | 2017-12-29 | 2022-02-09 | 富士通株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US20190206102A1 (en) * | 2017-12-29 | 2019-07-04 | Facebook, Inc. | Systems and methods for enhancing content |
DK201870346A1 (en) | 2018-01-24 | 2019-09-12 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
JP6745852B2 (ja) * | 2018-01-24 | 2020-08-26 | アップル インコーポレイテッドApple Inc. | 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース |
JP7209474B2 (ja) * | 2018-03-30 | 2023-01-20 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理方法及び情報処理システム |
CN108932055B (zh) * | 2018-06-04 | 2021-08-24 | 杭州艺手工网络科技有限公司 | 一种增强现实内容的方法和设备 |
WO2020017261A1 (ja) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN109348003A (zh) * | 2018-09-17 | 2019-02-15 | 深圳市泰衡诺科技有限公司 | 应用控制方法及装置 |
US10380440B1 (en) | 2018-10-23 | 2019-08-13 | Capital One Services, Llc | Method for determining correct scanning distance using augmented reality and machine learning models |
US10848335B1 (en) * | 2018-12-11 | 2020-11-24 | Amazon Technologies, Inc. | Rule-based augmentation of a physical environment |
US10803669B1 (en) * | 2018-12-11 | 2020-10-13 | Amazon Technologies, Inc. | Rule-based augmentation of a physical environment |
WO2020144848A1 (ja) * | 2019-01-11 | 2020-07-16 | 三菱電機株式会社 | オーサリング装置、オーサリング方法、及びオーサリングプログラム |
CN113498531A (zh) * | 2019-03-06 | 2021-10-12 | 麦克赛尔株式会社 | 头戴式信息处理装置以及头戴式显示系统 |
EP3951722A4 (en) * | 2019-03-28 | 2022-05-11 | NEC Corporation | INFORMATION PROCESSING DEVICE, DISPLAY SYSTEM, DISPLAY METHOD AND NON-TRANSITORY COMPUTER-READABLE MEDIA ON WHICH A PROGRAM IS STORED |
CN114585423A (zh) | 2019-08-22 | 2022-06-03 | Nantg移动有限责任公司 | 虚拟和现实世界的内容创建、装置、系统和方法 |
CN112702643B (zh) * | 2019-10-22 | 2023-07-21 | 上海哔哩哔哩科技有限公司 | 弹幕信息显示方法、装置、移动终端 |
CN110782532B (zh) * | 2019-10-23 | 2021-04-16 | 北京达佳互联信息技术有限公司 | 图像生成方法、生成装置、电子设备及存储介质 |
EP4058874A4 (en) * | 2019-12-05 | 2023-05-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | METHOD AND SYSTEM FOR ASSIGNING DEVICE COORDINATE SYSTEMS IN A MULTIPLE AR SYSTEM |
US11626994B2 (en) | 2020-02-27 | 2023-04-11 | Sneakertopia Inc. | System and method for presenting content based on articles properly presented and verifiably owned by or in possession of user |
CN111651056A (zh) * | 2020-06-10 | 2020-09-11 | 浙江商汤科技开发有限公司 | 一种沙盘演示方法、装置、计算机设备及存储介质 |
CN112100407B (zh) * | 2020-09-25 | 2021-05-21 | 南京酷朗电子有限公司 | 多媒体图像系统的信息继承和叠加方法 |
FR3117650B1 (fr) * | 2020-12-16 | 2023-09-08 | Schneider Electric Ind Sas | Procédé de gestion de l’affichage d’au moins une information, produit programme d’ordinateur, support d’information et système d’affichage associés |
JP7082698B1 (ja) | 2021-02-18 | 2022-06-08 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7086242B1 (ja) | 2021-02-18 | 2022-06-17 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11928783B2 (en) * | 2021-12-30 | 2024-03-12 | Snap Inc. | AR position and orientation along a plane |
US11887260B2 (en) | 2021-12-30 | 2024-01-30 | Snap Inc. | AR position indicator |
KR102433894B1 (ko) * | 2021-12-30 | 2022-08-18 | 주식회사 버넥트 | 맵 타겟을 생성 및 저장하는 방법 및 그 시스템 |
US11954762B2 (en) | 2022-01-19 | 2024-04-09 | Snap Inc. | Object replacement system |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6057856A (en) * | 1996-09-30 | 2000-05-02 | Sony Corporation | 3D virtual reality multi-user interaction with superimposed positional information display for each user |
US6037914A (en) * | 1997-08-25 | 2000-03-14 | Hewlett-Packard Company | Method and apparatus for augmented reality using a see-through head-mounted display |
US20020163482A1 (en) * | 1998-04-20 | 2002-11-07 | Alan Sullivan | Multi-planar volumetric display system including optical elements made from liquid crystal having polymer stabilized cholesteric textures |
AU2001275308A1 (en) * | 2000-06-06 | 2001-12-17 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
US7215322B2 (en) * | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
JP2004046326A (ja) * | 2002-07-09 | 2004-02-12 | Dainippon Screen Mfg Co Ltd | 画像表示装置、画像表示方法およびプログラム |
JP4065507B2 (ja) * | 2002-07-31 | 2008-03-26 | キヤノン株式会社 | 情報提示装置および情報処理方法 |
US7391424B2 (en) * | 2003-08-15 | 2008-06-24 | Werner Gerhard Lonsing | Method and apparatus for producing composite images which contain virtual objects |
JP2005141671A (ja) * | 2003-11-10 | 2005-06-02 | Canon Inc | 情報処理装置及びその方法及びその方法を実行するためのプログラムおよびそのプログラムを記憶した記憶媒体 |
US7376903B2 (en) * | 2004-06-29 | 2008-05-20 | Ge Medical Systems Information Technologies | 3D display system and method |
JP2006145988A (ja) * | 2004-11-22 | 2006-06-08 | Olympus Corp | 情報重畳表示装置及び情報重畳表示システム |
WO2006081198A2 (en) * | 2005-01-25 | 2006-08-03 | The Board Of Trustees Of The University Of Illinois | Compact haptic and augmented virtual reality system |
JP4594136B2 (ja) * | 2005-03-09 | 2010-12-08 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
US8040361B2 (en) * | 2005-04-11 | 2011-10-18 | Systems Technology, Inc. | Systems and methods for combining virtual and real-time physical environments |
WO2008107021A1 (de) * | 2007-03-08 | 2008-09-12 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zur generierung von trackingkonfigurationen für augmented-reality-anwendungen |
JP5380789B2 (ja) | 2007-06-06 | 2014-01-08 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US8102334B2 (en) * | 2007-11-15 | 2012-01-24 | International Businesss Machines Corporation | Augmenting reality for a user |
US8190295B1 (en) * | 2008-05-14 | 2012-05-29 | Sandia Corporation | Apparatus and method for modifying the operation of a robotic vehicle in a real environment, to emulate the operation of the robotic vehicle operating in a mixed reality environment |
JP2010026818A (ja) * | 2008-07-18 | 2010-02-04 | Geisha Tokyo Entertainment Inc | 画像処理プログラム、画像処理装置及び画像処理方法 |
US8606657B2 (en) * | 2009-01-21 | 2013-12-10 | Edgenet, Inc. | Augmented reality method and system for designing environments and buying/selling goods |
US8970690B2 (en) * | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
US8379056B2 (en) * | 2009-02-27 | 2013-02-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Device and method for providing a video signal of a virtual image |
JP5316285B2 (ja) | 2009-07-27 | 2013-10-16 | 三菱電機株式会社 | 電力増幅器用バイアス回路 |
US20110310227A1 (en) * | 2010-06-17 | 2011-12-22 | Qualcomm Incorporated | Mobile device based content mapping for augmented reality environment |
US9699438B2 (en) * | 2010-07-02 | 2017-07-04 | Disney Enterprises, Inc. | 3D graphic insertion for live action stereoscopic video |
WO2012048252A1 (en) * | 2010-10-07 | 2012-04-12 | Aria Glassworks, Inc. | System and method for transitioning between interface modes in virtual and augmented reality applications |
US20120117514A1 (en) * | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
US9286725B2 (en) * | 2013-11-14 | 2016-03-15 | Nintendo Co., Ltd. | Visually convincing depiction of object interactions in augmented reality images |
US9898844B2 (en) * | 2013-12-31 | 2018-02-20 | Daqri, Llc | Augmented reality content adapted to changes in real world space geometry |
US9728010B2 (en) * | 2014-12-30 | 2017-08-08 | Microsoft Technology Licensing, Llc | Virtual representations of real-world objects |
US9754417B2 (en) * | 2014-12-31 | 2017-09-05 | Canon Information And Imaging Solutions, Inc. | Methods and systems for displaying virtual objects |
US9767606B2 (en) * | 2016-01-12 | 2017-09-19 | Lenovo (Singapore) Pte. Ltd. | Automatic modification of augmented reality objects |
-
2011
- 2011-02-15 JP JP2011030006A patent/JP5799521B2/ja active Active
-
2012
- 2012-02-06 EP EP12153989A patent/EP2490182A1/en not_active Ceased
- 2012-02-06 EP EP20150854.6A patent/EP3664040A1/en active Pending
- 2012-02-08 CN CN201210027593.1A patent/CN102708355B/zh active Active
- 2012-02-08 US US13/368,867 patent/US8850337B2/en active Active
-
2014
- 2014-08-22 US US14/466,433 patent/US9996982B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2490182A1 (en) | 2012-08-22 |
US8850337B2 (en) | 2014-09-30 |
CN102708355B (zh) | 2017-03-01 |
US9996982B2 (en) | 2018-06-12 |
EP3664040A1 (en) | 2020-06-10 |
US20120210255A1 (en) | 2012-08-16 |
CN102708355A (zh) | 2012-10-03 |
US20140362084A1 (en) | 2014-12-11 |
JP2012168798A (ja) | 2012-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5799521B2 (ja) | 情報処理装置、オーサリング方法及びプログラム | |
JP5920352B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US9576183B2 (en) | Fast initialization for monocular visual SLAM | |
US11645781B2 (en) | Automated determination of acquisition locations of acquired building images based on determined surrounding room data | |
KR102635705B1 (ko) | 목적지 위치들을 조직하고 공유하기 위한 인터페이스들 | |
AU2021229706A1 (en) | Systems and methods for building a virtual representation of a location | |
JP5724543B2 (ja) | 端末装置、オブジェクト制御方法及びプログラム | |
EP3095092B1 (en) | Method and apparatus for visualization of geo-located media contents in 3d rendering applications | |
JP5592011B2 (ja) | マルチスケール3次元配向 | |
Schmalstieg et al. | The world as a user interface: Augmented reality for ubiquitous computing | |
JP2011095797A (ja) | 画像処理装置、画像処理方法及びプログラム | |
TW201346640A (zh) | 影像處理裝置及電腦程式產品 | |
JP6334927B2 (ja) | 付加情報表示装置および付加情報表示プログラム | |
US11688136B2 (en) | 3D object model reconstruction from 2D images | |
CN110473293A (zh) | 虚拟对象处理方法及装置、存储介质和电子设备 | |
EP4143787A1 (en) | Photometric-based 3d object modeling | |
US20230267687A1 (en) | 3d object model reconstruction from 2d images | |
JP6818968B2 (ja) | オーサリング装置、オーサリング方法、及びオーサリングプログラム | |
Araujo et al. | Life cycle of a slam system: Implementation, evaluation and port to the project tango device | |
Karlekar et al. | Mixed reality on mobile devices | |
US20230351706A1 (en) | Scanning interface systems and methods for building a virtual representation of a location | |
Peng | Design and Application of Cultural Digital Display System based on Interactive Technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150624 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150810 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5799521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |