JP7160183B2 - 情報処理装置、表示システム、表示方法、及びプログラム - Google Patents
情報処理装置、表示システム、表示方法、及びプログラム Download PDFInfo
- Publication number
- JP7160183B2 JP7160183B2 JP2021508106A JP2021508106A JP7160183B2 JP 7160183 B2 JP7160183 B2 JP 7160183B2 JP 2021508106 A JP2021508106 A JP 2021508106A JP 2021508106 A JP2021508106 A JP 2021508106A JP 7160183 B2 JP7160183 B2 JP 7160183B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- coordinates
- real space
- model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
実空間に存在する所定の物体の三次元モデルを記憶するモデル空間記憶手段と、
拡張現実表示装置のカメラが撮影した前記物体の画像を取得する物体情報取得手段と、
前記画像と前記三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定手段と、
前記関係特定手段により特定された前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換手段と、
前記変換手段により変換された座標を前記拡張現実表示装置に通知する座標通知手段と
を有する。
カメラを有する拡張現実表示装置と、
情報処理装置と、
を備え、
前記情報処理装置は、
実空間に存在する所定の物体の三次元モデルを記憶するモデル空間記憶手段と、
前記カメラが撮影した前記物体の画像を取得する物体情報取得手段と、
前記画像と前記三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定手段と、
前記関係特定手段により特定された前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換手段と、
前記変換手段により変換された座標を前記拡張現実表示装置に通知する座標通知手段と
を有し、
前記拡張現実表示装置は、
前記座標通知手段により通知された前記座標に基づいて、前記所定の画像を拡張現実表示する表示制御手段を有する。
拡張現実表示装置のカメラが撮影した、実空間に存在する所定の物体の画像を取得し、
前記画像と前記物体の三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定し、
前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換し、
変換された座標を前記拡張現実表示装置に通知する。
拡張現実表示装置のカメラが撮影した、実空間に存在する所定の物体の画像を取得する物体情報取得ステップと、
前記画像と前記物体の三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定ステップと、
前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換ステップと、
変換された座標を前記拡張現実表示装置に通知する通知ステップと
をコンピュータに実行させる。
図1は、実施の形態1にかかる表示システム1の構成の一例を示すブロック図である。図1に示すように、表示システム1は、情報処理装置10と、1以上の拡張現実表示装置20とを備えている。情報処理装置10と、拡張現実表示装置20とは、有線又は無線により通信可能に接続されている。
カメラ25は、現実空間を撮影する。すなわち、カメラ25は、拡張現実表示装置20のユーザの視界にある現実空間の風景を撮影する。
例えばマイクロソフト社のホロレンズでは、アプリを起動したタイミングのカメラ位置が原点となり、その時に向いている方向によって座標軸の向きが決定する。
なお、空間管理部201が管理する座標系を実空間座標系と称すこととする。
X=A+hn ・・・(1)
基準位置算出部107が、モデル座標系における基準位置の座標を算出すると、変換部105は、算出された座標を実空間座標系の座標へと変換する。
次に、ステップS101において、画像送信部202が、ステップS100で取得された画像とともに、空間管理部201が管理している、当該画像撮影時のカメラ25の座標及び方向を情報処理装置10に送信する。これを情報処理装置10の物体情報取得部102が取得する。
次に、ステップS102において、画像認識部103が画像認識処理を行なって、リファレンス物体の画像と三次元モデルとを照合する。そして、画像認識部103は、リファレンス物体を撮影した際のカメラ25の座標及び方向をモデル座標系において特定する。
次に、ステップS103において、関係特定部104は、ステップS102で特定されたモデル座標系におけるカメラ25の座標及び方向と、ステップS101で取得した実空間座標系におけるカメラ25の座標及び方向とを用いて、座標変換式を特定する。
次に、ステップS105において、指定情報通知部204は、空間管理部201が管理する、カメラ25の実空間座標系における座標と、ステップS104で指定された方向とを情報処理装置10に送信する。これを情報処理装置10の指定情報取得部106が取得する。
次に、ステップS107において、基準位置算出部107は、ステップS106による変換結果に基づいて、基準位置のモデル座標系における座標を算出する。基準位置算出部107は、基準位置のモデル座標系における座標を例えばメモリ12に記憶する。
次に、ステップS201において、画像送信部202が、ステップS200で取得された画像とともに、空間管理部201が管理している、当該画像撮影時のカメラ25の座標及び方向を情報処理装置10に送信する。これを情報処理装置10の物体情報取得部102が取得する。
次に、ステップS202において、画像認識部103が画像認識処理を行なって、リファレンス物体の画像と三次元モデルとを照合する。そして、画像認識部103は、リファレンス物体を撮影した際のカメラ25の座標及び方向をモデル座標系において特定する。
次に、ステップS203において、関係特定部104は、ステップS202で特定されたモデル座標系におけるカメラ25の座標及び方向と、ステップS201で取得した実空間座標系におけるカメラ25の座標及び方向とを用いて、座標変換式を特定する。
次に、ステップS205において、座標通知部108は、ステップS204で算出された座標を拡張現実表示装置20に送信する。
次に、ステップS206において、表示制御部205は、ステップS205で取得した座標に基づいて特定される表示位置にAR画像を表示する。すなわち、表示制御部205は、情報処理装置10から通知された、AR画像の表示位置を特定するための実空間座標系における座標に基づいて、AR画像を表示する。なお、表示制御部205は、情報処理装置10からリファレンス物体の座標を受信した場合、リファレンス物体の位置にAR画像が表示されているように見えるようAR画像の表示を行なってもよい。
実施の形態1では、平面60と、点Pを起点としたベクトルDとの交点Qの座標を算出することにより、基準位置の座標を算出する方法について説明した。本実施の形態では、基準位置の座標の他の算出方法について説明する。なお、以下の説明では、実施の形態1と異なる点を中心に説明し、重複する説明は適宜割愛する。
ユーザは、例えば四角形の競技会場の頂点のうち隣り合う2点についての方向を指定する。例えば、図6を例に説明すると、ユーザは、競技会場(より具体的には競泳プールの水槽)の四隅53A、53B、53C、及び53Dのうち、隣り合う2点(競技会場の一辺の両端点)についての方向を指定する。例えば、ユーザは、基準位置53A及び基準位置53Bの方向を指定する。
次に、ステップS203において、変換部105は、ステップS202で得られたモデル座標系の座標及び方向をモデル空間記憶部101に記憶する。すなわち、所定の二点(2つの基準位置)それぞれについて、モデル座標系でのベクトル情報が記憶される。
上述した通り、基準位置算出部107は、ベクトルD1、D2と、距離Wと、ベクトルnとにより、競技会場平面上の基準位置55A及び55Bの座標を特定する。なお、このとき、リファレンス物体から競技会場平面までの距離が記憶されている場合、距離情報が参照されることにより、より正確に、競技会場平面上の座標が特定されてもよい。基準位置算出部107は、ベクトルD1、D2の差を表すベクトルの大きさがW、かつ、当該差を表すベクトルがベクトルnに直交するという条件に基づいて、実空間座標系において競技会場平面上の2つの基準位置55A及び55Bの座標を算出する。そして、基準位置算出部107は、基準位置55A及び55Bからそれぞれ距離Hだけ離れている基準位置55C及び55Dについての座標を算出する。
上述の実施の形態では、表示システム1について示したが、図13に示すような実施の形態においても、マーカーレス型のAR表示において、AR画像を所望の位置に適切に表示することができる。
物体情報取得部502は、拡張現実表示装置のカメラが撮影したリファレンス物体の画像を取得する。
関係特定部503は、取得された画像とリファレンス物体の三次元モデルとを照合した結果に基づいて、モデル座標系と実空間座標系の対応関係を特定する。
変換部504は、関係特定部503により特定された対応関係を用いて、AR画像の表示位置を特定するためのモデル座標系における座標を実空間座標系における座標に変換する。
座標通知部505は、変換部504により変換された座標を拡張現実表示装置に通知する。
実空間に存在する所定の物体の三次元モデルを記憶するモデル空間記憶手段と、
拡張現実表示装置のカメラが撮影した前記物体の画像を取得する物体情報取得手段と、
前記画像と前記三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定手段と、
前記関係特定手段により特定された前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換手段と、
前記変換手段により変換された座標を前記拡張現実表示装置に通知する座標通知手段と
を有する情報処理装置。
(付記2)
前記所定の画像の表示位置を特定するための前記モデル座標系における前記座標は、前記物体からの相対的な位置として特定される
付記1に記載の情報処理装置。
(付記3)
前記カメラの前記実空間座標系における座標と、当該座標を起点とした前記実空間座標系における方向の指定とを取得する指定情報取得手段をさらに有し、
前記所定の画像の表示位置を特定するための前記モデル座標系における前記座標は、前記指定情報取得手段が取得した座標及び方向に基づいて特定される座標である
付記1に記載の情報処理装置。
(付記4)
前記指定情報取得手段は、前記カメラの前記実空間座標系における座標と、当該座標を起点とした前記実空間座標系における方向の指定との組を複数取得し、
前記変換手段により変換された複数点の座標により表される線分又は領域を用いて前記所定の画像の表示位置が特定される
付記3に記載の情報処理装置。
(付記5)
前記指定情報取得手段が取得した座標及び方向と、表示が行なわれる会場の形状情報とを用いて、前記実空間座標系において前記会場の領域を特定する表示会場特定手段を有する
付記3に記載の情報処理装置。
(付記6)
前記物体情報取得手段により前記物体の画像の新たな画像が取得された場合、前記関係特定手段は、再度、前記対応関係を特定する
付記1乃至5のいずれか1項に記載の情報処理装置。
(付記7)
カメラを有する拡張現実表示装置と、
情報処理装置と、
を備え、
前記情報処理装置は、
実空間に存在する所定の物体の三次元モデルを記憶するモデル空間記憶手段と、
前記カメラが撮影した前記物体の画像を取得する物体情報取得手段と、
前記画像と前記三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定手段と、
前記関係特定手段により特定された前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換手段と、
前記変換手段により変換された座標を前記拡張現実表示装置に通知する座標通知手段と
を有し、
前記拡張現実表示装置は、
前記座標通知手段により通知された前記座標に基づいて、前記所定の画像を拡張現実表示する表示制御手段を有する
表示システム。
(付記8)
前記所定の画像の表示位置を特定するための前記モデル座標系における前記座標は、前記物体からの相対的な位置として特定される
付記7に記載の表示システム。
(付記9)
前記拡張現実表示装置は、
前記カメラの前記実空間座標系における座標を起点とした前記実空間座標系における方向の指定を受け付ける方向受付手段と、
前記カメラの前記実空間座標系における座標と、前記方向受付手段が受け付けた方向の指定とを前記情報処理装置に通知する指定情報通知手段と
をさらに有し、
前記所定の画像の表示位置を特定するための前記モデル座標系における前記座標は、前記指定情報通知手段により通知された座標及び方向に基づいて特定される座標である
付記7に記載の表示システム。
(付記10)
拡張現実表示装置のカメラが撮影した、実空間に存在する所定の物体の画像を取得し、
前記画像と前記物体の三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定し、
前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換し、
変換された座標を前記拡張現実表示装置に通知する
表示方法。
(付記11)
拡張現実表示装置のカメラが撮影した、実空間に存在する所定の物体の画像を取得する物体情報取得ステップと、
前記画像と前記物体の三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定ステップと、
前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換ステップと、
変換された座標を前記拡張現実表示装置に通知する通知ステップと
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
10 情報処理装置
11 ネットワークインタフェース
12 メモリ
13 プロセッサ
20 拡張現実表示装置
21 ネットワークインタフェース
22 メモリ
23 プロセッサ
24 空間認識センサ
25 カメラ
26 IMU
27 ディスプレイ
101 モデル空間記憶部
102 物体情報取得部
103 画像認識部
104 関係特定部
105 変換部
106 指定情報取得部
107 基準位置算出部
108 座標通知部
201 空間管理部
202 画像送信部
203 操作受付部
204 指定情報通知部
205 表示制御部
500 情報処理装置
501 モデル空間記憶部
502 物体情報取得部
503 関係特定部
504 変換部
505 座標通知部
Claims (10)
- 実空間に存在する所定の物体の三次元モデルを記憶するモデル空間記憶手段と、
拡張現実表示装置のカメラが撮影した前記物体の画像を取得する物体情報取得手段と、
前記画像と前記三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定手段と、
前記関係特定手段により特定された前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換手段と、
前記変換手段により変換された座標を前記拡張現実表示装置に通知する座標通知手段と
を有する情報処理装置。 - 前記所定の画像の表示位置を特定するための前記モデル座標系における前記座標は、前記物体からの相対的な位置として特定される
請求項1に記載の情報処理装置。 - 前記カメラの前記実空間座標系における座標と、当該座標を起点とした前記実空間座標系における方向の指定とを取得する指定情報取得手段をさらに有し、
前記所定の画像の表示位置を特定するための前記モデル座標系における前記座標は、前記指定情報取得手段が取得した座標及び方向に基づいて特定される座標である
請求項1に記載の情報処理装置。 - 前記指定情報取得手段は、前記カメラの前記実空間座標系における座標と、当該座標を起点とした前記実空間座標系における方向の指定との組を複数取得し、
前記変換手段により変換された複数点の座標により表される線分又は領域を用いて前記所定の画像の表示位置が特定される
請求項3に記載の情報処理装置。 - 前記指定情報取得手段が取得した座標及び方向と、表示が行なわれる会場の形状情報とを用いて、前記実空間座標系において前記会場の領域を特定する表示会場特定手段を有する
請求項3に記載の情報処理装置。 - 前記物体情報取得手段により前記物体の画像の新たな画像が取得された場合、前記関係特定手段は、再度、前記対応関係を特定する
請求項1乃至5のいずれか1項に記載の情報処理装置。 - カメラを有する拡張現実表示装置と、
情報処理装置と、
を備え、
前記情報処理装置は、
実空間に存在する所定の物体の三次元モデルを記憶するモデル空間記憶手段と、
前記カメラが撮影した前記物体の画像を取得する物体情報取得手段と、
前記画像と前記三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定手段と、
前記関係特定手段により特定された前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換手段と、
前記変換手段により変換された座標を前記拡張現実表示装置に通知する座標通知手段と
を有し、
前記拡張現実表示装置は、
前記座標通知手段により通知された前記座標に基づいて、前記所定の画像を拡張現実表示する表示制御手段を有する
表示システム。 - 前記所定の画像の表示位置を特定するための前記モデル座標系における前記座標は、前記物体からの相対的な位置として特定される
請求項7に記載の表示システム。 - 拡張現実表示装置のカメラが撮影した、実空間に存在する所定の物体の画像を取得し、
前記画像と前記物体の三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定し、
前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換し、
変換された座標を前記拡張現実表示装置に通知する
表示方法。 - 拡張現実表示装置のカメラが撮影した、実空間に存在する所定の物体の画像を取得する物体情報取得ステップと、
前記画像と前記物体の三次元モデルとを照合した結果に基づいて、前記三次元モデルが存在するモデル空間の座標系であるモデル座標系と前記拡張現実表示装置が管理する実空間の座標系である実空間座標系の対応関係を特定する関係特定ステップと、
前記対応関係を用いて、所定の画像の表示位置を特定するための前記モデル座標系における座標を前記実空間座標系における座標に変換する変換ステップと、
変換された座標を前記拡張現実表示装置に通知する通知ステップと
をコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064637 | 2019-03-28 | ||
JP2019064637 | 2019-03-28 | ||
PCT/JP2020/000895 WO2020195021A1 (ja) | 2019-03-28 | 2020-01-14 | 情報処理装置、表示システム、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020195021A1 JPWO2020195021A1 (ja) | 2021-12-16 |
JP7160183B2 true JP7160183B2 (ja) | 2022-10-25 |
Family
ID=72609719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508106A Active JP7160183B2 (ja) | 2019-03-28 | 2020-01-14 | 情報処理装置、表示システム、表示方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220254109A1 (ja) |
EP (1) | EP3951722A4 (ja) |
JP (1) | JP7160183B2 (ja) |
WO (1) | WO2020195021A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012168798A (ja) | 2011-02-15 | 2012-09-06 | Sony Corp | 情報処理装置、オーサリング方法及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4356983B2 (ja) * | 2004-02-10 | 2009-11-04 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
WO2007011306A2 (en) * | 2005-07-20 | 2007-01-25 | Bracco Imaging S.P.A. | A method of and apparatus for mapping a virtual model of an object to the object |
EP2189945A1 (en) * | 2008-11-21 | 2010-05-26 | A&P ip B.V. | Method of and arrangement for linking image coordinates to coordinates of reference model |
US8970690B2 (en) * | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
KR102167273B1 (ko) * | 2013-06-25 | 2020-10-20 | 한양대학교 산학협력단 | 실제 객체를 증강하는 방법, 장치 및 컴퓨터 프로그램 제품 |
US9639987B2 (en) * | 2013-06-27 | 2017-05-02 | Canon Information And Imaging Solutions, Inc. | Devices, systems, and methods for generating proxy models for an enhanced scene |
CN104427230B (zh) * | 2013-08-28 | 2017-08-25 | 北京大学 | 增强现实的方法和增强现实的系统 |
WO2015051827A1 (en) * | 2013-10-08 | 2015-04-16 | Metaio Gmbh | Method of determining a similarity transformation between first and second coordinates of 3d features |
JP6572497B2 (ja) * | 2013-12-18 | 2019-09-11 | ザ・スクリップス・リサーチ・インスティテュート | 修飾された治療剤、ステープル留めされたペプチド脂質複合体、及びそれらの組成物 |
JP6564259B2 (ja) * | 2015-06-26 | 2019-08-21 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
WO2018032083A1 (en) * | 2016-08-17 | 2018-02-22 | Synaptive Medical (Barbados) Inc. | Methods and systems for registration of virtual space with real space in an augmented reality system |
CN106791784B (zh) * | 2016-12-26 | 2019-06-25 | 深圳增强现实技术有限公司 | 一种虚实重合的增强现实显示方法和装置 |
US10499997B2 (en) * | 2017-01-03 | 2019-12-10 | Mako Surgical Corp. | Systems and methods for surgical navigation |
JP6624646B2 (ja) * | 2017-02-08 | 2019-12-25 | ソフトバンク株式会社 | 情報提示システム、情報提示方法及び情報提示プログラム |
JP6438995B2 (ja) | 2017-03-24 | 2018-12-19 | 株式会社インフォマティクス | 図面投影システム、図面投影方法及びプログラム |
JP6275310B1 (ja) * | 2017-05-26 | 2018-02-07 | 株式会社テクテック | 拡張現実表示システム、プログラム及び方法 |
JP6585665B2 (ja) * | 2017-06-29 | 2019-10-02 | ファナック株式会社 | 仮想オブジェクト表示システム |
JP6953083B2 (ja) | 2017-09-29 | 2021-10-27 | トキコシステムソリューションズ株式会社 | 燃料荷卸しシステム |
JP2019185475A (ja) * | 2018-04-12 | 2019-10-24 | 富士通株式会社 | 特定プログラム、特定方法及び情報処理装置 |
JP7182976B2 (ja) * | 2018-09-27 | 2022-12-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
KR102051889B1 (ko) * | 2018-12-05 | 2019-12-06 | 주식회사 증강지능 | 스마트 글래스에서 2d 데이터를 기반으로 3d 증강현실을 구현하는 방법 및 시스템 |
-
2020
- 2020-01-14 WO PCT/JP2020/000895 patent/WO2020195021A1/ja unknown
- 2020-01-14 JP JP2021508106A patent/JP7160183B2/ja active Active
- 2020-01-14 US US17/442,804 patent/US20220254109A1/en active Pending
- 2020-01-14 EP EP20778754.0A patent/EP3951722A4/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012168798A (ja) | 2011-02-15 | 2012-09-06 | Sony Corp | 情報処理装置、オーサリング方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3951722A4 (en) | 2022-05-11 |
WO2020195021A1 (ja) | 2020-10-01 |
US20220254109A1 (en) | 2022-08-11 |
EP3951722A1 (en) | 2022-02-09 |
JPWO2020195021A1 (ja) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4926817B2 (ja) | 指標配置情報計測装置および方法 | |
US7676079B2 (en) | Index identification method and apparatus | |
JP4739004B2 (ja) | 情報処理装置及び情報処理方法 | |
KR101146119B1 (ko) | 실내 이동 로봇의 위치 인식 방법 및 장치 | |
US20090037023A1 (en) | Information processing system, robot apparatus, and control method therefor | |
JP6464938B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US20240071016A1 (en) | Mixed reality system, program, mobile terminal device, and method | |
JP4502361B2 (ja) | 指標姿勢検出方法および装置 | |
JP6323025B2 (ja) | 表示制御プログラム、表示制御装置及び表示制御システム | |
WO2012081319A1 (ja) | 映像監視装置 | |
CN112949375A (zh) | 计算系统、计算方法及存储介质 | |
KR100975128B1 (ko) | 뷰잉 프러스텀을 이용하여 객체에 대한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
JP2009258884A (ja) | ユーザインタフェイス | |
JP2018185240A (ja) | 位置特定装置 | |
JP7160183B2 (ja) | 情報処理装置、表示システム、表示方法、及びプログラム | |
EP4246281A1 (en) | Information display system, information display method, and carrier means | |
US10931896B2 (en) | Image capture device and image capture management system | |
JP2021047516A (ja) | 情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラム | |
JP2017162192A (ja) | 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法 | |
JP2005107964A (ja) | 指標識別方法および装置 | |
JP6683919B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2016045670A (ja) | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 | |
WO2024095744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2018181237A (ja) | 設営アシストシステム | |
JP2013211741A (ja) | 画像監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210811 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7160183 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |