JP2011248443A - 拡張現実映像の提示装置及び提示方法 - Google Patents

拡張現実映像の提示装置及び提示方法 Download PDF

Info

Publication number
JP2011248443A
JP2011248443A JP2010118288A JP2010118288A JP2011248443A JP 2011248443 A JP2011248443 A JP 2011248443A JP 2010118288 A JP2010118288 A JP 2010118288A JP 2010118288 A JP2010118288 A JP 2010118288A JP 2011248443 A JP2011248443 A JP 2011248443A
Authority
JP
Japan
Prior art keywords
image
augmented reality
virtual object
object data
reality video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010118288A
Other languages
English (en)
Inventor
Muneyuki Oshima
宗之 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010118288A priority Critical patent/JP2011248443A/ja
Publication of JP2011248443A publication Critical patent/JP2011248443A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】視覚と触覚とが一致した臨場感の優れた拡張現実映像を提供する。
【解決手段】表面にシート状の触覚センサ21が設けられた3次元オブジェクト11を撮像装置14で撮影し、3次元オブジェクト11の形状に対応する仮想物データ12を触覚センサ21の検出信号により変形させ、撮像装置14が撮影した画像の中における仮想物データ12の合成位置を位置合わせ部18が演算して求め、撮像装置14が撮影した画像の中の3次元オブジェクト11の画像に代えて前記合成位置に前記変形された仮想物データ12を合成する。
【選択図】図1

Description

本発明は、拡張現実映像の提示装置及び提示方法に係り、特に、仮想物(拡張現実映像)を現実世界の映像に重ねて表示するときユーザの視覚情報と触覚情報に合わせた仮想物を表示することができる拡張現実映像の提示装置及び提示方法に関する。
現実世界を撮影したカメラ画像に3DCG等で生成した仮想物の画像を合成し、人間の視覚を拡張する拡張現実(AR:Augmented Reality)技術が普及してきている。この拡張現実映像を画面に表示するとき、触覚的な効果を加えることで、臨場感をユーザに与えることができる。
例えば、工業製品のモックアップに色違いで同じ形状の3DCGで生成したモックアップ画像を合成すれば、ユーザは現物のモックアップを触りながら、画面上で色違いのモックアップ画像を見ることができ、製品化されたときの色彩を持つ工業製品をイメージすることが可能となる。
ここで、モックアップに変形可能な柔らかい素材を用いた場合、ユーザが手でモックアップを触ったとき、モックアップは指の圧力を受けて実際に変形することになる。これに合わせて、画面上のモックアップ画像も変形させることができれば、ユーザの触覚に応じたモックアップ画像を表示させることができ、臨場感をユーザに与えることができる。
例えば下記の特許文献1,2に記載されている従来技術では、荷重を受けたとき3DCG画像を変形させることをしている。
特表2008―508630号公報 特開2009―8837号公報
3DCG等で生成した仮想物のモックアップ画像を、実際のモックアップに加えられた圧力の大きさや圧力の方向に従って変形させることは従来から行われている。
しかし、例えば、実際にモックアップを指で押したところの現実の映像のうち、モックアップの画像を仮想物のモックアップ画像に置き換えた合成画像をユーザに提示したとき、モックアップ画像の変形箇所と、現実映像の指の場所との間に微妙な位置ズレが生じると、違和感のある、臨場感に乏しい拡張現実映像になってしまう。
本発明の目的は、現実映像と仮想物映像との位置合わせ精度が高く、視覚的にも触覚的
に違和感のない臨場感の優れた拡張現実映像の提示装置及び提示方法を提供することにある。
本発明の拡張現実映像の提示装置は、表面にシート状の触覚センサが設けられた3次元オブジェクトを撮影する撮像装置と、前記3次元オブジェクトの形状に対応する仮想物データを前記触覚センサの検出信号により変形させる変形手段と、前記撮像装置が撮影した画像の中における前記仮想物データの合成位置を演算して求める位置合わせ手段と、前記撮像装置が撮影した画像の中の前記3次元オブジェクトの画像に代えて前記合成位置に前記変形された前記仮想物データを合成する合成手段とを備えることを特徴とする。
本発明の拡張現実映像の提示方法は、表面にシート状の触覚センサが設けられた3次元オブジェクトを撮像装置で撮影し、前記3次元オブジェクトの形状に対応する仮想物データを前記触覚センサの検出信号により変形させ、前記撮像装置が撮影した画像の中における前記仮想物データの合成位置を演算して求め、前記撮像装置が撮影した画像の中の前記3次元オブジェクトの画像に代えて前記合成位置に前記変形された前記仮想物データを合成することを特徴とする。
本発明によれば、仮想データを合成するときの位置合わせ精度が向上し、視覚と触覚とが一致した違和感のない臨場感の優れた拡張現実映像をユーザに提供できる。
本発明の一実施形態に係る拡張現実映像提示装置の機能ブロック構成図である。 図1に示すモックアップの説明図である。 図2に示すIII―III線位置におけるモックアップの断面図である。 図3に示す回路シートの説明図である。 図4に示すシフトレジスタとADコンバータから求めたデータの説明図である。 モックアップの変形シミュレーションの結果を示す図である。 仮想物データの変形説明図である。 図1に示す位置合わせ部の説明図である。 図1に示す合成部の説明図である。 位置合わせ演算の基本原理図である。 位置合わせ演算の概要説明図である。 回転行列の求め方の説明図である。 並進ベクトルの求め方の説明図である。
以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本発明の一実施形態に係る拡張現実映像提示装置の機能ブロック説明図である。本実施形態の拡張現実映像提示装置10は、モックアップ(実物製品の外観にそっくりに似せた3次元オブジェクトの模型:物体の物理モデル)11と、各種製品に対応したモックアップの仮想物データを格納した仮想物データベース12と、パーソナルコンピュータ13と、モックアップ11の画像を撮影する撮像装置14と、モニタ装置15とで構成される。パーソナルコンピュータ13は、変形部17と、位置合わせ部18と、合成部19とで構成させる。
変形部17は、モックアップ11に対応する仮想物データをデータベース12から取り出して、当該モックアップ11の三次元コンピュータグラフィックス(3DCG)画像を生成する機能を有する。また、変形部17は、生成された3DCG画像の形状を変形させる機能も有する。この変形は、モックアップ11から出力される圧力データに応じて行われ、モックアップ11上の圧力がかかっている位置(図示の例では指で押されている箇所)において、圧力の大きさ,圧力の方向に応じて変形量を大きくする。
位置合わせ部18は、撮像装置14から送られてくるモックアップ11の撮影画像(実映像)を解析し、実映像の中の実際のモックアップ11の画像に変えて、変形部17で変形された3DCD画像を填め込む位置を、詳細は後述するように求める。
なお、図1には、指で押されて変形されたモックアップ11を図示しているが、これは指で押された箇所のモックアップ11の断面を図示しているためであり、側面からモックアップ11を撮影した場合、変形して凹形状となった部分の精確な位置は、後述するように算出しないと分からない。
合成部19は、撮像装置14の撮影画像の中のモックアップ11の部分の実映像を、3DCD画像に置き換えて拡張現実映像を生成し、これをモニタ装置15に表示させる。
図2は、モックアップ11の一例を示す斜視図であり、図3は、図2のIII―III線位置の断面図である。図示する例のモックアップは直方体であるが、最表面(図示する例では上面のみ)に感圧シート(本実施形態の触覚センサ)21が貼り付けられており、その下に回路シート22が貼り付けられている。モックアップ11の側面には、後述の段落〔0031〕で説明する様に、撮像装置14で撮影されるドットパターン23が印字されている。
感圧シート21は、感圧ゴム等のフレキシブルな導電性素材を用いて形成され、圧力検知用の微弱電流が流される。この感圧シート21に外力が加わったとき、外力(圧力)を検知した箇所で圧力レベルに応じた電圧を発生する。
感圧シート21の下部に敷かれた回路シート22には、多数の有機トランジスタ等で構成される回路がアレイ状に配列形成されており、感圧シート21が電圧を発生したとき該発生箇所の有機トランジスタ回路等が電圧の大きさに応じた電気信号を発生する。
感圧シート21が電圧を発生したとき、電圧を感知した有機トランジスタ回路の配列位置が圧力印加箇所となり、電圧レベルがモックアップ11に加わった外力の大きさ(圧力レベル)となる。また、1つの有機トランジスタ回路が圧力を検知するのではなく、その周りの複数の有機トランジスタ回路も圧力を検出するため、その圧力分布を見れば、圧力が加わった方向も検知可能となる。
図4は、回路シート22の説明図である。回路シート22には、多数の有機トランジスタ回路を指定するシフトレジスタ25と、シフトレジスタ25によって指定された有機トランジスタ回路の出力信号をデジタルデータに変換するADコンバータ26とが設けられている。
シフトレジスタ25は、回路シート22に設けられた有機トランジスタ回路を指定し、ADコンバータ26は指定された有機トランジスタ回路の出力信号を順にデジタルの圧力データに変換して図1の変形部17に出力し、変形部17は、次の有機トランジスタ回路を指定するようにシフトレジスタ26に指示する。
図5は、図4で説明したシフトレジスタ25とADコンバータ26とから求められたデータの説明図である。圧力データは、圧力データに応じた電圧値を出力した有機トランジスタ回路の位置データ(圧力印加箇所のx座標,y座標)と、各有機トランジスタ回路の出力電圧値とで構成される。
圧力データの検出に際して感圧シート21に流す電流量は、予め決められているため、感圧シート21の抵抗値は自ずと求められる。感圧シート21のF―R特性(圧力と抵抗値の関係)は素材によって決まるため、抵抗値より圧力を一意に求めることができる。
以上により、位置(x,y)における圧力の大きさを求めることができ、全ての有機トランジスタ回路の出力データを読み出すことで、圧力の面分布を計測することが可能となる。
変形部17は、取得した圧力データを基に、有限要素法等の手法にてモックアップ11の形状変形をシミュレートし、例えば図6(a)に示す様なシミュレーション結果に基づいて、図6(b)に示す様に、仮想物データ(3DCD画像)を変形させる。
図7は、仮想物データの変形説明図である。図7(a)の変形させた仮想物データ31に対して、図7(b)に示す様に、図示する例では3種類の大きさのドットをランダム配置したドットパターン32を付与し、仮想カメラ33(仮想世界で仮想物データ31を撮影するカメラ)で仮想物データ31を予め決められた撮影地点(複数地点でも可)から撮影(画像平面上に射影)する。仮想カメラ33で撮影された図7(c)に示す画像33は、テンプレート画像34として登録される。
図8は、位置合わせ部18の説明図である。実物の図2に示すモックアップ11には、3種類の大きさのドットパターン23が、ランダムに、予め決められた値の中心間距離に従って配置されている。一旦配置されたドットパターン23の大きさと位置の関係は、位置合わせ部18に記録されている。これにより、ドットパターン23の一部が撮像装置14から隠れた位置に来ても、隠れたドットパターンを認識できる。また、ドットパターン23がどの形状のモックアップに付与されたドットパターンであるかを個別に認識できる。
位置合わせ部18に記録されているドットパターン23の条件を基に、図7の仮想カメラ33で撮影するテンプレート画像34が生成される。テンプレート画像34は、モックアップ11に印字されているドットパターン23に対応する同一配列のドットパターン33を仮想物データ31に付与し、予め決められた方向の面に射影変換することで生成される。
もし、モックアップ11が変形した場合は、変形部17から位置合わせ部18に、変形された仮想物データ31が送信され、変形された仮想物データ31よりテンプレート画像34が再生成される。
位置合わせ部18では、テンプレート画像34と、図1の撮像装置14で撮影されたモックアップ11の実映像とを次の様に比較する。先ず、認識された複数のドットパターンのうち、任意の四角形が形成されるような4点を任意に選択する(同一直線上に2点のみ存在するように選べば良い。)。テンプレート画像34上に形成された四角形は位置合わせ用のマーカとなり、マーカ・カメラ間の後述する座標変換行列を求める際に用いられる。
そして、現実世界の撮像装置14で撮影されたモックアップ11のドットパターン23の実映像から、テンプレート画像34上のマーカを検出する。この検出は、複数のドットパターンの大きさや位置の相対関係から判断することができる。即ち、大中小のドットパターンの配列や相対関係からマーカとする4点のドットを検出することができる。
マーカ・カメラ間の座標変換行列を求める際は、テンプレート画像34だけでなく、マーカの向かい合う2辺が成す角度,各辺の長さについても用いられる。また、マーカ自体は点の数だけ組み合わせが増えるため、複数パターンのマーカが生成できる。複数のマーカについて、各々位置合わせ演算を行い、結果を平均化することで、位置合わせ精度を高めることも可能である。これにより、マーカが歪んだ場合でも精度の高い位置合わせが可能となる。
図9は、合成部19における合成処理の説明図である。詳細は後述するようにして位置合わせ演算を行った結果、仮想カメラ33の撮影パラメータ(カメラ画角,撮影位置,カメラの姿勢等)が決定される。そこで、図9(a)に示す仮想物データ31を、この撮影パラメータに基づき、仮想カメラ33で撮影して、図9(b)の仮想物データ映像31aを求める。
そして、図9(c)に示す様に、指37で現実のモックアップ11を押した実映像の中のモックアップ11の画像を、図9(d)に示す様に、仮想物データの映像31aに置き換えて、図1のモニタ装置15に表示する。これにより、位置が合った拡張現実映像をユーザに提供でき、図9(d)の仮想物データ31aの色や質感等をユーザの希望通りに任意に変更可能となる。
この様に、ランダム配列したドットパターンを用い、仮想世界のドットパターンと現実世界のドットパターンとの対応関係から位置合わせ演算を行うため、モックアップ11が変形しても精度の高い位置合わせが可能となる。
図10は、位置合わせ演算の基本原理図である。カメラ(図1の撮像装置14)で撮影した現実の風景に仮想物(3DCG)を合成する際には、
(a)現実世界と仮想物が存在する仮想世界との位置合わせを行い、
(b)仮想空間上で仮想物を撮影するカメラ33の特性(焦点距離や画角)を、現実世界を撮影するカメラ14の特性とを正確に一致させる
ことで、カメラの動きに連動して様々な位置や角度から、仮想物を現実の風景と同様の位置関係,遠近感で観察することができる。カメラの特性値については、事前に取得しておくことで対応できる。
図11は、位置合わせ演算の概要説明図である。位置合わせ演算は、図10で説明した特性を持つカメラに対する現実座標系のマーカの位置,姿勢を求め、マーカ側の現実座標系を、カメラ側の座標系に変換する座標変換を行い、更にカメラ側の座標系を撮影画像の座標系(画像平面の座標系)に射影変換することで完了する。
カメラ座標系を、
マーカ座標系を、
とし、カメラ・マーカ間の座標変換を、次の数3の式で定義する。ここで、数3中のTcmを座標変換行列と呼ぶ。
更に、画像座標系を
とした場合、カメラ座標系から画像座標系への射影変換を次の数5で定義する。
ここで、hはスカラである。行列Pはカメラの特性値であり、既知のパラメータである。数5より、画像座標系とカメラ座標系の関係式は次の数6となる。
数3と数6により、現実座標系を画像座標系に変換することができる。ここで、数3の座標変換行列Tcmは未知のパラメータである。Tcmは、回転行列R3×3と並進ベクトルT3×1とからなり、R3×3とT3×1はマーカを用いた以後の演算によって求められる。
図12は、回転行列R3×3の求め方の説明図である。図示するように、マーカとなる四角形の4点を通る4本の直線を、各々l,l,l,lと定義する。その後、向かい合う2つの辺の組(例えばlとl)について以下の数7で定義する。
この数7を数6に代入すると、次の数8が得られる。
ここで、S,Sは、図12に示す様に、画像平面に写ったマーカの辺とカメラの焦点を通る面を意味する。面S,Sの法線ベクトルn,nは、次の数9で表される。
ここで、lとlに対応する空間中のマーカの辺の方向ベクトルをVとおくと、Vはn,nの外積によって、次の数10に示す様に、与えられる。
上記と同様に、直線l,lについて方向ベクトルVを計算する。Vに対するVの垂直成分V2yを正規化したものを新しくVと規定する。この後、VとVの直交する方向ベクトルVを次の数11の様に計算する。
以上のV,V,Vはマーカの姿勢を表しており、これらを数12の様に並べたものが、回転行列である。
この様に、本実施形態では、l,l,l,lから回転ベクトルを求めるのに際して、マーカとする任意の4点を使い計算することを特徴としている。
図13は、並進ベクトルT3×1の求め方の説明図である。マーカの4つの頂点の3次元座標を、次の数13で表し、
画像平面に写ったマーカの4つの頂点の2次元座標を、次の数14で表すと、
数3と数5より、次の数15が成り立つ。
マーカの1辺の長さは既知であるため、Mi(i=1〜4)の座標は算出できる。また、回転後のマーカの頂点座標を次の数16の様に置く。
数16を基に、数15を展開し、整理すると、次の数17の様になる。
この数17を解くと、並進ベクトルが数18の様に求められる。
ここで、数18中のAとbは、次の数19で表される。
数17は、最小2乗法によって解を得ることができ、数20で表される。
以上の計算により、次の数21で表される並進ベクトルT3×1が求められる。
以上の様にしてマーカを用いて算出された回転ベクトルR3×3,並進ベクトルT3×1を用い、数3の座標変換行列Tcmを求めることで、精度の高い位置合わせを行うことが可能となる。
以上述べた実施形態の拡張現実映像の提示装置及び提示方法は、表面にシート状の触覚センサが設けられた3次元オブジェクトを撮像装置で撮影し、前記3次元オブジェクトの形状に対応する仮想物データを前記触覚センサの検出信号により変形させ、前記撮像装置が撮影した画像の中における前記仮想物データの合成位置を演算して求め、前記撮像装置が撮影した画像の中の前記3次元オブジェクトの画像に代えて前記合成位置に前記変形された前記仮想物データを合成することを特徴とする。
また、実施形態の拡張現実映像の提示装置及び提示方法は、前記3次元オブジェクトの表面にドットパターンが付与されていることを特徴とする。
また、実施形態の拡張現実映像の提示装置及び提示方法は、前記ドットパターンと同じドットパターンを前記仮想物データの表面に仮想的に付与した該仮想物データの平面画像と前記3次元オブジェクトの前記撮像装置による撮像画像との間の両ドットパターンの対応関係から前記合成位置を算出することを特徴とする。
また、実施形態の拡張現実映像の提示装置及び提示方法は、前記ドットパターンのうちの任意の4点の四角形をマーカとして選択し前記仮想物データの前記平面画像中のマーカと前記撮像画像中のマーカとの対応関係から前記合成位置を算出することを特徴とする。
また、実施形態の拡張現実映像の提示装置及び提示方法は、前記4点のマーカの選択を複数回行い夫々で位置合わせ演算を行い、演算結果の平均値を前記合成位置とすることを特徴とする。
以上述べた実施形態によれば、仮想データを合成するときの位置合わせ精度が向上し、視覚的にも触覚的に違和感のない臨場感の優れた拡張現実映像をユーザに提供できる。
本発明に係る拡張現実映像提示装置及び提示方法は、仮想物表示位置の高精度な位置合わせを行うことができるため、視覚的にも触覚的に違和感のない臨場感の優れた拡張現実映像の提示装置として有用である。
10,40 拡張現実映像提示装置
11 モックアップ(オブジェクト)
13 コンピュータ
14 撮像装置
15 モニタ装置
17 変形部
18 位置合わせ部
19 合成部
21 感圧シート
22 回路シート
23,32 ドットパターン(幾何学パターン)
31 仮想物データ
33 仮想カメラ
34 テンプレート画像

Claims (10)

  1. 表面にシート状の触覚センサが設けられた3次元オブジェクトを撮影する撮像装置と、前記3次元オブジェクトの形状に対応する仮想物データを前記触覚センサの検出信号により変形させる変形手段と、前記撮像装置が撮影した画像の中における前記仮想物データの合成位置を演算して求める位置合わせ手段と、前記撮像装置が撮影した画像の中の前記3次元オブジェクトの画像に代えて前記合成位置に前記変形された前記仮想物データを合成する合成手段とを備える拡張現実映像の提示装置。
  2. 請求項1に記載の拡張現実映像の提示装置であって、前記3次元オブジェクトの表面にドットパターンが付与されている拡張現実映像の提示装置。
  3. 請求項2に記載の拡張現実映像の提示装置であって、前記位置合わせ手段は、前記ドットパターンと同じドットパターンを前記仮想物データの表面に仮想的に付与した該仮想物データの平面画像と前記3次元オブジェクトの前記撮像装置による撮像画像との間の両ドットパターンの対応関係から前記合成位置を算出する拡張現実映像の提示装置。
  4. 請求項3に記載の拡張現実映像の提示装置であって、前記ドットパターンのうちの任意の4点の四角形をマーカとして選択し前記仮想物データの前記平面画像中のマーカと前記撮像画像中のマーカとの対応関係から前記合成位置を算出する拡張現実映像の提示装置。
  5. 請求項4に記載の拡張現実映像の提示装置であって、前記4点のマーカの選択を複数回行い夫々で位置合わせ演算を行い、演算結果の平均値を前記合成位置とする拡張現実映像の提示装置。
  6. 表面にシート状の触覚センサが設けられた3次元オブジェクトを撮像装置で撮影し、前記3次元オブジェクトの形状に対応する仮想物データを前記触覚センサの検出信号により変形させ、前記撮像装置が撮影した画像の中における前記仮想物データの合成位置を演算して求め、前記撮像装置が撮影した画像の中の前記3次元オブジェクトの画像に代えて前記合成位置に前記変形された前記仮想物データを合成する拡張現実映像の提示方法。
  7. 請求項6に記載の拡張現実映像の提示方法であって、前記3次元オブジェクトの表面にドットパターンが付与されている拡張現実映像の提示方法。
  8. 請求項7に記載の拡張現実映像の提示方法であって、前記ドットパターンと同じドットパターンを前記仮想物データの表面に仮想的に付与した該仮想物データの平面画像と前記3次元オブジェクトの前記撮像装置による撮像画像との間の両ドットパターンの対応関係から前記合成位置を算出する拡張現実映像の提示方法。
  9. 請求項8に記載の拡張現実映像の提示方法であって、前記ドットパターンのうちの任意の4点の四角形をマーカとして選択し前記仮想物データの前記平面画像中のマーカと前記撮像画像中のマーカとの対応関係から前記合成位置を算出する拡張現実映像の提示方法。
  10. 請求項9に記載の拡張現実映像の提示方法であって、前記4点のマーカの選択を複数回行い夫々で位置合わせ演算を行い、演算結果の平均値を前記合成位置とする拡張現実映像の提示方法。
JP2010118288A 2010-05-24 2010-05-24 拡張現実映像の提示装置及び提示方法 Pending JP2011248443A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010118288A JP2011248443A (ja) 2010-05-24 2010-05-24 拡張現実映像の提示装置及び提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010118288A JP2011248443A (ja) 2010-05-24 2010-05-24 拡張現実映像の提示装置及び提示方法

Publications (1)

Publication Number Publication Date
JP2011248443A true JP2011248443A (ja) 2011-12-08

Family

ID=45413664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010118288A Pending JP2011248443A (ja) 2010-05-24 2010-05-24 拡張現実映像の提示装置及び提示方法

Country Status (1)

Country Link
JP (1) JP2011248443A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182717A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 情報処理装置、情報処理システム及びプログラム
JP2016528775A (ja) * 2013-07-03 2016-09-15 スネクマ モニタリングのための拡張現実方法およびシステム
WO2017049603A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Extended user touch input
JP2017134851A (ja) * 2017-03-08 2017-08-03 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
CN109598798A (zh) * 2012-12-14 2019-04-09 韩国电子通信研究院 虚拟物拟合方法及虚拟物拟合服务系统
CN110415358A (zh) * 2019-07-03 2019-11-05 武汉子序科技股份有限公司 一种实时三维跟踪方法
WO2022230264A1 (ja) * 2021-04-26 2022-11-03 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598798A (zh) * 2012-12-14 2019-04-09 韩国电子通信研究院 虚拟物拟合方法及虚拟物拟合服务系统
CN109598798B (zh) * 2012-12-14 2023-11-28 韩国电子通信研究院 虚拟物拟合方法及虚拟物拟合服务系统
JP2014182717A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 情報処理装置、情報処理システム及びプログラム
JP2016528775A (ja) * 2013-07-03 2016-09-15 スネクマ モニタリングのための拡張現実方法およびシステム
WO2017049603A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Extended user touch input
US10156928B2 (en) 2015-09-25 2018-12-18 Intel Corporation Extended user touch input
JP2017134851A (ja) * 2017-03-08 2017-08-03 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
CN110415358A (zh) * 2019-07-03 2019-11-05 武汉子序科技股份有限公司 一种实时三维跟踪方法
WO2022230264A1 (ja) * 2021-04-26 2022-11-03 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
EP3067861B1 (en) Determination of a coordinate conversion parameter
JP2011248443A (ja) 拡張現実映像の提示装置及び提示方法
JP4401727B2 (ja) 画像表示装置及び方法
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
JP3944019B2 (ja) 情報処理装置および方法
US20110210970A1 (en) Digital mirror apparatus
JP2011521318A (ja) インタラクティブな仮想現実画像生成システム
CN108492017B (zh) 一种基于增强现实的产品质量信息传递方法
JP2009276996A (ja) 情報処理装置、情報処理方法
Park et al. Design evaluation of information appliances using augmented reality-based tangible interaction
Fujimoto et al. Geometrically-correct projection-based texture mapping onto a deformable object
US10424225B2 (en) Method for ultrasound training with a pressure sensing array
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
CN112912936A (zh) 混合现实系统、程序、移动终端装置和方法
KR20140077029A (ko) 복강경 수술용 시뮬레이션 장치 및 방법
JP5597087B2 (ja) 仮想物体操作装置
Valentini Natural interface in augmented reality interactive simulations: This paper demonstrates that the use of a depth sensing camera that helps generate a three-dimensional scene and track user's motion could enhance the realism of the interactions between virtual and physical objects
Costa et al. Augmented reality behind the wheel-human interactive assistance by mobile robots
JP2010204759A (ja) 三次元像表示装置の座標校正方法
JP6210447B2 (ja) 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法
TWI564841B (zh) 即時影像合成裝置、方法與電腦程式產品
JP2019046096A (ja) 情報処理装置及びその方法
Hsu et al. HoloTabletop: an anamorphic illusion interactive holographic-like tabletop system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111216

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20121005