JP4834424B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP4834424B2 JP4834424B2 JP2006058366A JP2006058366A JP4834424B2 JP 4834424 B2 JP4834424 B2 JP 4834424B2 JP 2006058366 A JP2006058366 A JP 2006058366A JP 2006058366 A JP2006058366 A JP 2006058366A JP 4834424 B2 JP4834424 B2 JP 4834424B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor
- observer
- orientation
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
前記センサの計測範囲の内外を移動可能な観察者の、前記測定範囲内における位置を前記センサによって計測した、複数の計測位置を入力する計測位置入力手段と、
前記計測位置入力手段によって入力された前記複数の計測位置のうち、前記観察者が前記センサの計測範囲外に移動する直前に計測された計測位置を、境界計測位置として記録する境界計測位置記録手段と、
前記記録された境界計測位置に基づいて、前記センサの計測範囲を示す仮想物体の3次元モデルを生成するモデル生成手段と、
前記入力されたセンサの位置姿勢に基づいて、前記現実空間に対応する仮想空間に前記生成した3次元モデルを配置するモデル配置手段と、
前記観察者が前記センサの計測範囲外に存在するときの前記観察者の視点の位置姿勢を入力する視点位置姿勢入力手段と、
前記観察者の視点の位置姿勢に基づいて、前記3次元仮想モデルが配置された前記仮想空間の画像を生成する仮想画像生成手段と、
前記仮想空間の画像を前記観察者に提示する提示制御手段と、
を有することを特徴とする情報処理装置。
以下、添付図面を参照して本発明をその好適な実施形態に基づき詳細に説明する。
第1の実施形態に係る画像合成装置の一例は、センサに取り付けたマーカに基づいてセンサの位置情報を取得し、その位置にセンサの計測範囲を3次元CGのモデルデータを用いて重畳表示して、センサの計測範囲を可視化する。なお、計測範囲を可視化するための3次元CGのモデルデータは、センサの仕様による計測範囲に対応したモデルデータであっても良いし、経験によって得られる計測範囲でも良い。また、モデルデータの表示方法も特に制限はなく、そのまま出力しても良いし、透明度の設定を行って表示するなどしても良い。
図1は、本実施形態における画像合成装置の構成例を示すブロック図である。また、図2は図1の画像合成装置を複合現実感アプリケーションに適用した場合の具体的な機器配置と、観察者が体感する複合現実感を模式的に示す図である。
本実施形態においては、上で説明した画像合成装置を用いて、位置姿勢センサの計測範囲を可視化することを特徴とする。
図3は本実施形態における位置姿勢センサの計測範囲可視化を模式的に示す図である。観察者201は例えばHMD108に取り付けられたビデオカメラ101により、一対のセンサ301に取り付けた2次元マーカ205を撮像する。そして、予め用意したセンサ301の計測範囲の3次元モデルデータを仮想空間データベース106より読み出し、センサ301の計測範囲を表すCG画像302を視点位置姿勢算出部104が算出する観察者の視点位置姿勢に基づいて生成する。このCG画像302をカメラ101で撮影した実写画像と合成してHMD108に表示することで、観察者にセンサ301の計測範囲を提示する。
本実施形態において用いることができる、センサの計測範囲の3次元モデルの作成方法としては、様々な方法が考えられる。
まず、センサの仕様に基づき計測範囲の3次元モデルを作成する方法を説明する。
位置姿勢センサが光学センサの場合は、図9に示されるような対象機種の仕様に基づき、計測範囲の寸法をコンピュータグラフィックのモデリングソフト上で入力することで、センサの計測範囲の3次元モデルを作成することができる。
また、磁気センサの場合は、対象機種の仕様に記載されている計測範囲の距離を半径とする半球をコンピュータグラフィックのモデリングソフトで作成することにより、センサの計測範囲の3次元モデルを作成することができる。
センサの計測範囲外に出たときにセンサから「センサの計測範囲外」という旨のデータが送られてくる場合は、その直前の座標(X,Y,Z)データを複数取得、格納しておく。そして、格納した座標点を頂点としたポリゴンを生成することで、計測範囲をモデリングすることができる。格納した頂点からポリゴンを生成する方法としては、Marching Cubes法「Lorensen,W.E and Cline H.E, Marching Cubes: A High Resolution 3D Surface Construction Algorithm,ACM computer Graphics,21(3),1987.」などが知られている。
「センサの計測範囲外」という旨のデータが送られてこない場合は、オペレータが予め体験し、その体験結果から計測範囲を示す3次元データを作成する。例えば、磁気センサでは、計測結果から半球の半径を設定し、半球の3次元モデルを作成する。
ここで、本実施形態に係る画像合成装置において重要な機能を果たす視点位置姿勢算出部104の動作について詳細に説明する。視点位置姿勢算出部104の基本的な動作は座標変換である。
本実施形態において、仮想物体206はマーカ座標系401の上で表現される。
撮影画像中のマーカ位置およびマーカ座標系におけるマーカ位置の関係に基づき、マーカ座標系からカメラ座標系への変換行列Tcmを動的に求める。そして、予め求められている、カメラ座標系からHMDスクリーン座標系への変換行列Tscと、変換行列Tcmとに基づき、マーカ座標系で定義されているセンサの計測範囲の3次元モデルを変換して、仮想物体206をHMDスクリーン上に表示する。
図3の実施形態では、配置する2台のセンサの夫々に対してマーカを取り付け、各センサの計測範囲の3次元モデルを独立に管理している。したがって、本実施形態では、以下に示す変換行列の算出を、各マーカに対して行う。
カメラ座標系402は焦点位置を原点、画像平面に垂直な方向をZ軸、画像のx,y軸に平行な方向を各X,Y軸とする。
マーカ座標系401で表現された任意の点(Xm,Ym,Zm)は、回転移動と平行移動の組合せでカメラ座標系402上の点に変換可能であり、カメラ座標系402では(Xc,Yc,Zc)と表記する。
また、複合現実感システムにおいては広範囲における位置計測が要求され、そのためにビデオカメラ101には広角レンズが用いられる。そのため、撮影した画像には樽型歪みが発生する。
S501の前処理では、入力された実写画像に対して、固定閾値による2値化、連結領域ごとの面積・外接長方形計算を行う。本実施形態においては、これらの処理を1パスで行うアルゴリズムを用いることで高速化を図っている。
残された連結領域に対して輪郭線追跡を行い、輪郭線上の画素位置をすべて記憶する。
2次元マーカは、黒い枠の中に識別用のパターン501が設けられた正方形マーカである。なお、本実施形態ではテンプレートマッチングによりマーカ識別を行っているため、中央部の識別用パターンはマーカの方向性(上下左右)が認識できる任意のシンボルを用いることができる。
このテンプレートマッチングを行うためには、画像の正規化を行う必要がある。
式1は、マーカ座標系401のXm−Ym平面内の点(Xm,Ym,0)を、透視変換モデル行列Cによって理想スクリーン座標系403上の点(xc,yc)に変換する変換式である。
そして、縮小画像との類似度sが最大値となるテンプレートの種類と向きを、マーカの種類及び方向と見なす。
ここで、(xc,yc)は理想スクリーン座標系403における座標値、(xd,yd)は観測スクリーン座標系405における座標値である。
まず、マーカ座標系401からカメラ座標系402への変換行列Tcm の推定を行う。
この変換行列は、回転移動成分Rと平行移動成分Tからなる。理想スクリーン座標系403とカメラ座標系402の間は透視変換モデルで変換でき、その具体的な変換行列Pは事前にキャリブレーションにより算出することができる。この透視変換モデルの算出は一般的に利用されている技術であるため、ここでは、その具体的な算出方法の説明は省略する。
S701では、回転移動成分Rの推定を行う。
そして、式5の(xc,yc)をこれに代入すると、式7が得られる。
式4及び式5を結合し、マーカ4頂点のマーカ座標系401での座標値、理想スクリーン座標系403での座標値を代入すると、T1,T2,T3に関する1次方程式が8個得られる。行列P,Rが既知なので、これらの式からT1,T2,T3を計算できる。最後にS703では、変換行列Tcmの修正を行う。
式8は回転行列を回転角で表した式である。
また、本実施形態では、各センサに1つの2次元マーカを使用したが、マーカ間の位置関係が予め定義されている場合は、1つのセンサに対して複数の点マーカを使用することができる。また、同様に複数の2次元マーカを使用することもできる。
また、複合現実感アプリケーションの実行中に、観察者がセンサの計測範囲を把握することを可能とし、正しい範囲内で移動することを可能とする。
第2の実施形態に係る画像合成装置は、位置姿勢センサの設置後、実際に設置した位置姿勢センサの計測値から観察者の頭部の世界座標系における位置姿勢情報を取得する。そして、予め用意した、世界座標系で定義された、センサの計測範囲を表す3次元CGモデルデータを、観察者の視線近傍に配置したカメラから得られる実写画像に重畳表示することによって位置姿勢センサの計測範囲を可視化するものである。
1001は、観察者の視点位置姿勢を検出する位置姿勢センサである。1002は位置姿勢センサ1001の出力に基づき世界座標系をHMDスクリーン座標系406へ変換する変換行列を算出する視点位置姿勢算出部である。画像生成部105は、視点位置姿勢算出部1002で算出された変換行列を用いて、仮想空間データベース1003に格納されている世界座標系で定義されている3次元モデルに基づく仮想物体画像を生成する。
ただし、複合現実感技術の分野では周知であるように、位置姿勢センサの出力値をマーカから得られる情報によって補正することも可能である。
位置姿勢センサ1001で観察者201の視点位置姿勢を検出する。そして、予め用意した、センサ1001の計測範囲を表す3次元CGモデルデータ(本実施形態では世界座標系で記述)と、観察者201に提示するためのCGオブジェクト801の3次元CGモデルデータとを仮想空間データベース1003より読み出す。次に、位置姿勢センサ1001が測定した観察者の視点位置姿勢と、視点位置姿勢算出部1002からの変換行列とから、HMD108のスクリーン座標系406へ投影された3次元CG画像302を生成する。画像合成部107は画像入力部102からの実写画像に画像生成部105からのCG画像302を合成し、HMD108に表示させる。このようにして、観察者にセンサ1001の計測範囲を視認させることができる。
また、複合現実感アプリケーションの実行中に、観察者がセンサの計測範囲を把握することを可能とし、正しい範囲内で移動することを可能とする。
上述の実施形態においては、いずれも観察者にセンサの計測範囲を提示するものであった。しかしながら、画像合成装置のオペレータに、可視化したセンサの計測範囲を提示することも可能である。オペレータ用の操作画面にセンサの計測範囲を可視化することによって、オペレータは観察者とセンサ計測範囲との位置関係を把握することができる。そのため、オペレータが観察者の作業をモニタリングする場合などにおいて、観察者を適切な位置(センサ計測範囲内)に誘導することが可能となる。
また、図8に示すようなCGオブジェクトを動的に観察者に提示させる場合、観察者にとって最も見易い位置に配置させることも可能となる。
第4の実施形態に係る画像合成装置は、観察者の位置姿勢情報を取得するために、位置姿勢センサに加え客観カメラ(第3者の視点位置姿勢から撮影するカメラ)を用いることで、一層高精度に観察者の位置姿勢情報を取得する。また、センサの計測範囲および客観カメラの計測範囲の両方を可視化し、提示する。
1101は、観察者201の視点位置姿勢を精度良く検出するために配置された客観カメラである。客観カメラ1201の位置姿勢は固定かつ既知である。また、観察者201の視点位置姿勢を検出するための目安として、観察者の頭部に、例えばHMDを利用して少なくとも1点、好ましくは複数のマーカを取り付けておく。複数のマーカを取り付ける場合、マーカ間の位置姿勢関係を予め求めておく。客観カメラ1201の撮影した映像は、画像入力部102と同様の画像入力部1102を通じて入力される。
この場合、客観カメラ1201とは別の、オペレータ用の画像(客観画像)を生成するための仮想客観カメラとして第3者の視点位置姿勢を想定し、オペレータに提示する画像を生成、表示すればよい。
上述の実施形態において、センサや客観カメラの計測範囲を観察者およびオペレータに、より効果的に提示するための方法としては、以下の方法を例示できる。例えば、計測範囲を、取得可能な位置姿勢情報の精度に応じて色分けし、グラデーション表示を行う方法。また、視野範囲(計測範囲)を半透明のCGオブジェクトとして描画し、視野範囲同士が重なり合う部分が、CGオブジェクトの色の混合により把握可能なように表示する方法などがある。さらに、シーン中に存在する客観カメラの番号等を、客観カメラの画像に注釈情報として重畳表示するなどして、観察者およびオペレータに提示する方法などもある。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
Claims (12)
- 現実空間に配置されたセンサの位置姿勢を入力するセンサ位置姿勢入力手段と、
前記センサの計測範囲の内外を移動可能な観察者の、前記測定範囲内における位置を前記センサによって計測した、複数の計測位置を入力する計測位置入力手段と、
前記計測位置入力手段によって入力された前記複数の計測位置のうち、前記観察者が前記センサの計測範囲外に移動する直前に計測された計測位置を、境界計測位置として記録する境界計測位置記録手段と、
前記記録された境界計測位置に基づいて、前記センサの計測範囲を示す仮想物体の3次元モデルを生成するモデル生成手段と、
前記入力されたセンサの位置姿勢に基づいて、前記現実空間に対応する仮想空間に前記生成した3次元モデルを配置するモデル配置手段と、
前記観察者が前記センサの計測範囲外に存在するときの前記観察者の視点の位置姿勢を入力する視点位置姿勢入力手段と、
前記観察者の視点の位置姿勢に基づいて、前記3次元仮想モデルが配置された前記仮想空間の画像を生成する仮想画像生成手段と、
前記仮想空間の画像を前記観察者に提示する提示制御手段と、
を有することを特徴とする情報処理装置。 - 前記モデル生成手段が、前記境界計測位置を頂点としたポリゴンを生成することにより、前記計測範囲を示す仮想物体の3次元モデルを生成することを特徴とする請求項1に記載の情報処理装置。
- 前記現実空間を前記観察者の視線方向に撮像した撮像画像を入力する画像入力手段を更に有することを特徴とする請求項1又は2に記載の情報処理装置。
- 前記画像入力手段が、前記現実空間を、前記センサに配置された指標がふくまれるように前記観察者の視線方向に撮像した撮像画像を入力し、
前記センサ位置姿勢入力手段が、前記撮像画像中の前記指標の画像に基づいて算出された前記センサの位置姿勢を入力することを特徴とする請求項3に記載の情報処理装置。 - 前記画像入力手段が、前記現実空間を、前記センサとは異なる物体に配置された指標を含むように前記観察者の視線方向に撮像した撮像画像を入力し、
前記モデル配置手段が、前記入力されたセンサの位置姿勢に代えて、前記センサとは異なる物体に配置された前記指標の画像に基づいて計算された位置姿勢に基づいて、前記現実空間に対応する仮想空間に前記生成した3次元モデルを配置することを特徴とする請求項3に記載の情報処理装置。 - 前記画像入力手段が、前記現実空間を、前記現実空間に配置された指標を含むように前記観察者の視線方向に撮像した撮像画像を入力し、
前記視点位置姿勢入力手段が、前記撮像された指標の画像に基づいて算出された前記観察者の視点の位置姿勢を入力することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 - 前記撮像画像と前記仮想空間の画像とを合成した合成画像を生成する合成手段を更に有し、
前記提示制御手段が、前記合成画像を前記観察者に提示させることにより、前記仮想空間の画像を前記観察者に提示することを特徴とする請求項3乃至6の何れか1項に記載の情報処理装置。 - 前記センサが磁気センサであることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
- 前記センサは複数あり、
前記境界計測位置記録手段が、前記複数のセンサの各々について前記境界計測位置を記録し、
前記モデル生成手段が、前記複数のセンサの各々について前記計測範囲を示す3次元モデルを生成し、
前記モデル配置手段が、前記複数のセンサの各々についての3次元モデルを配置し、
前記仮想画像生成手段が、前記3次元モデルごとに異なる色を有する前記仮想空間の画像を生成することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。 - 前記仮想画像生成手段が、複数の3次元モデルが互いに重なる部位の色を、当該複数の3次元モデルが互いに重ならない部位とは異ならせて前記仮想空間の画像を生成することを特徴とする請求項9に記載の情報処理装置。
- コンピュータを、請求項1乃至10の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
- 情報処理装置が行う情報処理方法であって、
前記情報処理装置が有するセンサ位置姿勢入力手段が、現実空間に配置されたセンサの位置姿勢を入力するセンサ位置姿勢入力工程と、
前記情報処理装置が有する計測位置入力手段が、前記センサの計測範囲の内外を移動可能な観察者の、前記計測範囲内における位置を前記センサによって計測した、複数の計測位置を入力する計測位置入力工程と、
前記情報処理装置が有する境界計測位置記録手段が、前記計測位置入力工程で入力された前記複数の計測位置のうち、前記観察者が前記センサの計測範囲外に移動する直前に計測された計測位置を、境界計測位置として記録する境界計測位置記録工程と、
前記情報処理装置が有するモデル生成手段が、前記記録された境界計測位置に基づいて、前記センサの計測範囲を示す仮想物体の3次元モデルを生成するモデル生成工程と、
前記情報処理装置が有するモデル配置手段が、前記入力されたセンサの位置姿勢に基づいて、前記現実空間に対応する仮想空間に前記生成した3次元モデルを配置するモデル配置工程と、
前記情報処理装置が有する視点位置姿勢入力手段が、前記観察者が前記センサの計測範囲外に存在するときの前記観察者の視点の位置姿勢を入力する視点位置姿勢入力工程と、
前記情報処理装置が有する仮想画像生成手段が、前記観察者の視点の位置姿勢に基づいて、前記3次元モデルが配置された前記仮想空間の画像を生成する仮想画像生成工程と、
前記情報処理装置が有する提示制御手段が、前記仮想空間の画像を前記観察者に提示する提示制御工程と
を有することを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006058366A JP4834424B2 (ja) | 2006-03-03 | 2006-03-03 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006058366A JP4834424B2 (ja) | 2006-03-03 | 2006-03-03 | 情報処理装置、情報処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007233971A JP2007233971A (ja) | 2007-09-13 |
JP2007233971A5 JP2007233971A5 (ja) | 2009-04-16 |
JP4834424B2 true JP4834424B2 (ja) | 2011-12-14 |
Family
ID=38554461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006058366A Expired - Fee Related JP4834424B2 (ja) | 2006-03-03 | 2006-03-03 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4834424B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2045774B1 (en) | 2007-10-05 | 2016-05-04 | Sony Computer Entertainment Europe Ltd. | Homography estimation from multithreshold edges of a feature |
US8397181B2 (en) * | 2008-11-17 | 2013-03-12 | Honeywell International Inc. | Method and apparatus for marking a position of a real world object in a see-through display |
JP4971483B2 (ja) | 2010-05-14 | 2012-07-11 | 任天堂株式会社 | 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法 |
JP5647443B2 (ja) * | 2010-06-21 | 2014-12-24 | 任天堂株式会社 | 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法 |
EP2395474A3 (en) | 2010-06-11 | 2014-03-26 | Nintendo Co., Ltd. | Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method |
JP6529160B2 (ja) * | 2015-05-22 | 2019-06-12 | Kddi株式会社 | Ar情報表示装置 |
JP6641122B2 (ja) * | 2015-08-27 | 2020-02-05 | キヤノン株式会社 | 表示装置及び情報処理装置及びその制御方法 |
JP6491574B2 (ja) * | 2015-08-31 | 2019-03-27 | Kddi株式会社 | Ar情報表示装置 |
JP6819636B2 (ja) * | 2018-03-16 | 2021-01-27 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び表示プログラム |
JP7099052B2 (ja) * | 2018-05-29 | 2022-07-12 | オムロン株式会社 | シミュレーション装置、シミュレーション方法およびプログラム |
WO2022202016A1 (ja) * | 2021-03-26 | 2022-09-29 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、記憶媒体 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1184307A (ja) * | 1997-09-01 | 1999-03-26 | M R Syst Kenkyusho:Kk | 頭部装着型の光学装置 |
JP3363861B2 (ja) * | 2000-01-13 | 2003-01-08 | キヤノン株式会社 | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
JP4262011B2 (ja) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | 画像提示方法及び装置 |
JP4393169B2 (ja) * | 2003-12-04 | 2010-01-06 | キヤノン株式会社 | 複合現実感提示方法および装置 |
-
2006
- 2006-03-03 JP JP2006058366A patent/JP4834424B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007233971A (ja) | 2007-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4434890B2 (ja) | 画像合成方法及び装置 | |
JP4834424B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101761751B1 (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
CN108780586B (zh) | 图像处理方法、显示设备和检查系统 | |
JP4137078B2 (ja) | 複合現実感情報生成装置および方法 | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
CN107735016B (zh) | 用于扫描解剖结构且用于显示扫描结果的系统和方法 | |
JP3991020B2 (ja) | 画像表示方法及び画像表示システム | |
JP4065507B2 (ja) | 情報提示装置および情報処理方法 | |
JP6712453B2 (ja) | 拡張現実提供システム及び方法、情報処理装置、並びにプログラム | |
US20050253870A1 (en) | Marker placement information estimating method and information processing device | |
JP3910239B2 (ja) | 医用画像合成装置 | |
JP2006267879A (ja) | 画像処理方法、画像処理装置、マーカ | |
JP2018081410A (ja) | コンピュータープログラム | |
JP2005174021A (ja) | 情報提示方法及び装置 | |
JP2008146108A (ja) | 指標、画像処理装置、画像処理方法 | |
JP2006012042A (ja) | 画像生成方法及び装置 | |
JP2021009557A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20220175485A1 (en) | Method for operating a visualization system in a surgical application, and visualization system for a surgical application | |
JP4366165B2 (ja) | 画像表示装置及び方法並びに記憶媒体 | |
KR20190048810A (ko) | 증강현실용 컨텐츠 제공 장치 및 방법 | |
JP2008040913A (ja) | 情報処理方法、情報処理装置 | |
KR20200056688A (ko) | 증강 현실을 이용한 구조물 품질검사 시스템 및 방법 | |
JP2015121892A (ja) | 画像処理装置、画像処理方法 | |
Lin | Lightweight and Sufficient Two Viewpoint Connections for Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090303 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090303 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110916 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110926 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4834424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140930 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |