JP2006285788A - 複合現実感情報生成装置および方法 - Google Patents
複合現実感情報生成装置および方法 Download PDFInfo
- Publication number
- JP2006285788A JP2006285788A JP2005106793A JP2005106793A JP2006285788A JP 2006285788 A JP2006285788 A JP 2006285788A JP 2005106793 A JP2005106793 A JP 2005106793A JP 2005106793 A JP2005106793 A JP 2005106793A JP 2006285788 A JP2006285788 A JP 2006285788A
- Authority
- JP
- Japan
- Prior art keywords
- image
- mixed reality
- information
- orientation
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Abstract
【解決手段】 複合現実感に特有の位置姿勢計測に係る構成とアプリケーション70を分離して共に独立に動作するように構成し、その間のデータの受け渡しは共有メモリ60やプロセス間通信を利用する。これにより、アプリケーション70を変更したり再コンパイルすることなく、センサの種類や位置合わせ方法の変更といった、位置姿勢計測に関連する構成の変更に対応することができる。
【選択図】 図1
Description
以下に説明する実施形態は、複合現実感(MR)システムに特有な位置姿勢計測部分と、計測した位置姿勢を利用するアプリケーションとを分離して共に実行形式のモジュールで構成し、その間のデータの受け渡しは共有メモリやプロセス間通信を利用することを特徴とする。このような構成により、位置姿勢計測部分に変更があってもアプリケーションプログラムを変更する必要がなくなり、従来必要だったソースコードの修正、再コンパイルの手間及び時間を省くことができる。なお、本明細書中で”MR”と記述した場合は、拡張現実感(Augumented Reality:AR)を含むものとする。
以下、本願発明の第1の実施形態に係る複合現実感情報生成装置の図を参照しながら詳細に説明する。なお、「複合現実感情報」とは、複合現実感システムの実現に必要な計測情報を意味し、少なくとも計測対象物の位置及び/又は姿勢に関する情報を含み、必要に応じて実写映像、マスク情報を含む。
図において、撮像部10は、アナログ方式のカメラあるいはIEEE1394・USB等のインタフェースを備えたデジタルカメラ等で構成され、撮像した画像情報105を出力する。通常撮像部10はHMDなどユーザが頭部に装着する装置に装着された2つのカメラから構成され、右目用、左目用の現実空間画像を撮像する。なお、図面及び以下の説明では特に明示しないが、右目用、左目用の2系統で処理が行われるものとする。
このシステムは、車の簡易モックアップ(運転席に座った際に見える範囲のモックアップ)を利用して、観察者が装着したHMD(センシング部20としての磁気センサ及び撮像部10としてのカメラを内蔵)に、HMD内蔵カメラで撮影した実写映像とCGで作成したインパネの映像とを合成・表示することにより、あたかも本物の車に乗っている・触っているような感覚で車両内部のデザイン評価を行うことを可能にするものである。
画像認識部310は画像情報105から位置の指標(例えば予め定めた色や形を有する領域)を検出する。位置姿勢計測部320は、センシング部20からの計測情報106を基準座標系における位置姿勢を表す4x4の行列に変換する。位置姿勢補正部330は、画像認識部310が出力する指標情報110に応じて計測情報106を補正し、位置・姿勢情報108として出力する。
画像認識部310は、撮像部10により撮像された画像中、画素色の赤の比率を表す
R/{(G+B)/2} (式1)
を用いて、特徴量ISを算出し、特徴量ISがあらかじめ指定した閾値を超えた場合は、注目画素が指標領域内であると判定する。これを、撮像画像の全ての画素に対して適応し、検出された特徴領域は、個々にラベル付けされる。ラベル付けされた領域の重心位置を指標の2次元位置とし、観測画像座標系における指標位置(xj、yj)が算出される。ただし、撮像画像の中に指標以外の赤い物体が存在していたり、カメラノイズが生じたりすることで、指標だと誤判断する場合もある。ゆえに、ここで算出する指標位置(xj、yj)は指標候補位置とし、指標の判別は位置姿勢補正部330で行う。
まず、ステップS1000では、位置姿勢計測部320から撮像部10の位置姿勢を取得し、基準座標系上の原点との相対関係からカメラのビューイング変換行列Msを求める。次に、ステップS1010において、画像認識部310によって得られた各指標の基準座標系上での3次元位置と、既知であるカメラの理想的透視変換行列と、ステップS1000で求めたビューイング変換行列Msを用いて各指標の観測座標における2次元位置(xi’、yi’)を求める。この2次元位置(xi’、yi’)はセンシング部20の出力である指示部の位置姿勢から求めた各指標の3次元位置を観測画像座標系に変換した予測値である。
Ma=ΔMa・Ms(式3)
図において、アプリケーション70を除く部分が複合現実感情報生成装置を実現するためのソフトウェアモジュール群及び設定ファイルである。図5に示すように、アプリケーション70は複合現実感情報生成部(MRP Engine)80が提供するAPI(Appication Programming Interface)を介して複合現実感情報生成装置との通信を行う。
このGUIから、MRP Engine80を起動したり、他のモジュール(図5中の120、122、124、126、128など)を起動したりすることができる。具体的には、左のウィンドウ605から起動を希望するプロセス(モジュール)を選択し、起動ボタン610をマウスでクリックすることにより起動を指示できる。
ここでは、HMDの、装着時にユーザ視点近傍となる位置に設けられた左右一対のカメラの内部カメラパラメータの設定と、左右のカメラの相対位置関係の設定を行うことができる。設定を開始するには、計測ボタン410を押し、カメラパラメータを計測するツール(図5のCamera Parameter Tool124又はHMD Parameter Tool122)を立ち上げる。この際に、設定部50は撮像部10が有するカメラの情報(1台であるか、ステレオペアであるか)を例えばシステム構成ファイル130から取得し、適切なツールを立ち上げる。この場合、ステレオカメラの設定になっているので、ステレオカメラ用のツール(HMD Parameter Tool)122が自動的に起動される。もし、カメラが1台の場合は、Camera Parameter Tool124が起動される。
ここでは、MRP Engine80に接続されたセンシング部20の状態を検知して、センシング部20が用いているセンサと組み合わせて、あるいは単独で動作可能な位置合わせ方式の一覧を表示する。表示内容はセンサ種別と対応付けて予めシステム設定ファイル130に登録しておく。
これら行列の値は、計測ボタン430がマウスでクリックされると起動する計測ツールによって計測された値である。他の設定値と同様にあらかじめデフォルトの値が設定されている。また、計測した値を保存して再利用したり、削除や名前の変更などの編集が可能である。
ここでは、撮影画像に含まれる特徴領域をマーカとして認識する閾値(画像上での最小面積)を設定したり、所定形状(ここでは三角とする)のマーカを認識するための二値化の閾値や、最終的にマーカとして認識するために必要な面積を設定したりすることができる。マーカの色や形状に関する設定は、編集ボタン440により起動されるマーカツールで編集することができる。
第1の実施形態では、実写映像を画像情報105としてアプリケーション70に渡し、アプリケーション側で実写映像とCGとを合成してHMDに表示させる構成を想定しているが、本実施形態ではアプリケーションはCG生成のみを行い、そのデータを複合現実感情報生成装置に渡して、複合現実感情報生成装置で実写映像とCGとを合成するようにしたものである。このような構成においても本発明の目的を達成できることは言うまでも無い。
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (11)
- 現実空間を撮影する撮像手段から映像を取得する画像情報取得工程と、
前記現実空間中の計測対象物の位置及び姿勢の少なくとも一方を測定するためのセンサ出力を取得するセンサ情報取得工程と、
前記現実空間の映像及び前記センサ出力の少なくとも一方を用いて前記計測対象物の前記位置及び姿勢の少なくとも一方を算出する算出工程と、
前記現実空間の映像及び前記算出した前記計測対象物の前記位置及び姿勢の少なくとも一方を、前記現実空間画像に位置合わせして重畳表示するための仮想物体画像を前記位置及び姿勢の少なくとも一方を用いて生成する外部アプリケーションに供給する出力工程、
とを備えることを特徴とする複合現実感情報生成方法。 - 前記出力工程は、前記外部アプリケーションとのプロセス間通信を用いて、或いは前記外部アプリケーションとの共有メモリに書き込むことにより、前記供給を行うことを特徴とする請求項1記載の複合現実感情報生成方法。
- 前記算出工程が、
前記現実空間の映像に含まれる指標を検出し、当該検出した指標の座標情報から前記前記センサ出力を補正することにより前記計測対象物の前記位置及び姿勢の少なくとも一方を算出することを特徴とする請求項1又は請求項2記載の複合現実感情報生成方法。 - さらに、前記現実空間の映像に含まれる、予め定めた特徴を有する領域を検出し、前記領域とそれ以外の領域とを区別するためのマスク情報を生成するマスク情報生成工程を有し、
前記出力工程が、さらに前記マスク情報を前記外部アプリケーションに供給することを特徴とする請求項1乃至請求項3のいずれか1項に記載の複合現実感情報生成方法。 - 前記予め定めた特徴を有する領域が、肌色を有する領域であることを特徴とする請求項4記載の複合現実感情報生成方法。
- 前記算出工程で用いるパラメータの設定をユーザに行わせるためのユーザインタフェースを提示する提示工程をさらに有し、
前記提示工程が、
他のパラメータとの依存関係や他のパラメータとの可能な組合わせに関して予め記憶したパラメータ情報に基づいて、ユーザが設定可能なパラメータの選択肢を決定し、
前記決定に従ったユーザインタフェースを提示することを特徴とする請求項1乃至請求項5のいずれか1項に記載の複合現実感情報生成方法。 - 前記パラメータ情報には、前記センサの種類と使用可能な位置合わせ方法の組合わせ、前記センサの種類に応じた設定パラメータの種類、前記撮像手段が有するカメラの数に応じた設定パラメータの種類の少なくとも1つが含まれることを特徴とする請求項6記載の複合現実感情報生成方法。
- 前記外部アプリケーションが生成した前記仮想物体の画像を取得する仮想物体画像取得工程と、
前記算出工程で算出した前記計測対象物の前記位置及び姿勢の少なくとも一方を用いて前記現実空間の映像に前記仮想物体の画像を合成した合成画像を生成する合成画像生成工程と、
表示装置に前記合成画像を表示する表示工程とを更に有することを特徴とする請求項1乃至請求項7のいずれか1項に記載の複合現実感情報生成方法。 - 現実空間を撮影する撮像手段から映像を取得する画像情報取得手段と、
前記現実空間中の計測対象物の位置及び姿勢の少なくとも一方を測定するためのセンサ出力を取得するセンサ情報取得手段と、
前記現実空間の映像及び前記センサ出力の少なくとも一方を用いて前記計測対象物の前記位置及び姿勢の少なくとも一方を算出する算出手段と、
前記現実空間の映像及び前記算出した前記計測対象物の前記位置及び姿勢の少なくとも一方を、前記現実空間画像に位置合わせして重畳表示するための仮想物体画像を前記位置及び姿勢の少なくとも一方を用いて生成する外部アプリケーションに供給する出力手段、
とを備えることを特徴とする複合現実感情報生成装置。 - コンピュータに、請求項1乃至請求項8のいずれか1項に記載の複合現実感情報生成方法の各工程を実行させるプログラム。
- 請求項10記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005106793A JP4137078B2 (ja) | 2005-04-01 | 2005-04-01 | 複合現実感情報生成装置および方法 |
US11/277,861 US7558403B2 (en) | 2005-04-01 | 2006-03-29 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005106793A JP4137078B2 (ja) | 2005-04-01 | 2005-04-01 | 複合現実感情報生成装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006285788A true JP2006285788A (ja) | 2006-10-19 |
JP4137078B2 JP4137078B2 (ja) | 2008-08-20 |
Family
ID=37186950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005106793A Expired - Fee Related JP4137078B2 (ja) | 2005-04-01 | 2005-04-01 | 複合現実感情報生成装置および方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7558403B2 (ja) |
JP (1) | JP4137078B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009053064A (ja) * | 2007-08-28 | 2009-03-12 | Sekonic Corp | カラーメータ |
KR100914848B1 (ko) * | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | 혼합현실 시스템 및 그 구현 방법 |
WO2009150998A1 (en) * | 2008-06-12 | 2009-12-17 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
JP2010271950A (ja) * | 2009-05-21 | 2010-12-02 | Canon Inc | 情報処理装置及びキャリブレーション処理方法 |
KR101187843B1 (ko) | 2010-10-01 | 2012-10-05 | 한국철도기술연구원 | 증강현실을 이용한 열차유지보수 교육시스템 |
JP2013061978A (ja) * | 2007-01-05 | 2013-04-04 | Total Immersion | 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 |
KR101330811B1 (ko) | 2010-08-25 | 2013-11-18 | 주식회사 팬택 | 인스턴트 마커를 이용한 증강 현실 장치 및 방법 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4956375B2 (ja) * | 2007-10-30 | 2012-06-20 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
DE102008015527A1 (de) * | 2008-03-25 | 2009-10-01 | Volkswagen Ag | Verfahren und Einrichtung zum Erzeugen eines Augmented-Reality-Bildes |
JP2010025759A (ja) * | 2008-07-18 | 2010-02-04 | Fuji Xerox Co Ltd | 位置計測システム |
US8907983B2 (en) | 2010-10-07 | 2014-12-09 | Aria Glassworks, Inc. | System and method for transitioning between interface modes in virtual and augmented reality applications |
WO2012071466A2 (en) | 2010-11-24 | 2012-05-31 | Aria Glassworks, Inc. | System and method for acquiring virtual and augmented reality scenes by a user |
US8953022B2 (en) | 2011-01-10 | 2015-02-10 | Aria Glassworks, Inc. | System and method for sharing virtual and augmented reality scenes between users and viewers |
US20130050499A1 (en) * | 2011-08-30 | 2013-02-28 | Qualcomm Incorporated | Indirect tracking |
JP5851261B2 (ja) * | 2012-01-30 | 2016-02-03 | 株式会社東芝 | 画像センサシステム、情報処理装置、情報処理方法及びプログラム |
US9213917B2 (en) * | 2012-08-17 | 2015-12-15 | Evernote Corporation | Using surfaces with printed patterns for image and data processing |
US9626799B2 (en) | 2012-10-02 | 2017-04-18 | Aria Glassworks, Inc. | System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display |
US10769852B2 (en) * | 2013-03-14 | 2020-09-08 | Aria Glassworks, Inc. | Method for simulating natural perception in virtual and augmented reality scenes |
JP6261190B2 (ja) * | 2013-05-31 | 2018-01-17 | キヤノン株式会社 | 設定装置および設定方法 |
JP5886242B2 (ja) * | 2013-06-10 | 2016-03-16 | ヤフー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2015001875A (ja) * | 2013-06-17 | 2015-01-05 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット |
US9785231B1 (en) * | 2013-09-26 | 2017-10-10 | Rockwell Collins, Inc. | Head worn display integrity monitor system and methods |
US10977864B2 (en) | 2014-02-21 | 2021-04-13 | Dropbox, Inc. | Techniques for capturing and displaying partial motion in virtual or augmented reality scenes |
JP6494305B2 (ja) * | 2015-01-29 | 2019-04-03 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、表示装置、および情報処理方法 |
JP6650738B2 (ja) * | 2015-11-28 | 2020-02-19 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
EP3534338B1 (en) * | 2018-03-01 | 2023-09-06 | État Français Représenté par la Direction des Services de la Navigation Aérienne | Creation of a simulation scene from a specified view point |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3421552B2 (ja) | 1997-06-30 | 2003-06-30 | 株式会社東芝 | ルックアップテーブル設計方法及び記録媒体 |
JP2000350865A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体 |
JP2002157607A (ja) | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
JP4298407B2 (ja) | 2002-09-30 | 2009-07-22 | キヤノン株式会社 | 映像合成装置及び映像合成方法 |
JP2004355131A (ja) | 2003-05-27 | 2004-12-16 | Canon Inc | 複合現実感映像生成方法及び複合現実感画像生成装置 |
-
2005
- 2005-04-01 JP JP2005106793A patent/JP4137078B2/ja not_active Expired - Fee Related
-
2006
- 2006-03-29 US US11/277,861 patent/US7558403B2/en active Active
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061978A (ja) * | 2007-01-05 | 2013-04-04 | Total Immersion | 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 |
JP2009053064A (ja) * | 2007-08-28 | 2009-03-12 | Sekonic Corp | カラーメータ |
KR100914848B1 (ko) * | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | 혼합현실 시스템 및 그 구현 방법 |
WO2009150998A1 (en) * | 2008-06-12 | 2009-12-17 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
JP2009301293A (ja) * | 2008-06-12 | 2009-12-24 | Canon Inc | 画像処理装置及びその制御方法 |
US9019304B2 (en) | 2008-06-12 | 2015-04-28 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
JP2010271950A (ja) * | 2009-05-21 | 2010-12-02 | Canon Inc | 情報処理装置及びキャリブレーション処理方法 |
KR101330811B1 (ko) | 2010-08-25 | 2013-11-18 | 주식회사 팬택 | 인스턴트 마커를 이용한 증강 현실 장치 및 방법 |
KR101187843B1 (ko) | 2010-10-01 | 2012-10-05 | 한국철도기술연구원 | 증강현실을 이용한 열차유지보수 교육시스템 |
Also Published As
Publication number | Publication date |
---|---|
US7558403B2 (en) | 2009-07-07 |
JP4137078B2 (ja) | 2008-08-20 |
US20060239525A1 (en) | 2006-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4137078B2 (ja) | 複合現実感情報生成装置および方法 | |
JP4434890B2 (ja) | 画像合成方法及び装置 | |
US10140723B2 (en) | Information processing apparatus and method | |
EP1596329B1 (en) | Marker placement information estimating method and information processing device | |
US7529387B2 (en) | Placement information estimating method and information processing device | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
EP1886281B1 (en) | Image processing method and image processing apparatus | |
JP5248806B2 (ja) | 情報処理装置、情報処理方法 | |
US7627137B2 (en) | Image composition system, image composition method, and image composition apparatus | |
US7834909B2 (en) | Image processing method and image processing apparatus | |
JP6008397B2 (ja) | 光学式シースルー型hmdを用いたarシステム | |
JP4834424B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20210232858A1 (en) | Methods and systems for training an object detection algorithm using synthetic images | |
JP2004151085A (ja) | 情報処理方法及び情報処理装置 | |
JP2008046687A (ja) | 撮影環境校正方法及び情報処理装置 | |
JP2008249407A (ja) | 画像処理装置、画像処理方法 | |
US20170220105A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
US20190243461A1 (en) | Cable movable region display device, cable movable region display method, and cable movable region display program | |
JP4926598B2 (ja) | 情報処理方法、情報処理装置 | |
JP2006293485A (ja) | 指標表示方法及び画像表示装置 | |
EP4186029A1 (en) | Systems and methods for continuous image alignment of separate cameras | |
EP4186028A1 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
JP2009015648A (ja) | 画像処理装置、画像処理方法 | |
JP2008299670A (ja) | 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080118 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080516 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080603 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130613 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |