JP2006285788A - 複合現実感情報生成装置および方法 - Google Patents

複合現実感情報生成装置および方法 Download PDF

Info

Publication number
JP2006285788A
JP2006285788A JP2005106793A JP2005106793A JP2006285788A JP 2006285788 A JP2006285788 A JP 2006285788A JP 2005106793 A JP2005106793 A JP 2005106793A JP 2005106793 A JP2005106793 A JP 2005106793A JP 2006285788 A JP2006285788 A JP 2006285788A
Authority
JP
Japan
Prior art keywords
image
mixed reality
information
orientation
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005106793A
Other languages
English (en)
Other versions
JP4137078B2 (ja
Inventor
Akihiro Katayama
昭宏 片山
Kenji Morita
憲司 守田
Hironori Yonezawa
博紀 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005106793A priority Critical patent/JP4137078B2/ja
Priority to US11/277,861 priority patent/US7558403B2/en
Publication of JP2006285788A publication Critical patent/JP2006285788A/ja
Application granted granted Critical
Publication of JP4137078B2 publication Critical patent/JP4137078B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

【課題】 複合現実感システムの実現や、システムの変更への対応をより容易にするための複合現実感情報生成方法を提供すること。
【解決手段】 複合現実感に特有の位置姿勢計測に係る構成とアプリケーション70を分離して共に独立に動作するように構成し、その間のデータの受け渡しは共有メモリ60やプロセス間通信を利用する。これにより、アプリケーション70を変更したり再コンパイルすることなく、センサの種類や位置合わせ方法の変更といった、位置姿勢計測に関連する構成の変更に対応することができる。
【選択図】 図1

Description

本発明は、複合現実感を実現するために必要な位置姿勢や画像等の情報を取得生成する装置および方法に関する。
従来から、複合現実感(Mixed Reality:MR)を観察者に与えるシステム(複合現実感システム)を実現するためのソフトウェアとして、ARツールキット(非特許文献1参照)やMRプラットフォーム(非特許文献2参照)等が提案されている。これらは複合現実感システムを構築する上で必要な、観察者やオブジェクトの位置・姿勢情報等の獲得のためのプログラムをソフトウェアライブラリとして提供する。従って、複合現実感システムの開発者は、必要なハードウェア構成を有するシステムにこれらのソフトウェアをライブラリとして組み込み、それを利用したアプリケーションを開発することで、所望の複合現実感アプリケーションを容易に構築することが可能となる。
H.Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, K. Tachibana.Virtual Object Manipulation on a Table-Top AR Environment. In Proceedings of ISAR 2000, Oct 5th-6th, 2000. 内山,武本,山本,田村:"MRシステム構築基盤「MRプラットフォーム」の開発",日本バーチャルリアリティ学会第6回大会論文集, pp.457-460, September 2001
しかしながら、非特許文献1及び2に開示されるようなソフトウェアライブラリを利用するには、これらを組み込むアプリケーションとともにコンパイルする必要があった。そのため、提供されるライブラリに含まれる位置あわせ機能の種類や使用するセンサ等が変更された場合、変更された機能を利用するためにはアプリケーションプログラムのソースコードを書き換えて再コンパイルを行う必要があった。
また、複合現実感システムを稼動させるためには、位置姿勢センサの種類と位置あわせ方式の組み合わせを決定したり、事前にカメラやセンサのキャリブレーションを行ったり、利用するデータを編集したりするなどの処理が必要となる。従来は、センサと位置あわせ方式の組み合わせをユーザが管理するようになっていたため、正しく動作する組み合わせをユーザが把握しなければならず、手間がかかっていた。さらにカメラやセンサ類のキャリブレーションを、それぞれ専用のツールを利用して1つ1つ処理していたが、ツールを使用する順番が決まっていたり、それぞれのツールで作成したキャリブレーションデータに相互依存関係があったりするため、ユーザはそれぞれのツールやデータの関係や状況を把握しながらキャリブレーションを行う必要があった。
本発明はこのような従来技術の課題を鑑みてなされたものであり、複合現実感システムの実現や、システムの変更への対応をより容易にするための複合現実感情報生成方法及び装置を提供することを目的とする。
上述の目的は、現実空間を撮影する撮像手段から映像を取得する画像情報取得工程と、現実空間中の計測対象物の位置及び姿勢の少なくとも一方を測定するためのセンサ出力を取得するセンサ情報取得工程と、現実空間の映像及びセンサ出力の少なくとも一方を用いて計測対象物の位置及び姿勢の少なくとも一方を算出する算出工程と、現実空間の映像及び算出した計測対象物の位置及び姿勢の少なくとも一方を、現実空間画像に位置合わせして重畳表示するための仮想物体画像を位置及び姿勢の少なくとも一方を用いて生成する外部アプリケーションに供給する出力工程、とを備えることを特徴とする複合現実感情報生成方法によって達成される。
また、上述の目的は、現実空間を撮影する撮像手段から映像を取得する画像情報取得手段と、現実空間中の計測対象物の位置及び姿勢の少なくとも一方を測定するためのセンサ出力を取得するセンサ情報取得手段と、現実空間の映像及びセンサ出力の少なくとも一方を用いて計測対象物の位置及び姿勢の少なくとも一方を算出する算出手段と、現実空間の映像及び算出した計測対象物の位置及び姿勢の少なくとも一方を、現実空間画像に位置合わせして重畳表示するための仮想物体画像を位置及び姿勢の少なくとも一方を用いて生成する外部アプリケーションに供給する出力手段、とを備えることを特徴とする複合現実感情報生成装置によっても達成される。
さらに、上述の目的は、コンピュータに、本発明の複合現実感情報生成方法の各工程を実行させるプログラム、及びこのプログラムを格納したコンピュータ読み取り可能な記録媒体によっても達成される。
このような構成により、本発明によれば、複合現実感システムの実現や、システムの変更への対応をより容易にすることが可能となる。
以下、図面を参照して本発明の好適な実施形態について説明する。
以下に説明する実施形態は、複合現実感(MR)システムに特有な位置姿勢計測部分と、計測した位置姿勢を利用するアプリケーションとを分離して共に実行形式のモジュールで構成し、その間のデータの受け渡しは共有メモリやプロセス間通信を利用することを特徴とする。このような構成により、位置姿勢計測部分に変更があってもアプリケーションプログラムを変更する必要がなくなり、従来必要だったソースコードの修正、再コンパイルの手間及び時間を省くことができる。なお、本明細書中で”MR”と記述した場合は、拡張現実感(Augumented Reality:AR)を含むものとする。
<第1の実施形態>
以下、本願発明の第1の実施形態に係る複合現実感情報生成装置の図を参照しながら詳細に説明する。なお、「複合現実感情報」とは、複合現実感システムの実現に必要な計測情報を意味し、少なくとも計測対象物の位置及び/又は姿勢に関する情報を含み、必要に応じて実写映像、マスク情報を含む。
図1は本実施形態に係る複合現実感情報生成装置の構成例を示すブロック図である。
図において、撮像部10は、アナログ方式のカメラあるいはIEEE1394・USB等のインタフェースを備えたデジタルカメラ等で構成され、撮像した画像情報105を出力する。通常撮像部10はHMDなどユーザが頭部に装着する装置に装着された2つのカメラから構成され、右目用、左目用の現実空間画像を撮像する。なお、図面及び以下の説明では特に明示しないが、右目用、左目用の2系統で処理が行われるものとする。
センシング部20は1個以上の計測対象物の位置または姿勢あるいはその両方を計測する磁気センサ、ジャイロセンサ、加速度センサ、傾斜計等であり、計測情報106を出力する。
マスク情報生成部30は、撮像部10から入力された画像情報105から特定の情報を取り出すためのマスク情報を生成する。位置・姿勢情報算出部40は、センシング部20からの計測情報106と撮像部10からの画像情報105のどちらか一方あるいは両方を用い、計測対象物の位置または姿勢あるいはその両方を算出し、位置姿勢情報108として出力する。
設定部50は、複合現実感情報生成装置を構成する機器の動作や初期情報等の設定(以下、MRP Configurationと呼ぶ場合がある)を行う。メモリ60は、撮像部10からの画像情報105とマスク情報生成部30からのマスク情報107と位置・姿勢情報算出部40からの位置姿勢情報108を保持する。アプリケーション70は複合現実感情報生成装置が出力する複合現実感情報を用いるアプリケーションプログラムであり、複合現実感情報生成装置には含まれないが、説明の都合上明記してある。
なお、以下の説明においては、マスク情報生成部30と位置・姿勢情報算出部40とをまとめて複合現実感情報生成部(あるいはエンジン又はMRP Engine)80として取り扱う。
撮像部10は、設定部50によって設定された設定情報101(例えば、絞りやシャッタースピード、色味など)に従って撮像し、撮像結果を画像情報105としてマスク情報生成部30、位置・姿勢情報算出部40及びメモリ60に出力する。センシング部20は設定部50によって設定された設定情報102(センシング部20が用いるセンサの種類やセンサが動作するために必要な情報など)に従って動作し、計測結果を計測情報106として位置・姿勢情報算出部40に出力する。
マスク情報生成部30は、撮像部10からの画像情報105を受け取り、設定部50によって設定される設定情報103に従って動作する。一例としては、画像中から肌色と推定される領域を抽出し、マスク情報107(肌色領域を「1」その他を「0」とするビットマップ)として出力する。このようなマスク情報は、撮像部10の撮影範囲にユーザの手が含まれる場合、手の領域を抽出したマスクとなる。
但し、これに限らずエッジ情報や撮像部10が撮影する視差画像から得られる奥行き情報を利用してマスク情報を生成しても良いし、画像情報105に含まれるユーザの手に限らず、任意のものを抽出してマスク情報を生成することができる。
位置・姿勢情報算出部40は、設定部50で設定される設定情報104に従い、撮像部10からの画像情報105とセンシング部20からの計測情報106とから計測対象物の位置・姿勢情報108を算出しメモリ60に記録する。したがって、メモリ60には、画像情報105と、それに対応するマスク情報107と位置・姿勢情報108とが格納されることになる。アプリケーション70は、共有メモリとしてのメモリ60にアクセスし、仮想環境(CGによる仮想物体)を生成するために必要な位置・姿勢情報108と、仮想環境と合成するための画像情報105と、例えば合成の際に体験者の手が仮想物に隠されるのを防止するためのマスク情報107とを取得し、動作する。
図20は本実施形態における複合現実感情報生成装置として利用可能な汎用コンピュータ装置の構成例を示すブロック図である。
図において、ディスプレイ201はアプリケーションプログラムによって処理中のデータの情報、各種メッセージメニューなどを表示し、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)等から構成される。ビデオRAM(VRAM)ディスプレイコントローラとしてのCRTC202は、ディスプレイ201への画面表示制御を行う。キーボード203及びポインティングデバイス204は、文字などを入力したり、GUI(Graphical User Interface)におけるアイコンやボタンなどを指し示すためなどに用いられる。CPU205はコンピュータ装置全体の制御を司る。
ROM206(Read Only Memory)はCPU205が実行するプログラムやパラメータ等を記憶している。RAM(Random Access Memory)207は各種プログラムをCPU205が実行する時のワークエリア、エラー処理時の一時退避エリア等として用いられる。
ハードディスクドライプ(HDD)208、リムーバブルメディアドライプ(RMD)209は、外部記憶装置として機能する。リムーバブルメディアドライブは、着脱可能な記録媒体の読み書き又は読み出しを行う装置であり、フレキシブルディスクドライブ、光ディスクドライブ、光磁気ディスクドライブ、メモリカードリーダはもとより、着脱式HDDなどであってもよい。
なお、以下に説明する、汎用コンピュータを本実施形態における複合現実感情報生成装置として機能させるプログラムやエラー処理プログラムをはじめ、OSや、ブラウザ等のアプリケーションプログラム、データ、ライプラリなどは、その用途に応じてROM206、HDD208、RMD209(の記録媒体)の1つ以上に記憶されている。また、アプリケーション70をもこのコンピュータ装置で実行することもできる。この場合、共有メモリ60をRAM207の一部領域として実現することができる。
拡張スロット210は、例えばPCI(Periferal Component Interconnect)バス規格に準拠した拡張カード装着用スロットであり、撮像部10を接続して画像情報を取り込むビデオキャプチャボードや、サウンドボード、HMDを接続するためのグラフィックボード、GPIBボードなど、様々な拡張ボードを装着することが可能である。
ネットワークインタフェース211はコンピュータ装置をコンピュータネットワークに接続するためのインタフェースである。バス212はアドレスバス、データバスおよび制御バスからなり、上述した各ユニット間を接続する。また、ネットワークインタフェース211の他に、RS−232C、RS−422、USB(Universal Serial Bus)、IEEE1394等のシリアルインタフェースや、IEEE1284等のパラレルインタフェースを有し、センシング部20に含まれるセンサを初め、モデムやプリンタ等の外部機器との接続を可能にしている。
このような汎用コンピュータ装置は、OSや必要なドライバソフトウェア等を用いることによって、ネットワークインタフェース211を介して必要に応じて接続されるルータ(ダイアルアップルータを含む)や、シリアルインタフェースを介して接続されるモデムやTA等を用いて、コンピュータネットワークや公衆電話網上の他の機器と通信可能である。
図1における複合現実感情報生成部80は、例えばCPU205が制御プログラムを実行することによってソフトウェア的に実現することも可能であるし、専用のハードウェアを用いても実現できる。また、設定部50は、キーボード203及びポインティングデバイス204の操作に応じてCPU205がディスプレイ201にGUIを表示し、GUIを介して入力、設定された内容をRAM207の一部領域に記憶することにより実現できる。そして、CPU205は、この記憶された設定値を用いて各部の制御を行う。
図2に、本実施形態の複合現実感情報生成装置と、アプリケーション70とにより実現される複合現実感システムの一例を示す。
このシステムは、車の簡易モックアップ(運転席に座った際に見える範囲のモックアップ)を利用して、観察者が装着したHMD(センシング部20としての磁気センサ及び撮像部10としてのカメラを内蔵)に、HMD内蔵カメラで撮影した実写映像とCGで作成したインパネの映像とを合成・表示することにより、あたかも本物の車に乗っている・触っているような感覚で車両内部のデザイン評価を行うことを可能にするものである。
このようなシステムにおける計測対象物は、観察者が装着するHMDであり、より正確にはHMDに内蔵されたカメラである。このカメラの位置姿勢を求め、その情報を使って仮想物体の画像をCGで生成し、合成することにより、実写画像と仮想物体の画像がきちんと位置合わせされた合成画像を観察者に提示することが可能となる。
図2(a)は観察者が上述したアプリケーションを体験している様子を示している。観察者はカメラが内蔵され、かつ磁気センサが装備されたHMD(ビデオシースルー型HMD)を装着している。図中のハンドルや椅子は実物(モックアップ)である。図2(b)は図2(a)の状態で観察者の装着するHMDに表示されている映像(合成画像)を示している。210は無地のモックアップに合成されたインパネ部分のCG画像、211と212は観察者の手の実写映像である。ハンドルを含めた車のインパネ部はすべてCGによる画像であるが、手の部分はマスク情報を利用することによりCGが合成されないようになっており、体験者の手が見えるため、体験時の現実感を一層高めることが可能である。
なお、図2において、フロントガラスに相当する位置に見える路上の実写画像は、撮像部10とは別に予め録画したビデオ画像などを背後に置いたスクリーンなどに投影したものである。
図3は、図1の位置・姿勢情報算出部40の内部構成例を示すブロック図である。
画像認識部310は画像情報105から位置の指標(例えば予め定めた色や形を有する領域)を検出する。位置姿勢計測部320は、センシング部20からの計測情報106を基準座標系における位置姿勢を表す4x4の行列に変換する。位置姿勢補正部330は、画像認識部310が出力する指標情報110に応じて計測情報106を補正し、位置・姿勢情報108として出力する。
ここで、センシング部20として磁気センサ(例えばPolhemus社の3SPCACE FASTRAKやAscension Technology社のFlock of Birdsなど)を利用した場合の動作を記述する。このような6自由度センサの計測値を、そのまま計測対象物(ここではHMDに内蔵されたカメラ)の位置姿勢として仮想物体を描画、合成すると、センサの誤差が原因となって、実写映像と、計測値を元に計算した仮想物体の位置とが大きくずれて、合成画像の現実感が失われてしまう場合がある。例えば、位置姿勢計測用のセンサとして磁気センサを用いた場合、計測値は周囲の磁場に影響されるので、計測部(HMD)近辺に金属があると誤差が大きくなり、位置ずれ量も増える。
このようなセンサ計測値の誤差を補正し、位置合わせ精度を向上させるため、現実空間中に存在する、或いは現実空間中に配置した指標を画像認識部310で認識し、その情報を用いて位置姿勢補正部330が補正された位置姿勢計測情報を求める。
ここでは、既知の座標に配置された特定色(赤とする)の領域を指標として用いる場合の画像認識部310の動作について説明する。
画像認識部310は、撮像部10により撮像された画像中、画素色の赤の比率を表す
R/{(G+B)/2} (式1)
を用いて、特徴量ISを算出し、特徴量ISがあらかじめ指定した閾値を超えた場合は、注目画素が指標領域内であると判定する。これを、撮像画像の全ての画素に対して適応し、検出された特徴領域は、個々にラベル付けされる。ラベル付けされた領域の重心位置を指標の2次元位置とし、観測画像座標系における指標位置(xj、yj)が算出される。ただし、撮像画像の中に指標以外の赤い物体が存在していたり、カメラノイズが生じたりすることで、指標だと誤判断する場合もある。ゆえに、ここで算出する指標位置(xj、yj)は指標候補位置とし、指標の判別は位置姿勢補正部330で行う。
図4は、図3における位置姿勢補正部330の処理を説明するフローチャートである。
まず、ステップS1000では、位置姿勢計測部320から撮像部10の位置姿勢を取得し、基準座標系上の原点との相対関係からカメラのビューイング変換行列Msを求める。次に、ステップS1010において、画像認識部310によって得られた各指標の基準座標系上での3次元位置と、既知であるカメラの理想的透視変換行列と、ステップS1000で求めたビューイング変換行列Msを用いて各指標の観測座標における2次元位置(xi’、yi’)を求める。この2次元位置(xi’、yi’)はセンシング部20の出力である指示部の位置姿勢から求めた各指標の3次元位置を観測画像座標系に変換した予測値である。
次に、ステップS1020では、画像認識部310で検出された指標候補位置(xj、yj)とセンシング部20による観測画像座標系での予測値(xi’、yi’)との2次元平面上での距離を計算し、個々の予測値に一番近い指標候補位置を予測値に対応する2次元指標位置だと判断し、指標検出により得た指標の2次元位置(xi、yi)とする。
ステップS1030ではこの予測値と検出値とのずれを解消するための補正行列ΔMaを算出する。このΔMaは各指標予測位置(xi’、yi’)が撮像画像上での各指標位置に一致するようにセンシング部20の出力値を3次元空間上で補正する補正行列である。
例えば、この補正行列ΔMaは以下のように算出する。まず、撮像面上での指標1を特定しp1とし、センシング部20の出力値から算出した撮像面上での指標1’の位置p1’とする。ここで、観測座標系の原点Cからp1、p1’を終点とするベクトルをそれぞれv1、v1’とする。このとき、2次元の撮像画像上でp1’がp1に重なるような3次元空間である観測座標系上での変換は、v1とv1’とをそれぞれ単位ベクトルに変換したあと、2つの単位ベクトルの外積によって求められるベクトルx(u,u,u)を回転軸とし、v1とv1’の内積によって求められる、2つのベクトルがなす角θによってセンシング部20の出力を回転補正する変換となる。すなわちこの回転変換が補正行列ΔMaとなる。補正行列ΔMaは以下の(式2)で表される。
最後に、ステップS1040で、ステップS1030で求めた補正行列ΔMaとステップS1000で求めたカメラのビューイング変換行列Msとを積算することにより、基準座標系上における補正後の位置姿勢Ma(位置姿勢情報108)を求める。関係式を以下に示す。
Ma=ΔMa・Ms(式3)
ここで、撮像画像上に指標1が検出できない場合は、補正処理を終了し、センシング部20の出力から得られた位置姿勢を最終的な位置姿勢情報108とする。この位置姿勢Maを用いて仮想物体を描画することで、意図する位置に仮想物体を表示することができ、センシング部20の計測のみを用いる場合よりも高精度に計測対象物(ここではHMD)の位置姿勢を求めることができる。
なお、ここでは、センシング部20(本実施形態では磁気センサ)の出力を、指標を検出することによって補正した。しかし、常時指標が見えている場合は、このようなセンサと指標の両方を用いる手法(ハイブリッド手法)を用いなくてもよい。すなわち、指標のみに基づいて計測対象物の位置姿勢を求めてもよいし、センサの出力精度が十分高ければ、指標を用いた補正処理は行わずにセンサの出力をそのまま計測対象物の位置姿勢として利用してもよい。
上述したように、位置姿勢情報108は、画像情報105及びマスク情報107とともに、複合現実感情報をアプリケーションに伝達する手段の一例としての共有メモリ60
図5は、図1の構成を実現するソフトウェアモジュールとその相互関係について示す図である。
図において、アプリケーション70を除く部分が複合現実感情報生成装置を実現するためのソフトウェアモジュール群及び設定ファイルである。図5に示すように、アプリケーション70は複合現実感情報生成部(MRP Engine)80が提供するAPI(Appication Programming Interface)を介して複合現実感情報生成装置との通信を行う。
複合現実感情報生成装置を実現するためのソフトウェアモジュール群及び設定ファイルには、設定部(MRP Configuration)50、設定ファイル(システム構成ファイル130、カメラ内部パラメータファイル132、カメラ外部パラメータファイル134、マーカファイル136)、カメラやセンサのキャリブレーションを行うためのツール(HMD Parameter Tool 122, Camera Parameter Tool 124, 6自由度センサツール(6DOF Sensor Tool) 126, Fixed Camera Tool128)、指標(マーカ)編集ツール(Marker Tools)120などが含まれる。
設定部50により入力された各種パラメータの設定値は、システム構成ファイル130に格納され、HMD Parameter Tool,6DOF Sensor Tool,HMD Parameter Toolはシステム構成ファイル130に格納された設定値を参照して動作する。また、マーカファイル136には現実空間中に配置されたマーカの情報(絶対位置(重心位置や頂点座標など)、画像処理により認識するための特徴情報(色、形状など))がマーカ編集ツール120により設定されている。このマーカ情報は、MRP Engine80内の位置姿勢情報算出部40、さらに具体的には画像認識部310においてマーカ識別のために用いられる。
また、カメラ内部パラメータ(焦点距離、レンズ歪み係数、画像中心、画面の縦横比など)132はHMD Parameter Toll122によって、カメラ外部パラメータ(空間中のカメラの位置と方向を決定する回転行列、平行移動ベクトル)134は6自由度センサツール126によってそれぞれ登録、編集される。これらのカメラパラメータはMRP Engine80において上述した各種行列(位置姿勢)の算出などに用いられる。
図6は設定部50が提示する、パラメータ設定用グラフィカル・ユーザ・インタフェース(GUI)の一例である。
このGUIから、MRP Engine80を起動したり、他のモジュール(図5中の120、122、124、126、128など)を起動したりすることができる。具体的には、左のウィンドウ605から起動を希望するプロセス(モジュール)を選択し、起動ボタン610をマウスでクリックすることにより起動を指示できる。
また、撮像部10やセンシング部20の構成によっては複数のプロセスが同時にアクセスできない場合もあるため、ここで撮像部10やセンシング部20に対するアクセスの排他制御を行っている。また、MRP Engine80を動作させるための様々な設定を環境毎にプロファイルという形で保存しておくこと、撮像部10からの画像をキャプチャする際に使用するデバイスの設定・管理、撮像部10に使用されるカメラの内部・外部パラメータの計測・設定・管理、計測対象物(この場合はHMDに内蔵されたカメラ)の位置・姿勢を算出するためのアルゴリズムの選択や必要なパラメータの入力・管理、カメラ以外の計測対象物がある場合の設定・管理、指標検出時に利用される検出アルゴリズムやパラメータの設定・管理、センシング部で利用されるセンサの種類の選択・設定・管理を設定部50から行うことができる。設定ファイルの記述はどのような方法・形式を用いても良いが、ここでは汎用性のあるXML形式で記述している。
従来のMRプラットフォームでは、全体の設定と各モジュールが出力するデータ(相互依存関係あり)をユーザが管理していたため、しばしば対応するファイルが不正である等の人為的なミスによりシステムが不正な動作をするということが起こっていた。本実施形態の複合現実感情報生成装置では、他のパラメータとの依存関係や他のパラメータとの可能な組合わせに関して予め記憶したパラメータ情報を例えば設定ファイル130に予め記憶しておき、設定部50がパラメータ情報に基づいてユーザが設定可能なパラメータの選択肢を決定する。そして、決定されたパラメータを設定するためのユーザインタフェースのみを表示することにより、全体の設定作業を効率化し、不正な設定データの組み合わせ等の人為的なミスを軽減することができる。
本実施形態においては、パラメータ情報として、センサの種類と使用可能な位置合わせ方法の組合わせ、センサの種類に応じた設定パラメータの種類、撮像手段が有するカメラの数に応じた設定パラメータの種類の少なくとも1つが含まれるものとするが、これらに限定されるものではない。
図7は撮像部10の映像をキャプチャするためのキャプチャデバイスに関する設定画面の例を示す図であり、図6のウィンドウ605において「キャプチャデバイス」が選択された状態に相当する。
この設定画面から、入力ポートの設定やデバイスの選択、取得画像サイズ、レンズ歪補正処理のタイミングの指定等を行うことが可能である。レンズ歪設定に関しては、アプリケーション70に渡す(即ち図1において共有メモリ60に書き込む)画像情報105に補正をかけるか、描画する際に補正するかを指定することができる。なお、歪補正を行う場合には、アプリケーション70が画像情報を自由に加工することが可能であるが、歪み補正を行わない場合には、アプリケーション70が歪み補正を行い、描画に使用するフレームバッファに直接書き込むため、アプリケーション70は画像情報105を任意に加工することが難しくなる。
図8はカメラパラメータに関する設定画面の例を示す図であり、図6のウィンドウ605において「カメラパラメータ」が選択された状態に相当する。
ここでは、HMDの、装着時にユーザ視点近傍となる位置に設けられた左右一対のカメラの内部カメラパラメータの設定と、左右のカメラの相対位置関係の設定を行うことができる。設定を開始するには、計測ボタン410を押し、カメラパラメータを計測するツール(図5のCamera Parameter Tool124又はHMD Parameter Tool122)を立ち上げる。この際に、設定部50は撮像部10が有するカメラの情報(1台であるか、ステレオペアであるか)を例えばシステム構成ファイル130から取得し、適切なツールを立ち上げる。この場合、ステレオカメラの設定になっているので、ステレオカメラ用のツール(HMD Parameter Tool)122が自動的に起動される。もし、カメラが1台の場合は、Camera Parameter Tool124が起動される。
このように、設定部50を介してシステムの状況に応じて適切なツールを起動するとともに、計測されたデータを自動的にシステム設定ファイル130に反映されるように構成しているため、ツールや設定ファイルの管理にまつわるユーザの人為的なミスが軽減される。前回使用したカメラと全く同じあるいは同じ条件ですでに計測されたデータが存在する場合は、そのデータを利用することもできる。また、計測したデータに名称を付加して保存したり、過去に保存したデータを呼び出して再利用したり、保存したデータを整理したりする機能も周知の周知のファイル保存、読み出しGUIを通じて提供する。また、初期設定として典型的なデータを設定ファイル130にプリセットしておくことにより、計測を1度も行わなくてもアプリケーション70をとりあえず動作させることができる。これは初めてこのシステムを利用する際にセットアップのリードタイムを短縮できるという点で有利である。
図9はカメラの位置合わせ方法に関する設定画面の例を示す図であり、図6のウィンドウ605において「カメラ位置合わせ」が選択された状態に相当する。
ここでは、MRP Engine80に接続されたセンシング部20の状態を検知して、センシング部20が用いているセンサと組み合わせて、あるいは単独で動作可能な位置合わせ方式の一覧を表示する。表示内容はセンサ種別と対応付けて予めシステム設定ファイル130に登録しておく。
表示される候補の中から位置合わせ方法を選択させることにより、ユーザの関与する範囲を限定し、不正な位置合わせ方法が選択されることを防止できる。なお、ここではシステムが自動的に接続されているセンサの種類などを判断する構成にしているが、ユーザがセンサ類を識別してセンサの種類を入力するようにしても良い。センサの種類からではなく、使いたい位置合わせ方法がある場合は、位置合わせ方法優先モードに設定することにより、位置合わせ方法の一覧から所望のものを選択可能に構成することもできる。そして、位置合わせ方法が選択されると、その位置合わせ方法に応じてシステムに接続すべきセンサあるいはその候補と、システムへの接続およびその設定を促す画面を表示する。位置合わせ方法の種類と対応するセンサの種類などの情報も、予め登録しておくことができる。ユーザはこれらの情報に従って作業を行うことにより、簡単に所望のシステム構成や設定等を実現することができる。
図10に、位置合わせ優先モード時の例として、位置合わせ方法として6自由度センサとマーカとを利用する方法が選択された場合の例を示している。この場合、ウィンドウ605の「センサシステム」を選択すると、指定された位置合わせ方法に対応したセンサの候補が表示される。この画面からセンサを指定することにより、利用するセンサが確定される。
図11に、図10において磁気センサが選択された場合に表示する設定画面の例を示す。この画面から、磁気センサに関する様々な設定が可能である。特に、図に例示している磁気センサ(Polhemus社の3SPCACE FASTRAK)の場合は、計測する範囲(半球)の設定を行う必要があるが、入力の手間を軽減するために、すべてに対して同一の設定を指示するためのチェックボックス420を用意している。また、スタイラスと呼ばれるペン型タイプのセンサの接続チェックも行えるようにしている。
図9の設定画面から、位置合わせ方法として6自由度センサとマーカの組み合わせが選択されたことに対応して、ウィンドウ605の「カメラ位置合わせ」内の設定項目として「6自由度センサ」と「マーカによる誤差補正」が表示される。図12は、そのうち「6自由度センサ」の項目を選択した際に表示する初期キャリブレーションデータの設定画面の例を示している。ここでも6自由度センサとして磁気センサを用いるものとする。
図9の設定画面では、カメラ座標系と磁気センサ座標系の変換行列(Local Transform)と磁気センサ座標系と基準座標系の変換行列(World Transform)の設定画面が表示されている。
これら行列の値は、計測ボタン430がマウスでクリックされると起動する計測ツールによって計測された値である。他の設定値と同様にあらかじめデフォルトの値が設定されている。また、計測した値を保存して再利用したり、削除や名前の変更などの編集が可能である。
図13は、「マーカによる誤差補正」の項目が選択された際に表示する、位置合わせに利用するマーカに関する設定画面の例を示している。ここでマーカから得られた情報をどのようにセンサ出力値の補正に使用するかといった設定を行うことができる。
図14は、HMD(内蔵カメラ)以外に位置姿勢を常時把握しておく必要のある計測対象物を設定する画面を示している。例えば、第3者視点の固定カメラ(固定カメラを利用することによって、HMDを装着した観察者の様子を撮像することができる)や、可動物体にCGを重ねて表示するような場合の可動物体がこのような計測対象物として考えられる。この画面からは、測定対象物の詳細設定をはじめ、追加、削除などの管理を行うことができる。
図15は画像認識部310が画像情報105からマーカを認識する際に用いる設定を行うマーカ認識条件設定画面の一例を示す図である。
ここでは、撮影画像に含まれる特徴領域をマーカとして認識する閾値(画像上での最小面積)を設定したり、所定形状(ここでは三角とする)のマーカを認識するための二値化の閾値や、最終的にマーカとして認識するために必要な面積を設定したりすることができる。マーカの色や形状に関する設定は、編集ボタン440により起動されるマーカツールで編集することができる。
図16はマーカツールの画面の一例である。図中の450は設定されたマーカをツリー表示したもので、名称の左に表示されるアイコンによって、点(小円形)マーカであるか三角マーカであるかが区別できるようになっている。ここでは、点マーカはすべて同じアイコンにしているが、それぞれの点マーカの色を反映したアイコンするなども可能である。点マーカの色を反映したアイコンを表示すると、そのマーカがどのようなマーカであるかが直感的に把握できるというメリットがある。
460は色差空間(例えば、YCbCr表色系のCbCrなどであるが、これに限るものではない)の表示領域である。領域460中の楕円はそれぞれ対応するマーカの色の範囲を示している。図16において楕円が5つ設定されているのは5色の点マーカが設定されている状況を示しているからであり、マーカとして用いる色の種類を増やせばそれにともなって楕円の数も増加する。この楕円は通常ドローイングアプリケーションで採用されているようなユーザインタフェースによりユーザが大きさや位置を変更することができるようになっており、マーカとして認識する色の領域と他のマーカとの関係を直感的に設定及び認識することが可能となっている。
領域460の楕円の1つを選択すると、それに対応したマーカがツリー450で他のマーカとは異なるように表示される。また、ツリー450中のマーカを選択するとそれに対応する楕円が他の楕円とは異なるように表示される、あるいは対応する楕円のみが表示される。このように表示することにより、ユーザに認識範囲とマーカ色との関係を直感的に提示することができ、わかりやすいという効果がある。
スルー表示ウィンドウ470はカメラでマーカを撮影した画像を表示している様子を示したものである。認識結果ウィンドウ480はマーカツールで設定した情報に従い、画像認識部310がスルー表示ウィンドウ470に表示されている画像情報からマーカを抽出した様子を示している。スルー表示ウィンドウ470中の矩形領域と認識結果ウィンドウ480の矩形領域とは同一の領域である。この矩形領域内の色情報のみを領域460に表示してそれを囲むようにマーカの色認識範囲(楕円)を設定することもできる。これにより、色領域をより正確に設定することが可能となる。
また、ある特定マーカの認識結果のみを認識結果ウィンドウ480上に表示したり、スルー表示ウィンドウ470で撮影されたマーカを認識結果ウィンドウ480に表示する際にマーカの色を彩度の高い色等(例えば、対応する楕円中のもっとも彩度の高い色)に変更して表示したりすることも可能である。こうすることで認識結果をユーザにわかりやすく提示することが可能となる。これらの表示は、動画で行うことも、また、動画中のあるシーン(静止)のみに対して行うことも可能である。静止画の状態でマーカの色認識範囲を調整することにより、より詳細に範囲を設定することが可能となる。
図17は、新規なマーカとして三角マーカを登録するための設定画面の例を示している。マーカの3次元空間中の位置姿勢を、三角形の重心位置と回転軸に対する回転角で表現するように構成されている。三角マーカの実際の位置姿勢は三角形の3頂点の3次元座標を入力することにより行う。ボタン510を押すことにより、図18の頂点座標設定画面が表示され、ここで頂点の座標値を入力する。頂点の入力順(頂点1→頂点2→頂点3)で面の向きを規定するため、入力順を示すガイドとしてパネルの左側(図18の520)にイラストを表示している。こうすることにより、ユーザが頂点の入力順を間違えなくて済むようになり、また、3頂点の座標を直接入力することにより、三角マーカの位置姿勢を直感的に入力することが可能となる。
また、3頂点の座標のうち、いずれかの座標を一定値とし、三角マーカが存在している平面内の2次元座標を指定する様にしても良い。このようにすることで、座標入力を容易にすることができる。この場合、三角マーカの頂点で定義される平面の世界座標系での定義を用いることで、世界座標系での3次元座標に変換して設定を行う。
以上説明したように、本実施形態によれば、複合現実感システムを構成するために必要な複合現実感情報を取得する構成を、複合現実感情報を利用する構成と分離し、両者の間で共有メモリやプロセス間通信などを利用して情報をやりとりするようにしたため、センサの変更や位置合わせ方法の変更など、複合現実感情報の取得にのみ関係する変更が生じた場合には、複合現実感情報を取得する構成のみを変更すれば良く、様々な態様に柔軟に対応することが可能になる。
また、複合現実感情報を取得するために必要な設定項目を管理する設定部を設けたことにより、ハードウェア構成やユーザの希望する設定に応じて必要かつ適切な設定項目をユーザに提示することが可能となり、センサの種類と位置合わせの方法との不適切な組合わせなどが設定されることを回避することができる。
<第2の実施形態>
第1の実施形態では、実写映像を画像情報105としてアプリケーション70に渡し、アプリケーション側で実写映像とCGとを合成してHMDに表示させる構成を想定しているが、本実施形態ではアプリケーションはCG生成のみを行い、そのデータを複合現実感情報生成装置に渡して、複合現実感情報生成装置で実写映像とCGとを合成するようにしたものである。このような構成においても本発明の目的を達成できることは言うまでも無い。
図19は、本実施形態に係る複合現実感提示システムの構成例を示す図である。において、610は磁気式センサや光学式センサ等のセンシング部、620はカメラ等の撮像部、630はアプリケーションが動作するパソコンやPDA等のCG生成装置、640は複合現実情報生成装置、650は複合現実感情報生成装置の出力を表示するためのモニタ(HMD)である。本実施形態においても撮像部620はHMDに内蔵されている。かかる構成により、センシング部610は撮像部620の位置姿勢を計測し、撮像部620は現実空間の映像を獲得して複合現実感情報生成装置640に出力する。複合現実感情報生成装置640は実写画像とセンサ情報とから計測対象物(カメラ)の位置姿勢を高精度に算出してCG生成装置に出力するともに、CG生成装置630に搭載されたアプリケーションがその位置姿勢情報に応じたCG映像を生成し、複合現実感情報生成装置640に出力する。さらに複合現実感情報生成装置640では撮像部620の映像中、CG映像を表示したくない領域(観察者の手が写った領域など)を示すマスク情報を生成し、そのマスク情報と撮像部620の映像とCG生成装置630のCG映像とを合成し、モニタ650に出力する。
ここで、撮像部620とモニタ650を右目用と左目用の2組用意すれば、ステレオ映像として観察者に提示可能であり、ステレオHMDを構成することができる。また、撮像部とモニタの組は3組以上あってもよい。また、CG生成装置630が生成するデータはCGデータのみでなく、テキスト情報でもよい。
<他の実施形態>
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の実施形態に係る複合現実感情報生成装置の構成例を示すブロック図である。 本実施形態の複合現実感情報生成装置と、アプリケーション70とにより実現される複合現実感システムの一例を示す図である。 図1の位置・姿勢情報算出部40の内部構成例を示すブロック図である。 図3における位置姿勢補正部330の処理を説明するフローチャートである。 図1の構成を実現するソフトウェアモジュールとその相互関係について示す図である。 設定部50が提示するグラフィカル・ユーザ・インタフェース(GUI)の一例である。 撮像部10の映像をキャプチャするためのキャプチャデバイスに関する設定画面の例を示す図である。 カメラパラメータに関する設定画面の例を示す図である。 カメラの位置合わせ方法に関する設定画面の例を示す図である。 位置合わせ優先モード時の設定画面の例を示す図である。 図10において磁気センサが選択された場合に表示する設定画面の例を示す図である。 6自由度センサの初期キャリブレーションデータの設定画面の一例を示す図である。 マーカによる誤差補正方法の設定画面の一例を示す図である。 HMD(内蔵カメラ)以外に位置姿勢を常時把握しておく必要のある計測対象物を設定する画面の例を示す図である。 画像認識部310が画像情報105からマーカを認識する際に用いる設定を行うマーカ認識条件設定画面の一例を示す図である。 マーカツールの画面の一例を示す図である。 新規なマーカとして三角マーカを登録するための設定画面の例を示す図である。 三角マーカの頂点座標を設定画面の例を示す図である。である。 第2の実施形態に係る複合現実感提示システムの構成例を示す図である。 本実施形態における複合現実感情報生成装置として利用可能な汎用コンピュータ装置の構成例を示すブロック図である。

Claims (11)

  1. 現実空間を撮影する撮像手段から映像を取得する画像情報取得工程と、
    前記現実空間中の計測対象物の位置及び姿勢の少なくとも一方を測定するためのセンサ出力を取得するセンサ情報取得工程と、
    前記現実空間の映像及び前記センサ出力の少なくとも一方を用いて前記計測対象物の前記位置及び姿勢の少なくとも一方を算出する算出工程と、
    前記現実空間の映像及び前記算出した前記計測対象物の前記位置及び姿勢の少なくとも一方を、前記現実空間画像に位置合わせして重畳表示するための仮想物体画像を前記位置及び姿勢の少なくとも一方を用いて生成する外部アプリケーションに供給する出力工程、
    とを備えることを特徴とする複合現実感情報生成方法。
  2. 前記出力工程は、前記外部アプリケーションとのプロセス間通信を用いて、或いは前記外部アプリケーションとの共有メモリに書き込むことにより、前記供給を行うことを特徴とする請求項1記載の複合現実感情報生成方法。
  3. 前記算出工程が、
    前記現実空間の映像に含まれる指標を検出し、当該検出した指標の座標情報から前記前記センサ出力を補正することにより前記計測対象物の前記位置及び姿勢の少なくとも一方を算出することを特徴とする請求項1又は請求項2記載の複合現実感情報生成方法。
  4. さらに、前記現実空間の映像に含まれる、予め定めた特徴を有する領域を検出し、前記領域とそれ以外の領域とを区別するためのマスク情報を生成するマスク情報生成工程を有し、
    前記出力工程が、さらに前記マスク情報を前記外部アプリケーションに供給することを特徴とする請求項1乃至請求項3のいずれか1項に記載の複合現実感情報生成方法。
  5. 前記予め定めた特徴を有する領域が、肌色を有する領域であることを特徴とする請求項4記載の複合現実感情報生成方法。
  6. 前記算出工程で用いるパラメータの設定をユーザに行わせるためのユーザインタフェースを提示する提示工程をさらに有し、
    前記提示工程が、
    他のパラメータとの依存関係や他のパラメータとの可能な組合わせに関して予め記憶したパラメータ情報に基づいて、ユーザが設定可能なパラメータの選択肢を決定し、
    前記決定に従ったユーザインタフェースを提示することを特徴とする請求項1乃至請求項5のいずれか1項に記載の複合現実感情報生成方法。
  7. 前記パラメータ情報には、前記センサの種類と使用可能な位置合わせ方法の組合わせ、前記センサの種類に応じた設定パラメータの種類、前記撮像手段が有するカメラの数に応じた設定パラメータの種類の少なくとも1つが含まれることを特徴とする請求項6記載の複合現実感情報生成方法。
  8. 前記外部アプリケーションが生成した前記仮想物体の画像を取得する仮想物体画像取得工程と、
    前記算出工程で算出した前記計測対象物の前記位置及び姿勢の少なくとも一方を用いて前記現実空間の映像に前記仮想物体の画像を合成した合成画像を生成する合成画像生成工程と、
    表示装置に前記合成画像を表示する表示工程とを更に有することを特徴とする請求項1乃至請求項7のいずれか1項に記載の複合現実感情報生成方法。
  9. 現実空間を撮影する撮像手段から映像を取得する画像情報取得手段と、
    前記現実空間中の計測対象物の位置及び姿勢の少なくとも一方を測定するためのセンサ出力を取得するセンサ情報取得手段と、
    前記現実空間の映像及び前記センサ出力の少なくとも一方を用いて前記計測対象物の前記位置及び姿勢の少なくとも一方を算出する算出手段と、
    前記現実空間の映像及び前記算出した前記計測対象物の前記位置及び姿勢の少なくとも一方を、前記現実空間画像に位置合わせして重畳表示するための仮想物体画像を前記位置及び姿勢の少なくとも一方を用いて生成する外部アプリケーションに供給する出力手段、
    とを備えることを特徴とする複合現実感情報生成装置。
  10. コンピュータに、請求項1乃至請求項8のいずれか1項に記載の複合現実感情報生成方法の各工程を実行させるプログラム。
  11. 請求項10記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。
JP2005106793A 2005-04-01 2005-04-01 複合現実感情報生成装置および方法 Expired - Fee Related JP4137078B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005106793A JP4137078B2 (ja) 2005-04-01 2005-04-01 複合現実感情報生成装置および方法
US11/277,861 US7558403B2 (en) 2005-04-01 2006-03-29 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005106793A JP4137078B2 (ja) 2005-04-01 2005-04-01 複合現実感情報生成装置および方法

Publications (2)

Publication Number Publication Date
JP2006285788A true JP2006285788A (ja) 2006-10-19
JP4137078B2 JP4137078B2 (ja) 2008-08-20

Family

ID=37186950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005106793A Expired - Fee Related JP4137078B2 (ja) 2005-04-01 2005-04-01 複合現実感情報生成装置および方法

Country Status (2)

Country Link
US (1) US7558403B2 (ja)
JP (1) JP4137078B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053064A (ja) * 2007-08-28 2009-03-12 Sekonic Corp カラーメータ
KR100914848B1 (ko) * 2007-12-15 2009-09-02 한국전자통신연구원 혼합현실 시스템 및 그 구현 방법
WO2009150998A1 (en) * 2008-06-12 2009-12-17 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2010271950A (ja) * 2009-05-21 2010-12-02 Canon Inc 情報処理装置及びキャリブレーション処理方法
KR101187843B1 (ko) 2010-10-01 2012-10-05 한국철도기술연구원 증강현실을 이용한 열차유지보수 교육시스템
JP2013061978A (ja) * 2007-01-05 2013-04-04 Total Immersion 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置
KR101330811B1 (ko) 2010-08-25 2013-11-18 주식회사 팬택 인스턴트 마커를 이용한 증강 현실 장치 및 방법

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956375B2 (ja) * 2007-10-30 2012-06-20 キヤノン株式会社 画像処理装置、画像処理方法
DE102008015527A1 (de) * 2008-03-25 2009-10-01 Volkswagen Ag Verfahren und Einrichtung zum Erzeugen eines Augmented-Reality-Bildes
JP2010025759A (ja) * 2008-07-18 2010-02-04 Fuji Xerox Co Ltd 位置計測システム
US8907983B2 (en) 2010-10-07 2014-12-09 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
WO2012071466A2 (en) 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
US8953022B2 (en) 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
US20130050499A1 (en) * 2011-08-30 2013-02-28 Qualcomm Incorporated Indirect tracking
JP5851261B2 (ja) * 2012-01-30 2016-02-03 株式会社東芝 画像センサシステム、情報処理装置、情報処理方法及びプログラム
US9213917B2 (en) * 2012-08-17 2015-12-15 Evernote Corporation Using surfaces with printed patterns for image and data processing
US9626799B2 (en) 2012-10-02 2017-04-18 Aria Glassworks, Inc. System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display
US10769852B2 (en) * 2013-03-14 2020-09-08 Aria Glassworks, Inc. Method for simulating natural perception in virtual and augmented reality scenes
JP6261190B2 (ja) * 2013-05-31 2018-01-17 キヤノン株式会社 設定装置および設定方法
JP5886242B2 (ja) * 2013-06-10 2016-03-16 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2015001875A (ja) * 2013-06-17 2015-01-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
US9785231B1 (en) * 2013-09-26 2017-10-10 Rockwell Collins, Inc. Head worn display integrity monitor system and methods
US10977864B2 (en) 2014-02-21 2021-04-13 Dropbox, Inc. Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
JP6494305B2 (ja) * 2015-01-29 2019-04-03 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、表示装置、および情報処理方法
JP6650738B2 (ja) * 2015-11-28 2020-02-19 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
EP3534338B1 (en) * 2018-03-01 2023-09-06 État Français Représenté par la Direction des Services de la Navigation Aérienne Creation of a simulation scene from a specified view point

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3421552B2 (ja) 1997-06-30 2003-06-30 株式会社東芝 ルックアップテーブル設計方法及び記録媒体
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP4298407B2 (ja) 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
JP2004355131A (ja) 2003-05-27 2004-12-16 Canon Inc 複合現実感映像生成方法及び複合現実感画像生成装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061978A (ja) * 2007-01-05 2013-04-04 Total Immersion 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置
JP2009053064A (ja) * 2007-08-28 2009-03-12 Sekonic Corp カラーメータ
KR100914848B1 (ko) * 2007-12-15 2009-09-02 한국전자통신연구원 혼합현실 시스템 및 그 구현 방법
WO2009150998A1 (en) * 2008-06-12 2009-12-17 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2009301293A (ja) * 2008-06-12 2009-12-24 Canon Inc 画像処理装置及びその制御方法
US9019304B2 (en) 2008-06-12 2015-04-28 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2010271950A (ja) * 2009-05-21 2010-12-02 Canon Inc 情報処理装置及びキャリブレーション処理方法
KR101330811B1 (ko) 2010-08-25 2013-11-18 주식회사 팬택 인스턴트 마커를 이용한 증강 현실 장치 및 방법
KR101187843B1 (ko) 2010-10-01 2012-10-05 한국철도기술연구원 증강현실을 이용한 열차유지보수 교육시스템

Also Published As

Publication number Publication date
US7558403B2 (en) 2009-07-07
JP4137078B2 (ja) 2008-08-20
US20060239525A1 (en) 2006-10-26

Similar Documents

Publication Publication Date Title
JP4137078B2 (ja) 複合現実感情報生成装置および方法
JP4434890B2 (ja) 画像合成方法及び装置
US10140723B2 (en) Information processing apparatus and method
EP1596329B1 (en) Marker placement information estimating method and information processing device
US7529387B2 (en) Placement information estimating method and information processing device
JP4401727B2 (ja) 画像表示装置及び方法
EP1886281B1 (en) Image processing method and image processing apparatus
JP5248806B2 (ja) 情報処理装置、情報処理方法
US7627137B2 (en) Image composition system, image composition method, and image composition apparatus
US7834909B2 (en) Image processing method and image processing apparatus
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20210232858A1 (en) Methods and systems for training an object detection algorithm using synthetic images
JP2004151085A (ja) 情報処理方法及び情報処理装置
JP2008046687A (ja) 撮影環境校正方法及び情報処理装置
JP2008249407A (ja) 画像処理装置、画像処理方法
US20170220105A1 (en) Information processing apparatus, information processing method, and storage medium
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
US20190243461A1 (en) Cable movable region display device, cable movable region display method, and cable movable region display program
JP4926598B2 (ja) 情報処理方法、情報処理装置
JP2006293485A (ja) 指標表示方法及び画像表示装置
EP4186029A1 (en) Systems and methods for continuous image alignment of separate cameras
EP4186028A1 (en) Systems and methods for updating continuous image alignment of separate cameras
JP2009015648A (ja) 画像処理装置、画像処理方法
JP2008299670A (ja) 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080516

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080603

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees