JP4667111B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP4667111B2
JP4667111B2 JP2005123980A JP2005123980A JP4667111B2 JP 4667111 B2 JP4667111 B2 JP 4667111B2 JP 2005123980 A JP2005123980 A JP 2005123980A JP 2005123980 A JP2005123980 A JP 2005123980A JP 4667111 B2 JP4667111 B2 JP 4667111B2
Authority
JP
Japan
Prior art keywords
movable
image
movable part
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005123980A
Other languages
English (en)
Other versions
JP2006302034A (ja
Inventor
隆明 遠藤
太一 松井
英生 野呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005123980A priority Critical patent/JP4667111B2/ja
Priority to PCT/JP2006/308680 priority patent/WO2006115261A1/en
Priority to EP06732336A priority patent/EP1886281B1/en
Priority to CN2006800132930A priority patent/CN101164084B/zh
Priority to US11/909,236 priority patent/US8350897B2/en
Publication of JP2006302034A publication Critical patent/JP2006302034A/ja
Application granted granted Critical
Publication of JP4667111B2 publication Critical patent/JP4667111B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y80/00Products made by additive manufacturing

Description

本発明は、現実空間に仮想空間の映像を重畳させて観察者に提示する為の技術に関するものである。
複合現実感システムとは、現実空間映像と、ユーザの視点位置、視線方向等に応じて生成される仮想空間映像とを合成することにより得られる複合現実空間映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのように観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である。
一方、従来、設計・製造分野において3次元CADを使った設計(形状、デザイン)が主流になってきている。この場合、3次元CADで設計された物体を評価する方法としては、3次元CADで作成されたデータ(ソリッド形式)を3D−CGとして計算機の画面上に表示して視覚的に評価する方法や、ラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を製作し、触覚的に評価する方法などが主流である。
ただし、3D−CADデータを3D−CGとして計算機の画面上に表示する方法では、仮想空間内での評価となり、現実空間内での実寸感覚で物体の評価をすることができない。またラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を製作する方法では、加工精度、素材などの制約により、おおまかな形状を把握するのには有効であるが、デザインの詳細、色彩など、3D−CAD上で設計した詳細な情報が再現されるものではない。
そこで、より完成品に近い状況で設計データを評価するために、3D−CADデータよりラピッド・プロトタイピング装置等で製作した簡易試作物(簡易モックアップ)に、同じ3D−CADデータを変換して作成した3D−CGデータを、複合現実感システムを使って位置・姿勢方向を一致させて重ね合わせ、表示することで、視覚的な評価と触覚的な評価を同時に実現し、より完成品に近い状態での評価を可能とする手法が提案されている。
さらに、簡易試作物にマーカを添付し、その添付されたマーカを映像データとして入力された現実空間の映像情報から検出し、検出したマーカの位置情報を使って現実空間と仮想空間の位置合わせの補正を行う手法も提案されている。
特開2003−308514号
しかしながら、従来の手法では簡易試作物が剛体である場合しか扱えなかった。すなわち、簡易試作物が可動部を有する場合に、可動部の動きに合わせて3D−CGデータを動かして、簡易試作物と重ね合わせて表示することはできなかった。また、現実空間と仮想空間の位置合わせの補正に、可動部に貼られたマーカの位置情報を使うことはできなかった。
本発明は上記の課題に鑑みてなされたものであり、簡易試作物が可動部を有する場合にも、可動部の動きに合わせて3D−CGデータを動かし、簡易試作物と重ね合わせて表示するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
即ち、仮想空間の画像を生成して出力する画像処理装置であって、
観察者の視点の位置姿勢を取得する第1の取得手段と、
前記視点から見える現実空間の画像を入力する入力手段と、
可動部分を有する現実物体の位置姿勢を取得する第2の取得手段と、
前記可動部分の可動量を取得する可動量取得手段と、
前記現実物体を表す仮想物体の前記可動部分に該当する部分を前記可動量に基づいて可動させる可動手段と、
前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記入力手段が入力した現実空間の画像上における各マーカの位置を検出する検出手段と、
前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記可動量取得手段で取得した可動量に基づいて、前記可動部分に取り付けられているマーカの位置を求める計算手段と、
前記検出手段が検出した各マーカの位置と、前記計算手段が計算した位置と、を用いて、前記第1の取得手段が取得した前記観察者の視点の位置姿勢を補正する補正手段と、
前記可動手段によって前記可動部分に該当する部分を可動させた前記仮想物体を前記視点から見た場合に見える画像を、前記観察者の視点の前記補正後の位置姿勢、前記現実物体の位置姿勢に基づいて生成する生成手段と、
前記生成手段によって生成した画像を、前記入力手段が入力した現実空間の画像上に重畳させて出力する出力手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
即ち、仮想空間の画像を生成して出力する画像処理装置が行う画像処理方法であって、
前記画像処理装置の第1の取得手段が、観察者の視点の位置姿勢を取得する第1の取得工程と、
前記画像処理装置の入力手段が、前記視点から見える現実空間の画像を入力する入力工程と、
前記画像処理装置の第2の取得手段が、可動部分を有する現実物体の位置姿勢を取得する第2の取得工程と、
前記画像処理装置の可動量取得手段が、前記可動部分の可動量を取得する可動量取得工程と、
前記画像処理装置の可動手段が、前記現実物体を表す仮想物体の前記可動部分に該当する部分を前記可動量に基づいて可動させる可動工程と、
前記画像処理装置の検出手段が、前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記入力工程で入力した現実空間の画像上における各マーカの位置を検出する検出工程と、
前記画像処理装置の計算手段が、前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記可動量取得工程で取得した可動量に基づいて、前記可動部分に取り付けられているマーカの位置を求める計算工程と、
前記画像処理装置の補正手段が、前記検出工程で検出した各マーカの位置と、前記計算工程で計算した位置と、を用いて、前記第1の取得工程で取得した前記観察者の視点の位置姿勢を補正する補正工程と、
前記画像処理装置の生成手段が、前記可動工程によって前記可動部分に該当する部分を可動させた前記仮想物体を前記視点から見た場合に見える画像を、前記観察者の視点の前記補正後の位置姿勢、前記現実物体の位置姿勢に基づいて生成する生成工程と、
前記画像処理装置の出力手段が、前記生成工程によって生成した画像を、前記入力工程で入力した現実空間の画像上に重畳させて出力する出力工程と
を備えることを特徴とする。
本発明の構成により、簡易試作物が可動部を有する場合にも、可動部の動きに合わせて3D−CGデータを動かし、簡易試作物と重ね合わせて表示することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。
同図において200はトランスミッタで、磁場を発生させる。100は観察者の頭部に装着し、現実空間と仮想空間とを合成した画像を観察者の眼前に提供する為の頭部装着型表示装置(以下、HMD:Head Mounted Displayと呼称する)で、カメラ102R、102L、表示装置101R、101L、磁気レシーバ201により構成されている。
カメラ102R、102LはそれぞれHMD100を頭部に装着した観察者の右目、左目の位置から見える現実空間を連続して撮像するものであり、撮像した各フレームの画像は後段のコンピュータ400に出力される。
表示装置101R、101Lはそれぞれ、観察者がHMD100を頭部に装着したときに右目、左目の眼前に位置するようにHMD100に装着されたものであり、後段のコンピュータ400から出力された画像信号に基づいた画像を表示する。従って観察者の右目、左目の眼前にはコンピュータ400が生成した画像が提供されることになる。
磁気レシーバ201は、上記トランスミッタ200が発する磁場の変化を検知し、検知した結果の信号を後段の位置姿勢計測装置205に出力するものである。検知した結果の信号は、トランスミッタ200の位置を原点とし、この原点の位置で互いに直交する3軸をx、y、z軸とする座標系(以下、センサ座標系と呼称する)において、磁気レシーバ201の位置姿勢に応じて検知される磁場の変化を示す信号である。
位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢を求め、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。
図2は、HMD100の具体的な構成を示す図である。
101は映像表示装置で、0.5〜数インチ程度の小型の液晶表示デバイス等で構成されるものである。103は、映像表示装置101の映像を拡大するレンズの役目を果たす自由曲面プリズムである。このような構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先に90インチ相当の映像として提示される。
102は映像入力装置であり、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。104は現実空間の光を映像入力装置102に収束させるためのレンズの役目をはたす撮像系プリズムである。撮像系プリズム104は自由曲面プリズム103の外側に、光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することが可能である。
図1に戻って、300は現実物体(以下、簡易試作物と呼称する)である。この簡易試作物300は、操作者が手で動かすことで軸302周りに同図矢印で示す如く自在に可動する可動部分301を有している。軸302は、可動部分301の可動する軸となるものである。また、この簡易試作物300には、可動部分301の可動量を測定する為のロータリーエンコーダ210が取り付けられており、測定した可動量を示す信号は後段のコンピュータ400に出力される。
350は、簡易試作物300の観察時に置き場として利用される置き台である。
400はコンピュータで、HMD100の表示装置101R、101Lに出力すべき画像信号を生成したり、位置姿勢計測装置205からのデータ、ロータリーエンコーダ210からの信号に基づくデータを受け、これを管理したり等の処理を行う。このコンピュータは一般的には例えばPC(パーソナルコンピュータ)やWS(ワークステーション)等により構成される。図12は、コンピュータ400の基本構成を示す図である。
1201はCPUで、RAM1202やROM1203に格納されているプログラムやデータを用いてコンピュータ400全体の制御を行うと共に、I/F1207に接続される外部装置とのデータ通信の制御を行う。また、コンピュータ400が行うべき処理として後述する各処理を行う。
1202はRAMで、外部記憶装置1205からロードされたプログラムやデータを一時的に記憶するためのエリアを備えると共に、CPU1201が各種の処理を実行する際に必要なワークエリアも備える。
1203はROMで、ブートプログラムやコンピュータ400の設定データなどを格納する。
1204は操作部で、キーボードやマウス、ジョイスティックなどにより構成されており、各種の指示をCPU1201に対して入力することができる。
1205は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)やCPU1201に後述する各処理を実行させるためのプログラムやデータ等が保存されており、これらの一部、もしくは全部は、CPU1201の制御により、RAM1202にロードされる。また、後述の説明で、既知のデータ(情報)として説明するもの(もしくは以下説明する処理で必要となるべきデータ)もまたこの外部記憶装置1205に保存されており、必要に応じてCPU1201の制御により、RAM1202にロードされる。
1206は表示部で、CRTや液晶画面等により構成されており、画像や文字による各種の情報を表示することができる。
1207はI/Fで、ここに上記位置姿勢計測装置205、HMD100、ロータリーエンコーダ210等が接続されており、このI/F1207を介して、コンピュータ400は位置姿勢計測装置205、HMD100、ロータリーエンコーダ210等とのデータ通信を行うことができる。
1208は上述の各部を繋ぐバスである。
以上の構成を備えるコンピュータ400は、カメラ102R、102Lそれぞれから得られる現実空間の画像を取り込むと共に、磁気レシーバ201から得られる位置姿勢、予め定められた簡易試作物300の位置姿勢に基づいてカメラ102R、102Lから見える仮想物体の画像を生成する。そして、生成した画像を、先に取り込んだ現実空間の画像上に重畳させ、重畳させた画像を表示装置101R、101Lに出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目の位置姿勢に対応した複合現実空間画像が表示されることになる。
図3は、このコンピュータ400の機能構成を示す図である。本実施形態では、同図に示した各部はソフトウェアでもって構成されたものとして説明する。なお、ソフトウェアの実行処理はCPU1201によりなされるものである。しかし、図3に示した各部の一部、もしくは全部をハードウェアでもって構成するようにしても良い。
401R、401Lは映像キャプチャ部であり、それぞれカメラ102R、102Lより入力した画像をディジタル信号として取り込む。
404は位置姿勢情報入力部であり、位置姿勢計測装置205から出力されたデータを取り込む。このデータは即ち、磁気レシーバ201のセンサ座標系における位置姿勢を示すデータである。
406は、3DCG描画データで、上記簡易試作物300を表し、この簡易試作物300に重畳させる仮想物体の画像を生成するためのデータである。3DCG描画データには、この仮想物体の幾何学形状や色を示すデータ、テクスチャデータなどが含まれる。また、この3DCG描画データには、簡易試作物300のセンサ座標系における位置姿勢を示すデータ(可動部分301の初期位置姿勢データを含む)も含まれている。
405は位置姿勢算出部であり、位置姿勢情報入力部404から入力される磁気レシーバ201のセンサ座標系における位置姿勢を示すデータ、簡易試作物300のセンサ座標系における位置姿勢を示すデータを用いて、磁気レシーバ201の位置姿勢に対する簡易試作物300の相対位置姿勢を求める。
420は、上記ロータリーエンコーダ210からの信号を受け、これをディジタルデータに変換して後段の回転角度算出部421に送出する回転量情報入力部である。
421は回転角度算出部で、回転量情報入力部420から受けた信号に基づいて、可動部分301の回転角度(可動量)を求める。
407はCGレンダリング部で、先ず、簡易試作物300を表す仮想物体を、予め決められた位置姿勢(3DCG描画データから取得される)でもって配置する。仮想物体において可動部分301に相当する部分については現在の可動部分301の回転角度(回転角度算出部421によって算出された回転角度)に、上記軸302周りに回転させて配置する。なお、可動部分301に相当する部分(部分仮想物体)を所定の軸周りに回転させる技術についてはCGの分野では周知の技術であるので、これに関する説明は省略する。
次にCGレンダリング部407は、カメラ102R、102Lの位置姿勢(磁気レシーバ201とカメラ102R、102Lとの位置姿勢関係を予めバイアスとして求めておけば、磁気レシーバ201により計測した位置姿勢にこのバイアスを加えることで、カメラ102R、102Lの位置姿勢は求めることができる)に応じて見える仮想物体の画像を生成する。なお、ここでの仮想物体とは、簡易試作物300に重畳させる仮想物体である。
従って、この仮想物体の画像は、予め設定された位置姿勢でもって仮想空間内に配置され、これを位置姿勢算出部405が算出したカメラ102R、102Lの位置姿勢に応じて見える画像となる。なお、所定の位置姿勢を有する視点から見える仮想物体の画像を生成する処理については周知の技術であるので、これに関する詳細な説明は省略する。また、以下では、カメラ102R、102Lを総称して「視点」と呼称する場合がある。
402R、402Lはそれぞれ映像合成部であり、映像キャプチャ部401R、401Lから入力した現実空間の画像上に、CGレンダリング部407が生成したカメラ102Rの位置姿勢に応じて見える仮想物体の画像、カメラ102Lの位置姿勢に応じて見える仮想物体の画像を重畳させ、それぞれ、映像生成部403R、403Lに出力する。これにより、カメラ102Rの位置姿勢に応じて見える複合現実空間の画像、カメラ102Lの位置姿勢に応じて見える複合現実空間の画像を生成することができる。
映像生成部403R、403Lはそれぞれ、映像合成部402R、402Lから出力された複合現実空間の画像をアナログ信号に変換し、それぞれ表示装置101R、101Lに映像信号として出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目に対応した複合現実空間の画像が表示される。
以上説明した、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理について、同処理の手順を示す図4を参照して説明する。
先ず、3DCADデータから、簡易試作物300、3DCG描画データを生成するための処理手順について、同図の左側を参照して説明する。
通常、3次元CADシステムを使って形状やデザインなどの設計業務を行う(1010)場合には、3D−CADのデータは、それぞれの3次元CADシステム固有のソリッドデータとして保存されるのが一般的である。簡易試作物300は、このソリッドデータより、光造形などのラピッド・プロトタイピング装置を使って作成する(1110)。
一方、3Dソリッドデータは、各設計部品の幾何学的なパラメータの集合で表現されており、そのままではCGとして描画することはできない。そこで、3Dソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1210)。本複合現実感システムでは、このように変換された3D−CG描画用データ406を使って仮想空間を生成する。生成された3D−CG描画データ406は、コンピュータ400の外部記憶装置1205に保存しておき、必要に応じてRAM102にロードする。
次に、複合現実感システムが行う、この3D−CG描画データ406を用いて仮想空間の画像(仮想物体の画像)を生成し、現実空間の画像に重畳させて観察者に提示する処理について、同図右側を参照して説明する。
磁気レシーバ201は上述の通り磁気トランスミッタ200が発生する磁界の変化を計測し(2020)、その計測結果を信号として位置姿勢計測装置205に出力するので、位置姿勢計測装置205は、受けた信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢(上述の通り、バイアスを加算すれば、カメラ102R、102Lの位置姿勢)を示すデータをコンピュータ400に出力する(2030)。
一方で、回転量情報入力部420には、ロータリーエンコーダ210により測定された、現在の可動部分301の回転角度を示す信号が入力されるので(2031)、回転量情報入力部420はこれをA/D変換してディジタルデータとして後段の回転角度算出部421に送出し、回転角度算出部421は、このデータに基づいて、現在の可動部分301の回転角度を求める処理を行う(2032)。
ここで、ロータリーエンコーダ210による初期計測値(可動部分301の回転角度が0°の時にロータリーエンコーダ210がカウントしたカウント値)をd0、ロータリーエンコーダ210による現在の測定値をd1,可動部分301が360°回転した時のロータリーエンコーダ210による測定値をrとすると、可動部分301の現在の角度θは以下の式に従って求められる。
θ=360×(d1−d0)/(r−d0)
また、ロータリーエンコーダ210にギア比gのギアが取り付けられている場合には、可動部分301の現在の角度θは以下の式に従って求められる。
θ=360×g×(d1−d0)/(r−d0)
いずれにせよ、このような計算は回転角度算出部421によって成されるものである。 図13は、本実施形態で用いている簡易試作物300における可動部分301の可動様態を示す図である。簡易試作物300は、本体1301と可動部分301とにより構成されており、この可動部分301は観察者が手に持って軸A周りに同図矢印1302で示す如く自在に角度を変更することができる。この角度はロータリーエンコーダ210により測定される。
同図において301aは角度θが0°の状態(ロータリーエンコーダ210による測定値がd0の状態)における可動部分301を示し、301bは現在の角度θの状態(ロータリーエンコーダ210による測定値がd1の状態)における可動部分301を示すものである。
図4に戻って、そしてCGレンダリング部407により、カメラ102R、102Lのそれぞれから見える、「簡易試作物300に重畳表示すべき仮想物体」の画像を生成する(2040)。この画像生成処理では先ず、CGレンダリング部407は、予め決められたセンサ座標系における位置姿勢に「簡易試作物300に重畳表示すべき仮想物体」を配置する。その際には、仮想物体で可動部分301に相当する部分のモデルは、軸302(図13では軸A)周りに上記角度θに回転させて配置する。これにより、実際の可動部分301の可動量と同じだけ仮想物体における可動部分301を可動させることができ、それぞれの回転角度を一致させることができる。
そしてCGレンダリング部407は、位置姿勢算出部405が求めた「センサ座標系におけるカメラ102R、102Lの位置姿勢を示すデータ」を用いて、カメラ102R、102Lの位置姿勢から見える「簡易試作物300に重畳表示すべき仮想物体」の画像を生成する。
なお、生成した画像のデータはRAM1202中の所定のエリアに一時的に記憶される。また、仮想物体の画像を生成するためには外部記憶装置1205に保存されている3DCG描画データをRAM1202に読み出して用いるものとする。
一方、上記2020,2030,2040、2031,2032における処理と並行して、カメラ102R、102Lより撮像された現実空間の画像は映像キャプチャ部401R、410Lによりコンピュータ400に入力され(3010)、RAM1202上に描画される(3020)。
そして、映像合成部402Rは、映像キャプチャ部401Rにより入力された右目用の現実空間の画像上に、CGレンダリング部407によりレンダリングされた右目用の画像(仮想物体の画像)を重畳させ、重畳後の画像(複合現実空間の画像)を後段の映像生成部403Rに出力する(4010)。
一方、映像合成部402Lは、映像キャプチャ部401Lにより入力された左目用の現実空間の画像上に、CGレンダリング部407によりレンダリングされた左目用の画像(仮想物体の画像)を重畳させ、重畳後の画像(複合現実空間の画像)を後段の映像生成部403Lに出力する(4010)。
即ち、現実空間の画像上への仮想物体の画像の重畳処理では、カメラ102Rからの現実空間の画像上に、カメラ102Rの位置姿勢から見える仮想物体の画像を重畳すると共に、カメラ102Lからの現実空間の画像上に、カメラ102Lの位置姿勢から見える仮想物体の画像を重畳する処理を行う。その結果、観察者の右目から見える複合現実空間の画像、左目から見える複合現実空間の画像を生成することができる。
映像生成部403R、403Lはそれぞれ、受けた複合現実空間の画像をアナログ信号としてのビデオ信号に変換し、I/F1207を介して表示装置101R、101Lに出力する(4020)。
そして上記処理2020〜処理4020までの各処理を、表示装置(101R、101L)における映像更新間隔、あるいは処理204の実行時間以下で繰り返し行うことで、リアルタイムに情報提示を行う。
なお、本実施形態では、センサとして磁気センサを用いたが、超音波センサなど、他のタイプのセンサを用いても良いことはいうまでもない。
また、本実施形態では可動部分301の回転角度の測定にロータリーエンコーダを用いたが、その他の測定機器を用いて測定しても良く、その測定機器については特に限定するものではない。
また、本実施形態では、可動部分の可動は固定された軸周りに回転するのみであったが、「可動」としては回転のみでなく、平行移動等、その他の可動形態であっても良い。その場合には、可動した量を計測可能な機器(例えばリニアエンコーダや、磁気的または光学的な位置・姿勢計測装置などの装置)をその現実物体に取り付けることが必要となる。
以上のように、本実施形態によって、3D−CADで生成された3次元データより作成された簡易試作物が可動部を有する場合に、同じ3次元データより作成された3D−CGデータを可動部の動きに合わせて動かすことによって、簡易試作物と3DCGデータを重ね合わせて表示することができる。
また、本実施形態では簡易試作物300の位置姿勢は固定されているものとして説明したが、簡易試作物300に磁気センサを取り付けて、センサ座標系における簡易試作物300の位置姿勢の計測を行うことができれば、これに重畳させる仮想物体の位置姿勢もそれに応じて動かせば、常に簡易試作物300に仮想物体を重畳させることができる。これについての詳細な説明は後段の第3の実施形態にて行う。
また、本実施形態では、HMDとしてビデオシースルータイプを用いているが、光学シースルータイプを用いて良く、その場合には、コンピュータ400は、仮想空間の画像を現実空間の画像上に重畳させる処理、すなわち処理4010は行う必要はなく、処理4020では、映像生成部403R、403Lによって、処理4010で生成した現実空間の画像(それぞれ右目用現実空間の画像、左目用現実空間の画像)をアナログ信号としてのビデオ信号に変換し、I/F1207を介して表示装置101R、101Lに出力することになる。
[第2の実施形態]
本実施形態では、簡易試作物300(簡易モックアップ)、及び可動部分301にマーカを添付することにより、これを見る観察者の視点の位置姿勢を補正することを可能とした複合現実感システムを示す。
第1の実施形態においては、磁気を使って観察者の視点の位置姿勢を計測する場合を例に説明したが、磁気を使った場合には環境により計測精度が不安定になる場合がある。たとえば磁気トランスミッタの背景に金属物体が存在する場合には磁場が乱れ、磁気センサの出力する値が不安定になる。また、磁気トランスミッタと磁気センサの距離が遠くなるほど、計測精度が悪化するなどの問題がある。さらに、別の計測手段の例として、光学的に計測する手段が存在するが、この場合には光を発光させる装置と、光を受光する装置間に遮蔽物が存在すると計測不可能になるなどの問題がある。
よって本実施形態では、簡易試作物300、可動部分301に添付されたマーカの映像を取り込み、この映像を用いることで、観察者の視点の位置姿勢を補正するというものである。
図5は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。
同図において図1と同じ部分については同じ番号を付けており、その説明は省略する。また、同図において図1と異なる点は、簡易試作物300、可動部分301のそれぞれにマーカ310,311が添付されているという点である。マーカとしては、位置姿勢補正のアルゴリズムに応じて、形状マーカあるいは、色マーカなど種々のものが考えられる。
なお同図では簡易試作物300、可動部分301に添付するマーカの個数は1個ずつであるが、この数に限定されるものではなく、それぞれ複数個数添付するようにしても良い。
図6は、本実施形態に係るコンピュータ400の機能構成を示す図である。同図において図3と同じ部分については同じ番号を付けており、その説明は省略する。同図において図3と異なる点は、マーカ検出部410が加わった点にある。
また、図7は、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理手順を示す図である。同図において図4と同じ部分については同じ番号を付けており、その説明は省略する。
以下、簡易試作物300、可動部分301に添付されたマーカを用いて、観察者の視点の位置姿勢を補正する処理について図6,7を用いて説明する。なお、以下説明する点以外については基本的には第1の実施形態と同様である。
3Dソリッドデータより光造形などのラピッド・プロトタイピング装置で作成した簡易試作物300に対して、マーカを添付する(1120)。そして、マーカを添付した位置を算出するのであるが、その算出結果は、このときのロータリーエンコーダ210による計測値に基づいて上記式でもって決まる回転角度と共に、外部記憶装置205に記録する(1130)。
ここで、マーカの位置は階層座標系で表現する。すなわち、簡易試作物300に添付したマーカの位置情報は簡易試作物座標系(簡易試作物300上の1点を原点とし、この原点の位置で互いに直交する3軸をそれぞれx、y、z軸とする座標系)で記述し、可動部分301に添付したマーカの位置情報は、簡易試作物座標系の子座標系である可動部座標系(可動部分301上の1点を原点とし、この原点の位置で互いに直交する3軸をそれぞれx、y、z軸とする座標系)で記述する。
次に、複合現実感システムが行う、この3D−CG描画データ406を用いて仮想空間の画像(仮想物体の画像)を生成し、現実空間の画像に重畳させて観察者に提示する処理について、同図右側を参照して説明する。
本実施形態では、第1の実施形態に加えて、カメラ102R、102Lより撮像された現実空間の画像が映像キャプチャ部401R、410Lによりコンピュータ400に入力されるので、マーカ検出部410はこの画像から、マーカを抽出する処理を行う(3011)。この抽出処理により、画像におけるマーカの位置を検出することができる。
一方で、操作者が可動部分301を手に持ってその角度を回転させると、そのときの角度は上述のようにして求めることができるので、先ず、外部記憶装置205に記憶させてある「可動部分301に添付されたマーカの位置」と簡易試作物300の位置姿勢とを用いてセンサ座標系におけるマーカの位置姿勢を求め、これを回転角度だけ回転させたことで得られる現在のマーカの位置(センサ座標系における位置)を求める。
よって以上の処理により、可動部分301に添付されたマーカのセンサ座標系における位置と、画像上におけるマーカの位置とが得られるので、これらの位置関係を用いて、磁気センサ201による計測結果を補正することができる(2033)。なお、このような補正方法については周知のものであるので、これに関する詳細な説明は省略する。また、補正方法についてはこれに限定するものではない。
よって、以上の処理によって視点の位置姿勢を補正すると、以降は第1の実施形態の実施形態と同様にして処理を行う。
[第3の実施形態]
第1の実施形態では、簡易試作物300の位置は固定されていたが、本実施形態では観察者がこの簡易試作物300を手に持つことでその位置や姿勢が変わり、且つ可動部分301の角度も任意に変更することが可能な場合について説明する。このような場合、簡易試作物300に磁気センサ201と同様の磁気センサを取り付ける。
図8は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。
同図において図1と同じ部分については同じ番号を付けており、その説明は省略する。また、同図において図1と異なる点は、簡易試作物300、可動部分301、ロータリーエンコーダ210の代わりに、簡易試作物(同図ではカメラ)300’、可動部分301’、ロータリーエンコーダ210’、磁気センサ202を用いるという点である。
300’は、カメラの簡易試作物であり、可動部分301’を有する。また、第1の実施形態と同様に、この可動部分301’の回転角度を測定する為に、ロータリーエンコーダ210’が取り付けられている。また、この簡易試作物300のセンサ座標系における位置姿勢を計測するための磁気センサ202が取り付けられている。
図9は、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理手順を示す図である。同図において図4と同じ部分については同じ番号を付けており、その説明は省略する。また、図9に示した処理が図4と異なる点は、処理2010で、簡易試作物300’の位置姿勢を計測するという点にある。
即ち、第1の実施形態では、予め定められた簡易試作物300の位置姿勢データを、外部記憶装置205から読み出すことで得ていたが、本実施形態では、センサ202から取得する。よって、本実施形態と第1の実施形態とは、簡易試作物300の位置姿勢の取得方法が異なるのみで、それ以外については同じである。
[第4の実施形態]
本実施形態では、第2,3の実施形態を組み合わせる。即ち、簡易試作物300の位置姿勢が任意に変更してもそれを取得すべく、簡易試作物300に磁気センサ202を備えると共に、簡易試作物300、可動部分301にマーカを添付する。これにより、第2の実施形態におけるシステムで、視点の位置姿勢の計測精度を向上させることができる。
図10は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。同図において図1、5,8と同じ部分については同じ番号を付けており、その説明は省略する。図10に示すように、システムの構成は第2の実施形態に係るシステムの構成と、第3の実施形態に係るシステムの構成とを用いたものとなっている。
図11は、観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理手順を示す図である。同図において図4と同じ部分については同じ番号を付けており、その説明は省略する。
なお、本実施形態の処理に係る説明は、第2,3の実施形態における説明で、マーカ310,311を310’、311’、簡易試作物300と簡易試作物300’、可動部分301を可動部分301’と読み替えればよい。
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。 HMD100の具体的な構成を示す図である。 コンピュータ400の機能構成を示す図である。 観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理の手順を示す図である。 現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。 本発明の第2の実施形態に係るコンピュータ400の機能構成を示す図である。 観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理手順を示す図である。 現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。 観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理手順を示す図である。 現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理過程において、可動部分を有する現実物体(簡易試作物)にこの現実物体を表す仮想物体を重畳させる場合に、この可動部分が可動すると、それに伴って仮想物体におけるこの可動部分に相当する部分を可動させるためのシステムの外観を示す図である。 観察者の右目、左目に対して、それぞれの位置姿勢に応じて見える複合現実空間の画像を提示する為の処理手順を示す図である。 コンピュータ400の基本構成を示す図である。 本発明の第1の実施形態で用いている簡易試作物300における可動部分301の可動様態を示す図である。

Claims (9)

  1. 仮想空間の画像を生成して出力する画像処理装置であって、
    観察者の視点の位置姿勢を取得する第1の取得手段と、
    前記視点から見える現実空間の画像を入力する入力手段と、
    可動部分を有する現実物体の位置姿勢を取得する第2の取得手段と、
    前記可動部分の可動量を取得する可動量取得手段と、
    前記現実物体を表す仮想物体の前記可動部分に該当する部分を前記可動量に基づいて可動させる可動手段と、
    前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記入力手段が入力した現実空間の画像上における各マーカの位置を検出する検出手段と、
    前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記可動量取得手段で取得した可動量に基づいて、前記可動部分に取り付けられているマーカの位置を求める計算手段と、
    前記検出手段が検出した各マーカの位置と、前記計算手段が計算した位置と、を用いて、前記第1の取得手段が取得した前記観察者の視点の位置姿勢を補正する補正手段と、
    前記可動手段によって前記可動部分に該当する部分を可動させた前記仮想物体を前記視点から見た場合に見える画像を、前記観察者の視点の前記補正後の位置姿勢、前記現実物体の位置姿勢に基づいて生成する生成手段と、
    前記生成手段によって生成した画像を、前記入力手段が入力した現実空間の画像上に重畳させて出力する出力手段と
    を備えることを特徴とする画像処理装置。
  2. 前記可動量取得手段は、前記現実物体に取り付けられている計測装置により計測された前記可動部分の可動量を取得することを特徴とする請求項1に記載の画像処理装置。
  3. 前記可動量は、ロータリーエンコーダで計測した、回転角度であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記可動量は、リニアエンコーダで計測した、平行移動量であることを特徴とする請求項2に記載の画像処理装置。
  5. 前記第2の取得手段は、予め定められた前記現実物体の位置姿勢を取得することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記第2の取得手段は、前記現実物体に取り付けられたセンサによって計測された前記現実物体の位置姿勢を取得することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  7. 仮想空間の画像を生成して出力する画像処理装置が行う画像処理方法であって、
    前記画像処理装置の第1の取得手段が、観察者の視点の位置姿勢を取得する第1の取得工程と、
    前記画像処理装置の入力手段が、前記視点から見える現実空間の画像を入力する入力工程と、
    前記画像処理装置の第2の取得手段が、可動部分を有する現実物体の位置姿勢を取得する第2の取得工程と、
    前記画像処理装置の可動量取得手段が、前記可動部分の可動量を取得する可動量取得工程と、
    前記画像処理装置の可動手段が、前記現実物体を表す仮想物体の前記可動部分に該当する部分を前記可動量に基づいて可動させる可動工程と、
    前記画像処理装置の検出手段が、前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記入力工程で入力した現実空間の画像上における各マーカの位置を検出する検出工程と、
    前記画像処理装置の計算手段が、前記可動部分と、前記現実物体における前記可動部分以外の非可動部分と、のそれぞれに1以上のマーカが取り付けられている場合に、前記可動量取得工程で取得した可動量に基づいて、前記可動部分に取り付けられているマーカの位置を求める計算工程と、
    前記画像処理装置の補正手段が、前記検出工程で検出した各マーカの位置と、前記計算工程で計算した位置と、を用いて、前記第1の取得工程で取得した前記観察者の視点の位置姿勢を補正する補正工程と、
    前記画像処理装置の生成手段が、前記可動工程によって前記可動部分に該当する部分を可動させた前記仮想物体を前記視点から見た場合に見える画像を、前記観察者の視点の前記補正後の位置姿勢、前記現実物体の位置姿勢に基づいて生成する生成工程と、
    前記画像処理装置の出力手段が、前記生成工程によって生成した画像を、前記入力工程で入力した現実空間の画像上に重畳させて出力する出力工程と
    を備えることを特徴とする画像処理方法。
  8. コンピュータ請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
  9. 請求項に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2005123980A 2005-04-21 2005-04-21 画像処理装置、画像処理方法 Expired - Fee Related JP4667111B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2005123980A JP4667111B2 (ja) 2005-04-21 2005-04-21 画像処理装置、画像処理方法
PCT/JP2006/308680 WO2006115261A1 (en) 2005-04-21 2006-04-19 Image processing method and image processing apparatus
EP06732336A EP1886281B1 (en) 2005-04-21 2006-04-19 Image processing method and image processing apparatus
CN2006800132930A CN101164084B (zh) 2005-04-21 2006-04-19 图像处理方法和图像处理设备
US11/909,236 US8350897B2 (en) 2005-04-21 2006-04-19 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005123980A JP4667111B2 (ja) 2005-04-21 2005-04-21 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2006302034A JP2006302034A (ja) 2006-11-02
JP4667111B2 true JP4667111B2 (ja) 2011-04-06

Family

ID=37214875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005123980A Expired - Fee Related JP4667111B2 (ja) 2005-04-21 2005-04-21 画像処理装置、画像処理方法

Country Status (5)

Country Link
US (1) US8350897B2 (ja)
EP (1) EP1886281B1 (ja)
JP (1) JP4667111B2 (ja)
CN (1) CN101164084B (ja)
WO (1) WO2006115261A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP5269745B2 (ja) * 2009-10-30 2013-08-21 任天堂株式会社 オブジェクト制御プログラム、オブジェクト制御装置、オブジェクト制御システム及びオブジェクト制御方法
JP5728159B2 (ja) 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8947455B2 (en) * 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
WO2011127578A1 (en) * 2010-04-13 2011-10-20 Dean Stark Virtual product display
US9361628B2 (en) 2010-04-13 2016-06-07 Dean Stark Interactive video shelving system
US9733699B2 (en) 2010-04-13 2017-08-15 Dean Stark Virtual anamorphic product display with viewer height detection
JP5574854B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
WO2012106815A1 (en) 2011-02-11 2012-08-16 4D Retail Technology Corp. System and method for virtual shopping display
JPWO2012124250A1 (ja) * 2011-03-15 2014-07-17 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US9367869B2 (en) 2012-02-13 2016-06-14 Dean Stark System and method for virtual display
JP6397269B2 (ja) 2013-09-06 2018-09-26 キヤノン株式会社 画像処理装置、画像処理方法
KR20150031384A (ko) * 2013-09-13 2015-03-24 현대자동차주식회사 맞춤형 인터페이스 시스템 및 그 동작 방법
KR102086510B1 (ko) * 2013-09-26 2020-04-14 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
KR101830249B1 (ko) * 2014-03-20 2018-03-29 한국전자통신연구원 이동체의 위치 인식 장치 및 방법
US9808213B2 (en) 2014-08-11 2017-11-07 Canon Kabushiki Kaisha Image processing apparatus, image processing method, medical image diagnostic system, and storage medium
US9778814B2 (en) * 2014-12-19 2017-10-03 Microsoft Technology Licensing, Llc Assisted object placement in a three-dimensional visualization system
US20170115489A1 (en) * 2015-10-26 2017-04-27 Xinda Hu Head mounted display device with multiple segment display and optics
JP6711715B2 (ja) 2016-07-19 2020-06-17 キヤノン株式会社 画像処理装置および画像処理方法
JP6840481B2 (ja) 2016-07-19 2021-03-10 キヤノン株式会社 画像処理装置および画像処理方法
JP2018013839A (ja) * 2016-07-19 2018-01-25 株式会社Soken 仮想感性評価支援システム
JP2018110615A (ja) 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置および画像処理方法
CN107479804A (zh) * 2017-08-16 2017-12-15 歌尔科技有限公司 虚拟现实设备及其内容调整方法
US20190057180A1 (en) * 2017-08-18 2019-02-21 International Business Machines Corporation System and method for design optimization using augmented reality
JP7022554B2 (ja) 2017-10-03 2022-02-18 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
GB201813450D0 (en) * 2018-08-17 2018-10-03 Hiltermann Sean Augmented reality doll
US11422530B2 (en) * 2018-08-20 2022-08-23 Dell Products, L.P. Systems and methods for prototyping a virtual model
EP3696740B1 (en) * 2019-02-14 2024-01-10 Braun GmbH System for assessing the usage of an envisaged manually movable consumer product
CN111694432B (zh) * 2020-06-11 2023-04-07 济南大学 一种基于虚拟手交互的虚拟手位置矫正方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003063086A1 (fr) * 2002-01-23 2003-07-31 Michihiko Shouji Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage
JP2005083826A (ja) * 2003-09-05 2005-03-31 Canon Inc 情報処理方法、情報処理装置、識別方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU7161598A (en) * 1997-04-21 1998-11-13 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
US6346938B1 (en) * 1999-04-27 2002-02-12 Harris Corporation Computer-resident mechanism for manipulating, navigating through and mensurating displayed image of three-dimensional geometric model
US7411594B2 (en) * 2002-01-15 2008-08-12 Canon Kabushiki Kaisha Information processing apparatus and method
EP1398601A3 (en) * 2002-09-13 2014-05-07 Canon Kabushiki Kaisha Head up display for navigation purposes in a vehicle
JP2005063004A (ja) * 2003-08-08 2005-03-10 Canon Inc 複合現実感システム
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP3991020B2 (ja) * 2003-09-30 2007-10-17 キヤノン株式会社 画像表示方法及び画像表示システム
JP2005149409A (ja) * 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US7646394B1 (en) * 2004-03-05 2010-01-12 Hrl Laboratories, Llc System and method for operating in a virtual environment
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
JP4739002B2 (ja) * 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003063086A1 (fr) * 2002-01-23 2003-07-31 Michihiko Shouji Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage
JP2005083826A (ja) * 2003-09-05 2005-03-31 Canon Inc 情報処理方法、情報処理装置、識別方法

Also Published As

Publication number Publication date
CN101164084A (zh) 2008-04-16
US8350897B2 (en) 2013-01-08
WO2006115261A1 (en) 2006-11-02
US20090051758A1 (en) 2009-02-26
EP1886281A4 (en) 2010-03-10
EP1886281A1 (en) 2008-02-13
JP2006302034A (ja) 2006-11-02
CN101164084B (zh) 2010-08-04
EP1886281B1 (en) 2012-11-21

Similar Documents

Publication Publication Date Title
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP4401727B2 (ja) 画像表示装置及び方法
JP4739002B2 (ja) 画像処理方法、画像処理装置
JP3991020B2 (ja) 画像表示方法及び画像表示システム
JP4677281B2 (ja) 画像処理方法、画像処理装置
JP4677273B2 (ja) 情報処理方法および情報処理装置
JP3944019B2 (ja) 情報処理装置および方法
KR100823649B1 (ko) 캘리브레이션 방법 및 장치
JP5845211B2 (ja) 画像処理装置、画像処理方法
JP2009123018A (ja) 画像処理装置、画像処理方法
US20050123171A1 (en) Mixed reality exhibiting method and apparatus
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
KR20150085797A (ko) 정보처리장치 및 정보처리방법
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2008146497A (ja) 画像処理装置、画像処理方法
JP6295296B2 (ja) 複合システム及びターゲットマーカ
JP2006085375A (ja) 画像処理方法、画像処理装置
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
JP4343744B2 (ja) 画像処理方法、画像処理装置
JP7465133B2 (ja) 情報処理装置、情報処理方法
JP2006252059A (ja) 画像処理方法、画像処理装置
JP2022112228A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees