JP2007042055A - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP2007042055A
JP2007042055A JP2005356681A JP2005356681A JP2007042055A JP 2007042055 A JP2007042055 A JP 2007042055A JP 2005356681 A JP2005356681 A JP 2005356681A JP 2005356681 A JP2005356681 A JP 2005356681A JP 2007042055 A JP2007042055 A JP 2007042055A
Authority
JP
Japan
Prior art keywords
orientation
light source
image
operation target
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005356681A
Other languages
English (en)
Other versions
JP4739002B2 (ja
Inventor
Yukio Sakakawa
幸雄 坂川
Takeshi Kuroki
剛 黒木
Hideo Noro
英生 野呂
Masakazu Fujiki
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005356681A priority Critical patent/JP4739002B2/ja
Priority to US11/476,587 priority patent/US7965304B2/en
Publication of JP2007042055A publication Critical patent/JP2007042055A/ja
Application granted granted Critical
Publication of JP4739002B2 publication Critical patent/JP4739002B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Chemical & Material Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Materials Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】 仮想物体を現実空間に重畳させる場合に、仮想物体と現実物体との相対的な位置関係を明瞭に表示するための技術を提供すること。
【解決手段】 影立体生成部1711は、光源の位置から手の輪郭部分に延長する有限個数の直線群で規定される影モデルを求める。そして、仮想物体において影モデル内に含まれている部分が存在し、且つ光源の位置から見て、仮想物体の位置が手よりも遠い位置である場合には、含まれている部分に対して影を生成する。
【選択図】 図17

Description

本発明は、現実空間に仮想物体を重畳させた映像を生成する為の技術に関するものである。
複合現実感システムとは、現実空間映像と、ユーザの視点位置、視線方向等に応じて生成される仮想空間映像とを合成することにより得られる複合現実空間映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのように観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である。
一方、従来、設計・製造分野において3次元CADを使った設計(形状、デザイン)が主流になってきている。この場合、3次元CADで設計された物体を評価する方法としては、3次元CADで作成されたデータ(ソリッド形式)を3D−CGとして計算機の画面上に表示して視覚的に評価する方法等がある。
ここで、以上の複合現実感システムと3次元CAD技術の両方の技術を組み合わせ、物体操作デバイスで3DCGのデータを観察する方法がある。操作機能を設定するには、ユーザが観察している複合現実空間内に操作パネルを表示し、そのパネルに表示されたアイコンをスタイラスなどの操作手段で選択する方法等がある。
また、複合現実空間内を観察するには、ユーザの視点位置、視線方向等をリアルタイムで計測し、その視点位置、視線方向から現実空間内を観察した映像をビデオカメラ等で取得し、さらにその映像に対して、ユーザの視点位置、視線方向等から観測した仮想物体(CG物体)を重畳表示することにより実現される。
ここで、ユーザの視点位置、視線方向をリアルタイムに計測するには、位置及び姿勢の6自由度を計測あるいは推定するシステム(ここでは6自由度センサーと呼ぶ)を用いる。例えばPolhemus(登録商標)社のFastrakシステムを用いると、数センチ角ほどの大きさのレシーバの位置及び姿勢の6自由度が計測できる。
この計測した6自由度を、仮想空間内での仮想カメラの位置および方向(カメラ座標系)と結びつけることにより複合現実空間内を観察できる。
また、複合現実空間内のCG物体を操作するには、ユーザの視点・視線を検出するものとは別に用意した6自由度センサーを用いて、この6自由度センサーの位置及び姿勢をCG物体の物体座標系に対応付ける方法がある。この計測値をCG物体の物体座標系に対応付けることにより、レシーバを移動・回転するとそれにつれてCG物体が移動・回転することになる。
以上の手法により、現実空間中に仮想物体が存在するという、複合現実空間を観察することができる。しかしながら、現実物体と仮想物体との見え隠れが考慮されていないため、不都合が起こる。例えば現実物体を仮想物体の手前に置いたとき、現実物体の映像の上に仮想物体のCGが重畳描画されてしまうために、本来現実物体に隠されて見えないはずの仮想物体によって、逆に現実物体が隠されてしまう、という問題が起こる。
これを解決するには、例えば現実物体のCGモデルを用意し、現実映像に対しては透明であるが、CG映像に対しては不透明である物体を用いる方法がある。この方法によれば現実物体と仮想物体の見え隠れに関する問題は解消される。しかし、そのためには、現実物体のCGモデルを用意しなければならない。現実世界に予め配置されている机、椅子といったものには極めて有効な手法ではあるが、しかし、ユーザの手のようなものには不向きである。なぜなら、自由に変形する「ユーザの手」の位置および形状をリアルタイムで計測し、モデルを生成しなければならないからである。複雑に変形する物体の形状をリアルタイムで計測し、モデルを生成することは、非常に困難、若しくは不可能である。
ユーザの手の見え隠れに対応するために、ハンドオーバーレイという手法がある。これはカメラで撮影された映像中のユーザの手の部分にはCGを描画しない、あるいは従来の手法によって作成された映像の上に、さらにユーザの手の部分の現実映像を重畳する手法である。手の部分の抽出にはいくつかの手法があるが、例えばクロマキー処理によって手の色(肌色)の部分だけを抽出することができる。
特開平11−136706号公報
しかし、複合現実感システムでは仮想環境のCGアイコンを実ポインティングデバイスで選択しようとするときに、奥行き関係などの相対的な位置関係が分かりづらく、アイコンを選択するには困難であるという問題があった。
更に、複合現実空間においてこのような操作を行う際に、手の見え隠れという上記問題が生ずるのであるが、これを解消するために従来のハンドオーバーレイ手法を用いても、なお、手のような現実物体が落とす影は表現できない。
本発明は以上の問題に鑑みてなされたものであり、仮想物体を現実空間に重畳させる場合に、仮想物体と現実物体との相対的な位置関係を明瞭に表示するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、仮想空間中に光を照射する為の第1の光源を設定する第1の設定工程と、
仮想物体を前記仮想空間中に配置する配置工程と、
観察者の視点の位置姿勢を取得する第1の取得工程と、
前記第1の光源によって光が照射された前記仮想空間を、前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える映像を生成する生成工程とを備える画像処理方法であって、
仮想空間中に光を照射する為の第2の光源を設定する第2の設定工程と、
現実空間中における現実物体の位置姿勢を取得する第2の取得工程と、
前記第2の光源の位置から前記現実物体の輪郭部分に延長する複数の直線で規定される領域を求める計算工程と、
前記仮想物体において前記領域内に含まれる部分が存在するか否かを判断する第1の判断工程と、
前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置であるか否かを判断する第2の判断工程と、
前記仮想物体において前記領域内に含まれる部分が存在し、且つ前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置である場合には、前記含まれている部分に対して影を生成する生成工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、現実空間に仮想空間の映像を重畳させた映像を生成する画像処理方法であって、
観察者の視点の位置姿勢を入力する第1の入力工程と、
前記観察者が操作する指示具の位置姿勢を入力する第2の入力工程と、
仮想空間中に光を照射する為の光源を設定する設定工程と、
仮想物体としての操作対象を、前記視点との位置姿勢関係が固定された位置姿勢でもって仮想空間中に配置する配置工程と、
前記第1の入力工程で入力した位置姿勢の視点から見える、前記操作対象を含む仮想空間の映像を生成する生成工程とを備え、
前記生成工程は、
前記第2の入力工程で入力した指示具の位置姿勢に基づいて、前記指示具の一部が前記光源と前記操作対象との間に位置するか否かを判断する判断工程と、
前記判断工程で、前記指示具の一部が前記光源と前記操作対象との間に位置すると判断した場合には、前記光源から前記操作対象への光の照射方向に、前記指示具の映像を前記操作対象上に投影した映像を前記操作対象上に生成する投影工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、仮想空間中に光を照射する為の第1の光源を設定する第1の設定手段と、
仮想物体を前記仮想空間中に配置する配置手段と、
観察者の視点の位置姿勢を取得する第1の取得手段と、
前記第1の光源によって光が照射された前記仮想空間を、前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える映像を生成する生成手段と、
仮想空間中に光を照射する為の第2の光源を設定する第2の設定手段と、
現実空間中における現実物体の位置姿勢を取得する第2の取得手段と、
前記第2の光源の位置から前記現実物体の輪郭部分に延長する複数の直線で規定される領域を求める計算手段と、
前記仮想物体において前記領域内に含まれる部分が存在するか否かを判断する第1の判断手段と、
前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置であるか否かを判断する第2の判断手段と、
前記仮想物体において前記領域内に含まれる部分が存在し、且つ前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置である場合には、前記含まれている部分に対して影を示す映像を配置する影配置手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、現実空間に仮想空間の映像を重畳させた映像を生成する画像処理装置であって、
観察者の視点の位置姿勢を入力する第1の入力手段と、
前記観察者が操作する指示具の位置姿勢を入力する第2の入力手段と、
仮想空間中に光を照射する為の光源を設定する設定手段と、
仮想物体としての操作対象を、前記視点との位置姿勢関係が固定された位置姿勢でもって仮想空間中に配置する配置手段と、
前記第1の入力手段が入力した位置姿勢の視点から見える、前記操作対象を含む仮想空間の映像を生成する生成手段とを備え、
前記生成手段は、
前記第2の入力手段が入力した指示具の位置姿勢に基づいて、前記指示具の一部が前記光源と前記操作対象との間に位置するか否かを判断する判断手段と、
前記判断手段が、前記指示具の一部が前記光源と前記操作対象との間に位置すると判断した場合には、前記光源から前記操作対象への光の照射方向に、前記指示具の映像を前記操作対象上に投影した映像を前記操作対象上に生成する投影手段と
を備えることを特徴とする。
本発明の構成により、仮想物体を現実空間に重畳させる場合に、仮想物体と現実物体との相対的な位置関係を明瞭に表示することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者に提供すると共に、仮想空間中の仮想物体の閲覧、及び操作を可能にさせるための本発明の第1の実施形態に係るシステムの外観を示す図である。
同図において200はトランスミッタで、磁場を発生させる。100は観察者の頭部に装着し、現実空間と仮想空間とを合成した画像を観察者の眼前に提供する為の頭部装着型表示装置(以下、HMD:Head Mounted Displayと呼称する)で、カメラ102a、102b、表示装置101a、101b、磁気レシーバ201により構成されている。
カメラ102a、102bはそれぞれHMD100を頭部に装着した観察者の右目、左目の位置から見える現実空間を連続して撮像するものであり、撮像した各フレームの画像は後段のコンピュータ400に出力される。以下では、カメラ102a、102bを総称して「観察者の視点」と呼称する場合がある。
表示装置101a、101bはそれぞれ、観察者がHMD100を頭部に装着したときに右目、左目の眼前に位置するようにHMD100に装着されたものであり、後段のコンピュータ400から出力された画像信号に基づいた画像を表示する。従って観察者の右目、左目の眼前にはコンピュータ400が生成した画像が提供されることになる。
磁気レシーバ201は、上記トランスミッタ200が発する磁場の変化を検知し、検知した結果の信号を後段の位置姿勢計測装置205に出力するものである。検知した結果の信号は、トランスミッタ200の位置を原点とし、この原点の位置で互いに直交する3軸をx、y、z軸とする座標系(以下、センサ座標系と呼称する)において、磁気レシーバ201の位置姿勢に応じて検知される磁場の変化を示す信号である。位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢を求め、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。
図2は、HMD100の具体的な構成を示す図である。
101は映像表示装置であり、0.5〜数インチ程度の小型の液晶表示デバイス等で構成されるものである。103は、映像表示装置101の映像を拡大するレンズの役目を果たす自由曲面プリズムである。このような構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先に90インチ相当の映像として提示される。
102は映像入力装置であり、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。104は現実空間の光を映像入力装置102に収束させるためのレンズの役目をはたす撮像系プリズムである。撮像系プリズム104は自由曲面プリズム103の外側に、光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することが可能である。
図1に戻って、300は3Dポインティングデバイスで、その内部に磁気レシーバ202が備わっており、観察者が3Dポインティングデバイス300を手に持ってその位置や姿勢を変化させると、この磁気レシーバ202は磁気レシーバ201と同様に、センサ座標系における自身の位置姿勢に応じて検知される磁場の変化を示す信号(換言すれば、センサ座標系における磁気レシーバ202自身の位置姿勢を示す信号)を位置姿勢計測装置205に出力する。従って位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ202の位置姿勢を求めることができ、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。この3Dポインティングデバイス300は、3Dポインティングデバイス300に予め関連付けた仮想物体(観察対象の仮想物体)の位置や姿勢を変化させるために観察者が手に持って操作するものである。
301は3Dポインティングデバイス300とは異なる使用目的で使用される3Dポインティングデバイスで、3Dポインティングデバイス300と同様の磁気レシーバ203が備わっており、これにより磁気レシーバ202と同様に、自身のセンサ座標系における位置姿勢が求まる。3Dポインティングデバイス301は、仮想空間中に配置する仮想物体としての操作パネルを操作するための指示具として用いられるものである。よって、ポインティングデバイス301が指示している部分の位置姿勢を得るために、磁気レシーバ203はポインティングデバイス301において指示する部分に装着する(例えばポインティングデバイス301の一端を観察者が手に持つ場合、他端でもって操作パネルを指示するので、この他端に磁気レシーバ203を装着する)。また、この3Dポインティングデバイス301には操作ボタン303も設けられている。この操作ボタン303の使用については後述する。
400はコンピュータで、HMD100の表示装置101a、101bに出力すべき画像信号を生成したり、位置姿勢計測装置205からのデータを受け、これを管理したり等の処理を行う。
図3は、このコンピュータ400の機能構成を示す図である。本実施形態では、同図に示した各部はハードウェアでもって構成されたものとする。
401R、401Lは映像キャプチャ部であり、それぞれカメラ102a、102bより入力した画像をディジタル信号として取り込む。
404は位置姿勢情報入力部であり、位置姿勢計測装置205から出力されたデータを取り込む。このデータには、磁気レシーバ201のセンサ座標系における位置姿勢を示すデータ、3Dポインティングデバイス300が備える磁気センサ202のセンサ座標系における位置姿勢を示すデータ、3Dポインティングデバイス301が備える磁気レシーバ203のセンサ座標系における位置姿勢を示すデータが含まれる。
408はボタン情報入力部であり、3Dポインティングデバイス301に備わっている操作ボタン303が押下された場合には、押下された旨を示す信号を受け、後段の操作情報処理部409に送出する。なお、操作ボタン303は3Dポインティングデバイス301以外に設けるようにしても良く、例えばコンピュータ400に接続されている不図示のキーボードやマウスに備わっているボタンであっても良い。
411は、操作パネル描画データDB(データベース)で、操作パネルの映像を生成するためのデータ(操作パネル描画データ)のDBである。操作パネル描画データには、操作パネルの幾何学形状や色を示すデータ、テクスチャデータ、位置、姿勢を示すデータなどが含まれる。
なお、操作パネルは仮想空間内に配置するのであるが、常に表示装置101a、101b内の固定された位置に、操作面が見えるように表示するのが好適である。即ち、操作パネルの位置姿勢と観察者の頭部の位置姿勢との相対的な位置姿勢関係は固定されていることが好適である。従って、操作パネル描画データに含まれている「操作パネルの位置姿勢を示すデータ」とは、表示装置101a、101bの位置姿勢に対するバイアスのデータとなる。即ち、表示装置101a、101bの位置姿勢にこのバイアスを加えることで、表示装置101aと操作パネルとの位置姿勢関係、表示装置101bと操作パネルとの位置姿勢関係は固定されたものとなるので、操作パネルは表示装置101a、101b内の固定された位置に表示されることになる。詳しくは後述する。
406は、3DCG描画データDBで、仮想空間を構成する操作パネル以外の仮想物体(観察対象の仮想物体を含む)の映像を生成するためのデータ(3DCG描画データ)のDBである。3DCG描画データには、仮想物体の幾何学形状や色を示すデータ、テクスチャデータ、位置、姿勢を示すデータなどが含まれる。また、この3DCG描画データには、上記操作パネル以外の仮想物体に対して光を照射する光源のデータ(光源の種類、光源の位置、照射方向などのデータ)が含まれている。
405は位置姿勢算出部であり、位置姿勢情報入力部404から3Dポインティングデバイス300が備える磁気レシーバ202のセンサ座標系における位置姿勢を示すデータが入力された場合には、このデータと、センサ座標系と仮想空間との変換データ(仮想空間における位置姿勢とセンサ座標系における位置姿勢との間の関係を示すもので、この変換データにより、一方の座標系における位置姿勢を他方の座標系における位置姿勢に変換することができる)とを用いて、3Dポインティングデバイス300が備える磁気レシーバ202の仮想空間における位置姿勢を周知の計算により求める。なお、この3Dポインティングデバイス300に予め関連付けられた仮想物体の位置姿勢は、求めた位置姿勢に更新される。
また、位置姿勢情報入力部404から3Dポインティングデバイス301が備える磁気レシーバ203のセンサ座標系における位置姿勢を示すデータが入力された場合には、このデータと上記変換データとを用いて、3Dポインティングデバイス301が備える磁気レシーバ203の仮想空間における位置姿勢を周知の計算により求める。
また、位置姿勢情報入力部404から磁気レシーバ201のセンサ座標系における位置姿勢を示すデータが入力された場合には、このデータと上記変換データとを用いて、レシーバ201の仮想空間における位置姿勢を周知の計算により求める。なお、磁気レシーバ201とカメラ102a、102bそれぞれとの位置姿勢関係を示すデータを用いれば、周知の計算により、仮想空間におけるカメラ102a、102bの位置姿勢を求めることができる。本実施形態では磁気レシーバ201のセンサ座標系における位置姿勢から、仮想空間におけるカメラ102a、102bの位置姿勢を求めるためのデータは予め既知のデータとして与えられているものとする。
409は操作情報処理部であり、磁気センサ203(ポインティングデバイス301)と操作パネルとの相対的な位置関係により、ポインティングデバイス301によって操作パネルのどの部分を指示しているのかを判断する処理を行う。
410は操作パネル用仮想照明設定部410であって、仮想空間中に配置する操作パネルに対して光を照射する為の光源を設定する。周知の通り、仮想空間の映像を生成する際には、この仮想空間中に1以上の光源を設定する必要がある。操作パネル以外の仮想物体については、上述の通り、3DCG描画データに操作パネル以外の仮想物体に光を照射するための光源に係るデータが含まれているので、このデータが示す照射条件に従った光が仮想物体に対して照射されることになる。
407はCGレンダリング部で、位置姿勢算出部405が算出したカメラ102a、102bの位置姿勢に応じて見える仮想物体の映像を生成する。上述の通り、3Dポインティングデバイス300に関連付けられた仮想物体の画像は、3Dポインティングデバイス300の位置姿勢でもって仮想空間内に配置され、操作パネルは、カメラ102a、102bの位置姿勢に操作パネル描画データに従った位置姿勢を加算したことで得られる位置姿勢でもって仮想空間中に配置されるので、CGレンダリング部407は、これを位置姿勢算出部405が算出したカメラ102a、102bの位置姿勢でもって見た場合に、見える映像を生成することになる。なお、映像生成の際には、操作パネルには操作パネル用仮想照明設定部410によって設定された光源からの光が照射され、操作パネル以外の仮想物体には、3DCG描画データに含まれている照射条件に従って光が照射されている。
なお、所定の位置姿勢を有する視点から見える仮想物体の画像を生成する処理については周知の技術であるので、これに関する詳細な説明は省略する。
402R、402Lはそれぞれ、映像キャプチャ部401R、401Lから入力した現実空間の画像上に、CGレンダリング部407が生成したカメラ102aの位置姿勢に応じて見える仮想物体の画像、カメラ102bの位置姿勢に応じて見える仮想物体の画像を重畳させ、それぞれ、映像生成部403R、403Lに出力する。これにより、カメラ102aの位置姿勢に応じて見える複合現実空間の画像、カメラ102bの位置姿勢に応じて見える複合現実空間の画像を生成することができる。
映像生成部403R、403Lはそれぞれ、映像合成部402R、402Lから出力された複合現実空間の画像をアナログデータに変換し、それぞれ表示装置101a、101bに映像信号として出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目の位置に対応した複合現実空間の画像が表示される。
次に、複合現実空間の映像の生成処理について図4を用いて説明する。図4は、この処理のフローを示す図である。
先ず、3DCADデータから、3DCG描画データを生成するための処理手順について、同図の左側を参照して説明する。
通常、3次元CADシステムを使って形状やデザインなどの設計業務を行う(1010)場合には、3DCADのデータは、それぞれの3次元CADシステム固有のソリッドデータとして保存されるのが一般的である。上記観察対象の仮想物体は、このソリッドデータより、光造形などのラピッド・プロトタイピング装置を使って作成する。
一方、3Dソリッドデータは、各設計部品の幾何学的なパラメータの集合で表現されており、そのままではCGとして描画することはできない。そこで、3Dソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1110)。本複合現実感システムでは、このように変換された3DCG描画用データを使って仮想空間を生成する。生成された3DCG描画データは、3DCG描画データDB406に保持される。
図5は、操作パネル描画データに従って作成される仮想物体としての操作パネル500の表示例を示す図である。同図に示す如く、操作パネル500には、複数のボタン画像(アイコン)が配置されており、それぞれのアイコンは指示することでそれに応じた機能を実現させるためのものである。500aはこのようなアイコンの一例である。なお、操作パネルの構成については同図に示したものに限定するものではなく、より立体的なものであっても良いし、より複雑な操作を可能にするために、配するアイコンの数を増やしても良い。
次に、上記3DCG描画データ、操作パネル描画データを用いて仮想空間の画像(仮想物体の画像)を生成し、現実空間の画像に重畳させて観察者に提示する処理について、同図右側を参照して説明する。
ポインティングデバイス300に備わっている磁気レシーバ202は上述の通り磁気トランスミッタ200が発生する磁界の変化を計測し(2010)、その計測結果を信号として位置姿勢計測装置205に出力するので、位置姿勢計測装置205は、受けた信号に基づいて、センサ座標系における磁気レシーバ202の位置姿勢を示すデータをコンピュータ400に出力する(2030)。
同様に、磁気レシーバ201は上述の通り磁気トランスミッタ200が発生する磁界の変化を計測し(2020)、その計測結果を信号として位置姿勢計測装置205に出力するので、位置姿勢計測装置205は、受けた信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢(上述の通り、バイアスを加算すれば、カメラ102a、102bの位置姿勢が求まる)を示すデータをコンピュータ400に出力する(2030)。
同様に、磁気レシーバ203は上述の通り磁気トランスミッタ200が発生する磁界の変化を計測し(2020)、その計測結果を信号として位置姿勢計測装置205に出力するので、位置姿勢計測装置205は、受けた信号に基づいて、センサ座標系における磁気レシーバ203の位置姿勢を示すデータをコンピュータ400に出力する(2030)。
そして位置姿勢算出部405、CGレンダリング部407、操作パネル用仮想照明設定部410により、カメラ102a、102bのそれぞれから見える、「観察対象の仮想物体」、「操作パネル」の画像を生成する(2040)。
「観察対象の仮想物体」の画像の生成について説明すると、先ず、位置姿勢算出部405は、処理2030で「磁気レシーバ201の位置姿勢を示すデータ」に上記バイアスを加算して、センサ座標系におけるカメラ102a、102bの位置姿勢を求め、更に、上記変換データにより、仮想空間におけるカメラ102a、102bの位置姿勢を求める。
そして更に位置姿勢算出部405は、センサ座標系における「磁気レシーバ202の位置姿勢」と上記変換データにより、仮想空間における磁気レシーバ202の位置姿勢を求め、求めた位置姿勢に観察対象の仮想物体を配置する。なお、観察対象の仮想物体と磁気レシーバ202との相対的な位置姿勢関係が規定されているのであれば、観察対象の仮想物体の位置姿勢を磁気レシーバ202の位置姿勢に一致させなくても良い。
そしてCGレンダリング部407は、位置姿勢算出部405が求めた「カメラ102a、102bの位置姿勢を示すデータ」、及び「磁気レシーバ202の位置姿勢を示すデータ」を用いて、カメラ102a、102bの位置姿勢から見える観察対象の仮想物体の画像を生成する。このとき、観察対象の仮想物体を含む仮想物体(操作パネルを除く)の画像を生成する際には、3DCG描画データに含まれている光源に係るデータに従った光源でもって光が照射された状態での仮想物体の画像を生成する。
このように、所定の位置姿勢を有する視点から見える仮想物体の画像を生成する処理については周知の技術であるので、これに関する詳細な説明は省略する。
一方、「操作パネル」の画像の生成について説明すると、先ず位置姿勢算出部405は操作パネル描画データに含まれている、操作パネルの配置位置、姿勢のデータを参照し、このデータが示す位置姿勢を、先に求めた「仮想空間におけるカメラ102a、102bの位置姿勢」に加算して、仮想空間における操作パネルの位置姿勢を求める。これにより、上述の通り、カメラ102a、102bと操作パネルとの位置姿勢関係は固定される。よって、求めた位置姿勢でもって操作パネルを仮想空間中に配置する。そしてCGレンダリング部407は、位置姿勢算出部405が求めた「カメラ102a、102bの位置姿勢を示すデータ」、及び求めた「操作パネルの配置位置、姿勢のデータ」を用いて、CGレンダリング部407がカメラ102a、102bの位置姿勢から見える「操作パネル」の画像を生成する。また、一方では、ポインティングデバイス301に備わっている操作ボタン303が指示されると、ボタン情報入力部408は指示されたことを示す信号を受ける(2015)。
一方、操作情報処理部409は、「磁気センサ203の位置姿勢のデータ」を参照し、ポインティングデバイス301において指示する部分(以下、指示部分と呼称する)の位置が操作パネルのどの位置にあるのか、即ち、ポインティングデバイス301によって操作パネルのどの部分が指示されているのかをチェックする。
操作パネル描画データには、操作パネル上に配される各アイコンが操作パネル上に占める領域を示すデータが含まれているので、磁気レシーバ203の位置がどのアイコンの領域内にあるのかをチェックすることで、現在どのアイコンを指示しているのかをチェックすることができる。一方、操作情報処理部409がボタン情報入力部408から操作ボタン303が押下されたことを示す信号を受けている場合、現在指示しているアイコンを操作したと判断する。
以上の処理により、操作情報処理部409は、現在どのアイコンが操作されたのかを取得することができ、操作されたアイコンをCGレンダリング部407に通知する。よってCGレンダリング部407は、通知されたアイコンの表示色(例えばテクスチャ)を変化させ、現在選択されているアイコンを明示的にするようにする。操作パネルの画像を生成する際には、操作パネル用仮想照明設定部410によって設定された光源でもって光が照射された状態での操作パネルの画像を生成する。
このようにして、カメラ102a、102bの位置姿勢に応じて見える「観察対象の仮想物体」、「操作パネル」の画像(カメラ102aの位置姿勢に応じて見える画像は右目用の画像、カメラ102bの位置姿勢に応じて見える画像は左目用の画像である)を生成することができる。
以上のようにして、観察対象の仮想物体、操作パネルを含む、仮想空間を構成する仮想物体の画像を生成する。
一方、上記2010,2015,2020,2030,2040における処理と並行して、カメラ102a、102bより撮像された現実空間の画像は映像キャプチャ部401R、410Lによりそれぞれ映像合成部402R、402Lに入力され(3010)、映像合成部402R、402Lは、入力した画像をメモリ上に描画する(3020)。
そして、映像合成部402Rは、映像キャプチャ部401Rにより入力された右目用の現実空間の画像上に、CGレンダリング部407によりレンダリングされた右目用の画像(仮想物体の画像)を重畳させ、重畳後の画像(複合現実空間の画像)を後段の映像生成部403Rに出力する(4010)。
一方、映像合成部402Lは、映像キャプチャ部401Lにより入力された左目用の現実空間の画像上に、CGレンダリング部407によりレンダリングされた左目用の画像(仮想物体の画像)を重畳させ、重畳後の画像(複合現実空間の画像)を後段の映像生成部403Lに出力する(4010)。
即ち、現実空間の画像上への仮想物体の画像の重畳では、カメラ102aからの現実空間の画像上に、カメラ102aの位置姿勢から見える仮想物体の画像を重畳すると共に、カメラ102bからの現実空間の画像上に、カメラ102bの位置姿勢から見える仮想物体の画像を重畳する処理を行う。その結果、観察者の右目から見える複合現実空間の画像、左目から見える複合現実空間の画像を生成する。
映像生成部403R、403Lはそれぞれ、受けた複合現実空間の画像をアナログ信号としてのビデオ信号に変換し、表示装置101a、101bに出力する(4020)。
そして上記処理2010〜処理4020までの各処理を、例えば表示装置(101a、101b)における映像更新間隔で繰り返し行うことで、リアルタイムに情報提示を行う。
ここで、以上の処理を行えば、仮想物体としての操作パネル上に配されたアイコンを、ポインティングデバイス301を用いて指示、選択することができるのであるが、操作パネルは仮想物体であり、ポインティングデバイス301は現実物体であるので、ポインティングデバイス301を操作パネルに近づけても、観察者にはポインティングデバイス301と操作パネルとの距離感がつかみにくい。
そこで本実施形態では、操作パネル用仮想照明設定部410が設定した光源と操作パネルとの間にポインティングデバイス301の一部もしくは全部が位置する場合には、この一部もしくは全部の影の映像を操作パネル上に生成することで、ポインティングデバイス301と操作パネルとの距離間を通知する。
このような影の映像の生成方法については様々なものが考えられるが、以下ではその一例について説明する。
先ず、3DCG描画データDB406には、ポインティングデバイス301の位置姿勢に配置する(表示するとは限らない)仮想物体としての指示具のモデル(以下、指示具モデル)のデータを保持させておく。指示具モデルのデータとは、指示具モデルの形状データを含んでいれば良く、特に指示具モデルは描画しなくても良いものであるので、その他のデータ(例えばテクスチャデータなど)は必ずしも含んでいなくても良い。
そしてCGレンダリング部407は、操作パネル用仮想照明設定部410が設定した光源(以下、操作パネル用光源)からの光の照射方向に指示具モデルを操作パネル上に投影した映像を、ポインティングデバイス301の影の映像として操作パネル上に生成する。このような影の映像は、操作パネル用光源と操作パネルとの間にポインティングデバイス301の一部もしくは全部が位置していない場合には、どこにも投影されることがないので、生成されないし、表示されない。
このようにして、ポインティングデバイス301の影の映像を操作パネル上に生成することができる。なお、この指示具モデルの形状についてはポインティングデバイス301の形状を忠実に再現したものであっても良いし、適当な形状であっても良い。また、ポインティングデバイス301の指示部分のみについて影の映像を生成するようにしても良い。なお、一方の仮想物体の影の映像を他方の仮想物体上に生成するための技術については周知のものであるので、これ以上の説明は省略する。
以下の説明では、指示具モデルが常にポインティングデバイス301の位置姿勢に配置されている(表示するとは限らない)場合について説明するが表示されていても以下の説明は別段変わるところはない。
次に、操作パネル用光源について説明する。以下の説明では例として指示具モデルを図6に示すように、四角柱の形状を有するものであるとするが、以下の説明の本質はこのような形状に限定するものではない。
本実施形態では操作パネル用光源のタイプをディレクショナル・ライト(一定方向の光線を放射する照明)とするが、このタイプに限定することなく、ポイント・ライト(特定の位置から光線を全方向に放射する照明)や、スポット・ライト(光源の位置から円錐状に発散する照明)などその他のライトタイプでも良い。さらに、それらの組み合わせでも良い。さらに、本実施形態では、パネル用光源の数を3つとして説明するが、この数に限定するものではなく、1以上であればよい。
図7は、図5に示した操作パネル上にポインティングデバイス301を近づけた場合に、操作パネル上に生成される影の映像の表示例を示す図である。同図では説明を簡単にするために、操作パネル用光源の数が1である場合について示しており、影は同図に示す如く、700aが生成されている。影の映像は、ポインティングデバイス301の位置姿勢に配置した指示具モデルに基づいて上述のようにして作成されたものである。
次に、ディレクショナル・ライト光線方向について説明する。本実施形態では、操作パネル用光源を仮想空間中に設定する場合に、「操作パネル用光源からの照射方向を操作パネルに対して固定する」場合と、「操作パネル用光源からの照射方向をポインティングデバイス301(指示具モデル)に対して固定する」場合とがある。以下ではこの2つのケースについて説明する。
まず、操作パネル用光源からの照射方向を操作パネルに対して固定する場合について説明する。操作パネルにポインティングデバイス301(指示具モデル)の影を見やすく落とすために、照射方向は操作パネルの平面の法線ベクトルに対してある範囲の角度を持たなければならない。例えば、法線ベクトルに対して90度の角度から光線が来るとすると、操作パネルに影を映すことが出来ない。
図8は、操作パネルの面に、この面の法線に対して90度の角度でもって光を照射した場合の、操作パネルの面と照射される光との関係を示した図である。同図において500は操作パネルの面を示し、801はこの面の法線ベクトル、800は操作パネル用光源から照射される光の方向(ディレクショナル・ライト光線方向)を示す。
図9は、操作パネルの面に、この面の法線に対してある角度でもって光を照射した場合の、操作パネルの面と照射される光との関係を示した図である。同図において図8と同じ部分については同じ番号を付けており、その説明は省略する。同図ではディレクショナル・ライト光線方向800は、操作パネル500の面の法線ベクトル801と角度802(≠90度)を有する。本実施形態では、角度802は90度以上とするが、本実施形態のように複数の操作パネル用光源を設定し、かつそれらの操作パネル用光源の角度802が180度に近づかせると、複数のパネル用光源が一つのパネル用光源に省略される。そこで、角度802は、90度と180度の真中の135度を中心にある程度の幅をもたせることにする。
次に、操作パネル用光源からの照射方向を固定する場合について説明する。
図10は、ポインティングデバイス301(指示具モデル600)に対してある角度でもって光を照射した場合の、ポインティングデバイス301(指示具モデル600)と照射される光との関係を示した図である。同図において図8と同じ部分については同じ番号を付けており、その説明を省略する。同図において600aはポインティングデバイス301の指示部分に相当する部分である。600bは、ポインティングデバイス301とディレクショナル・ライト光線方向800との角度を示す。
角度600bが0度に近づくと、ポインティングデバイス301の影は点になったりする上に、操作パネル用光源を複数設定した場合には、一つの操作パネル用光源に省略することがなる。また、角度600bが90度以上になると、かえって操作パネル用光源からの光が操作パネルに当たらないことが多くなる。ここで、角度600bは、0度と90度の真中の45度を中心にある程度の幅をもたせることにする。
さらに、指示具モデル600の長手方向を軸にし、その周りに複数の操作パネル用光源を均等に配置したい場合は、図12に示すように3つの操作パネル用光源のディレクショナル・ライト光線800d、800e、800fのそれぞれの光線方向間の角度を
900d=900e=900f=360度/m
にする。ただし、mはパネル用光源の数である。
なお、影が見やすく映すことができれば、それぞれの操作パネル用光源は異なるタイプ、位置、方向にしても良い。
以上のように、第1の実施形態によれば、操作パネルの為の光源を設け、操作パネル上に影のモデルを配置すると、ポインティングデバイスと操作パネルとの間の相対位置関係が視覚的に分りやすくなり、操作パネルでのポインティングデバイスの操作を容易にすることができる。
なお、本実施形態では、HMDはビデオシースルータイプのものを用いたが、光学シースルー型のものを用いてもよいことはいうまでもない。
[第2の実施形態]
第1実施形態では、操作パネル用光源を仮想空間中に設定する場合に、「操作パネル用光源からの照射方向を操作パネルに対して固定する」場合と、「操作パネル用光源からの照射方向をポインティングデバイス301(指示具モデル)に対して固定する」場合とがあった。しかし、「操作パネル用光源からの照射方向を操作パネルに対して固定する」場合、ポインティングデバイス301の影が点になったり、観察者からみると影はポインティングデバイス301の後ろに隠れたりする場合がある。また、「操作パネル用光源からの照射方向をポインティングデバイス301(指示具モデル)に対して固定する」場合、ポインティングデバイス301の傾きによってその影が操作パネルに映らなかったりする場合がある。
そこで本実施形態では、ポインティングデバイスの位置姿勢、操作パネルの位置姿勢、観察者の頭部の位置姿勢(表示装置101a、101bの位置姿勢)に基づいて、操作パネル用光源の位置姿勢を決定する。なお以下の説明では操作パネル用光源のタイプをディレクショナル・ライト光線にし、さらに操作パネル用光源の数を3つとするが、以下の説明の本質はこれに限定するものではない。
図11は、複合現実空間の映像の生成処理のフローを示す図である。なお、同図において図4と同じ部分には同じ番号を付けており、その説明を省略する。
処理2031では、ポインティングデバイスの位置姿勢、操作パネルの位置姿勢、観察者の頭部の位置姿勢のそれぞれに基づいて、操作パネル用光源を設定する処理を行う。そして処理2040で操作パネルの映像を生成する際には、処理2031で設定した操作パネル用光源から光を照射された操作パネルの映像を生成する。
以下、本実施形態に係る操作パネル用光源の設定方法について図12を参照して説明する。図12は、ポインティングデバイス301(指示具モデル600)、操作パネル500に対してある角度でもって光を照射した場合の、ポインティングデバイス301(指示具モデル600)、操作パネル500と照射される光との関係を示した図である。同図において図8と同じ部分については同じ番号を付けており、その説明を省略する。
同図に示すように、照射方向800とポインティングデバイス301との角度600bが0度以上且つ90度以下(できるだけ45度に近い角度)となるように、且つ照射方向800と操作パネル500の法線ベクトル801との角度802が90度以上且つ180度以下(できるだけ135度に近い角度)となるように、操作パネル用光源を設定する。この二つの条件を満たすために、例えば一つの式として、
角度802=角度600d/2.0+90度
がある。ただし、角度600dは、ポインティングデバイス301の長手方向の軸600cと操作パネル500の面とが成す角度である。
また、ポインティングデバイス301の影が、観察者から見てポインティングデバイス301の後ろに隠れないように、操作パネル用光源からの光の照射方向を、観察者の頭部位置とポインティングデバイス301とを結ぶ一直線と平行にならないように調整する。例えば、複数の操作パネル用光源があって、これらを均等に配置する場合、観察者の頭部がこの2つの操作パネル用光源の真中に来るように設定する。これは設定の一例である。
このような操作パネル用光源の設定処理は、操作パネル用仮想照明設定部410が行う。
以上のように、第2の実施形態によれば、操作パネル用の光源を決定する際には、ポインティングデバイスの位置姿勢、操作パネルの位置姿勢と観察者の頭部位置姿勢の相対的位置を考量すると、ポインティングデバイスの見やすい影を投影するにポインティングデバイスの姿勢の影響が軽減されるし、さらにポインティングデバイスの影はポインティングデバイスの後ろに隠れることが少なくなるので、ポインティングデバイスと操作パネルの相対的位置が視覚的にもっと分りやすくなり、操作パネルでのポインティングデバイスの操作をさらに容易にすることができる。
[第3の実施形態]
第1,2の実施形態では、操作パネル用仮想照明決定方法を使ってもっと分かりやすいポインティングデバイスの影を描画することが可能と説明したが、操作パネルとポインティングデバイスとの観察者の頭部の相対的な位置姿勢によって、ポインティングデバイスが操作パネルに落とす影を見づらい場合もありえる。
本実施形態では、ポインティングデバイスのさらに認識しやすい影を操作パネル上に配置するために、複数の光源を設定する方法について説明する。
図13は操作パネルと3つの光源によるポインティングデバイスの影の描画結果の一例を示す図である。
本実施形態では、操作パネルの平面に対して複数の操作パネル用光源を均等に配置する。図14は操作パネルの面を真上から見たときの複数のディレクショナル・ライト光線方向を示す図である。800a、800b、800cはそれぞれのパネル用光源からのディレクショナル・ライト光線を示す。900a、900b、900cはそれぞれ、ディレクショナル・ライト光線800aと800b、800bと800c、800cと800aの間の角度を示す。この角度を何れも均等にするために、
900a=900b=900c=360度/n
にする。ただし、nはパネル用光源の数である。
本実施形態では、光源の数を3つにした例として説明をしたが、光源のタイプと数はこれに限定するものではない。また、影が見やすく映すことができれば、それぞれの光源は異なるタイプ、位置、方向にしても良い。
以上のように、本実施形態によれば、操作パネル用光源を決定する際に複数の光源を設定することで、認識しやすい影の数が増えるので、ポインティングデバイスと操作パネルの相対的位置を視覚的もっと分りやすくなり、操作パネルでのポインティングデバイスの操作をさらに容易にすることができる。
[第4の実施形態]
上記実施形態では、コンピュータ400の機能構成は図3に示したものであり、且つ図3に示す各部はハードウェアでもって構成されたものであるとして説明したが、コンピュータ400には一般のPC(パーソナルコンピュータ)やWS(ワークステーション)などを用いても良く、その場合に、図3に示す各部のうち一部をソフトウェアでもって実現させるようにしても良い。
図15は、このようなコンピュータ400の基本構成を示すブロック図である。
同図において1701はCPUで、RAM1702やROM1703に格納されているプログラムやデータを用いて本コンピュータ400全体の制御を行うと共に、上記各実施形態において、本コンピュータ400が行うべき各処理を行う。
1702はRAMで、外部記憶装置1706からロードされたプログラムやデータを一時的に記憶するためのエリア、I/F1707を介して外部から受信したデータを一時的に記憶する為のエリア、CPU1701が各種の処理を実行する際に使用するワークエリア等、各種のエリアを適宜提供することができる。
1703はROMで、本コンピュータ400の設定データや、ブートプログラムなどを格納する。
1704は操作部で、キーボードやマウスなどのポインティングデバイスにより構成されており、各種の指示をCPU1701に対して入力することができる。
1705は表示部で、CRTや液晶画面などにより構成されており、CPU1701による処理結果を画像や文字などでもって表示することができる。例えばHMD100に出力する複合現実空間の映像をここに表示し、本コンピュータ400の操作者に対しても提示することができる。
1706は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置であり、ここにOS(オペレーティングシステム)や、CPU1701に上記各実施形態において、本コンピュータ400が行うべき各処理を実行させる為のプログラム(図3においてデータベースを除く各部の機能を実現するためのプログラム)やデータ(図3においてデータベースが保持するデータ群)等が保存されている。また外部記憶装置1706には上記各実施形態における説明で、既知のデータとして用いたものも保存されている。
そして、これらの保存されているプログラムやデータはCPU1701の制御によってRAM1702にロードされ、これをCPU1701が用いることで、本コンピュータ400は、上記各実施形態における処理を行うことができる。
1707はI/Fで、ここに位置姿勢計測装置205,表示装置101a、101b、カメラ102a、102bが接続され、コンピュータ400はこれらをI/F1707を介してデータ通信を行う。なお、各機器毎にI/Fを設けるようにしても良いし、I/Fは各機器との通信形態に応じて異ならせるようにしても良い。
1708は上述の各部を繋ぐバスである。
また、以上の実施形態では、複合現実空間の映像を生成してHMD100に提供する一連の処理を1台のコンピュータでもって行うようにしたが、複数台のコンピュータに処理を適当に分散させるようにしても良い。
[第5の実施形態]
本実施形態では、仮想物体と現実物体との位置関係を明瞭にするために、現実物体の影を仮想物体上に生成する実施形態について説明する。なお、本実施形態は、以下説明する点以外については、第1の実施形態と同様である。
図16は、現実空間に仮想空間を重畳させた複合現実空間を観察者に提供すると共に、仮想空間中の仮想物体の閲覧、及び操作を可能にさせるための本実施形態に係るシステムの外観を示す図である。尚、同図において図1と同じ部分については同じ番号を付けており、その説明は省略する。
図16に示す如く、本実施形態に係るシステムは、第1の実施形態に係るシステムから3Dポインティングデバイス301とこれに備わっている磁気レシーバ203を省くと共に、カメラ102a、102bとは別個のカメラ1601(客観視点)を加えた構成となっている。更に、コンピュータ400の代わりに、コンピュータ400とは異なる機能構成を有するコンピュータ1600を用いる。
カメラ1601は、その位置姿勢が固定されたものであり、カメラ102a、102と同様に現実空間の動画像を撮像し、撮像した各フレームの画像を順次コンピュータ1600に送出するものである。なお、カメラ1601の位置姿勢を示すデータは予めコンピュータ1600に登録されている。
しかし、カメラ1601の位置姿勢を動的に変化させるようにしても良く、その場合、カメラ1601には、磁気レシーバ203と同様の磁気レシーバを設ける。これにより、位置・姿勢計測装置205によって、その他の磁気レシーバによる位置姿勢計測と同様にしてカメラ1601の位置姿勢を求めることができる。尚、求めたカメラ1601の位置姿勢を示すデータはコンピュータ1600に入力される。
次に、本実施形態に係るコンピュータ1600の機能構成について説明する。図17は、このコンピュータ1600の機能構成を示す図である。本実施形態では、同図に示した各部はハードウェアでもって構成されたものとする。しかし、本実施形態に係るコンピュータ1600についても第4の実施形態で説明したように、一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等でもって構成するようにしても良い。その場合、図17に示す各部のうち一部をソフトウェアでもって実現させるようにしても良い。
尚、図17において図3と同じ部分については同じ番号を付けており、その説明は省略する。
本実施形態では、映像キャプチャ部401R、401Lにより取り込んだディジタル信号は映像合成部402R、402Lに対してだけでなく、物体マスク抽出部1708R、1708Lにも入力される。物体マスク抽出部1708R、1708Lは、映像キャプチャ部401R、401Lから入力されたディジタル信号が示す画像中において、抽出対象として予め定められた現実物体の領域と、この領域以外の領域とに分ける。本実施形態ではこの現実物体として「人の手」を用いる。従ってこの場合、物体マスク抽出部1708R、1708Lは、画像中において肌色(肌色としてある範囲内の色を用いても良い)の画素値を有する画素群を抽出し、抽出した画素群による領域を手の領域として抽出する。
ここで、映像合成部402R、402Lの動作については第1の実施形態と基本的には同じであるが、本実施形態では、物体マスク抽出部1708R、1708Lにより抽出された領域には、仮想物体の画像を重畳しないようにする。このような処理技術については様々なものが考えられるが、例えばOpenGLを用いて現実空間画像上に仮想物体画像を描画する場合、ステンシルバッファにマスク画像(手の領域をマスクした画像)を割り当てることによって実現できる。
このように、手の領域には仮想物体の画像を重畳させていない複合現実空間の画像は右目用のものが映像合成部402Rから映像生成部403Rに送出され、左目用のものが映像合成部402Lから映像生成部403Lに送出される。映像生成部403R、403Lは第1の実施形態で説明したように動作するので、結果として映像表示装置101a、101bの表示画面上にはこのような左目用、右目用の複合現実空間画像が表示されることになる。
また、位置・姿勢情報入力部404には第1の実施形態と同様に、位置・姿勢計測装置205から出力されたデータを取り込む。本実施形態ではこのデータには、磁気レシーバ201のセンサ座標系における位置姿勢を示すデータ、3Dポインティングデバイス300が備える磁気センサ202のセンサ座標系における位置姿勢を示すデータ、が含まれる。また、カメラ1601の位置姿勢が動的に変化する場合には、カメラ1601のセンサ座標系における位置姿勢を示すデータも含まれることになる。
そして位置・姿勢算出部405は、基本的には第1の実施形態と同様の動作を行うのであるが、カメラ1601の位置姿勢が動的に変化する場合には、カメラ1601のセンサ座標系における位置姿勢を示すデータと上記変換データとを用いて、カメラ1601の仮想空間における位置姿勢を周知の計算により求める。
1706は3DCG描画データDBで、仮想空間を構成する仮想物体(観察対象の仮想物体、後述する影モデルを含む)の映像を生成するためのデータ(3DCG描画データ)のDB(データベース)である。3DCG描画データには、仮想物体の幾何学形状や色を示すデータ、テクスチャデータ、位置、姿勢を示すデータなどが含まれる。また、この3DCG描画データには、仮想空間に光を照射する為の光源や影モデルを生成する際に用いる光源のデータ(光源の種類、光源の位置、照射方向などのデータ)が含まれている。また、3DCG描画データDB1706には、カメラ1601の位置姿勢が固定されている場合には、この固定されている位置姿勢のデータが予め格納されている。
1701Bは映像キャプチャ部であり、カメラ1601より入力した画像をディジタル信号として取り込む。取り込んだ信号は映像合成部1702B、物体マスク抽出部1708Bに出力する。物体マスク抽出部1708Bは上記物体マスク抽出部1708R、1708Lと同様のものであり、映像キャプチャ部1701Bから受けた画像中において、手の領域と、手の領域以外の領域とに分ける。
映像合成部1702Bは、上記映像合成部402R、402Lと同様の動作を行い、物体マスク抽出部1708Bにより抽出された領域には、仮想物体の画像を重畳しないようにする。即ち、映像合成部1702Bには映像キャプチャ部1701Bからカメラ1601により撮像された現実空間の画像が入力されると共に、CGレンダリング部407からは、カメラ1601の位置姿勢に応じて見える仮想物体の画像が入力される。ここで、CGレンダリング部407は、基本的には第1の実施形態と同様の動作を行うのであるが、カメラ1601の位置姿勢に応じて見える仮想空間の画像を生成する処理をも行う。従って、映像合成部1702Bは、カメラ1601の位置姿勢に応じて見える複合現実空間画像を生成することになる。そして、手の領域には仮想物体の画像を重畳させていない複合現実空間の画像が映像合成部1702Bから映像生成部1703Bに送出される。映像生成部1703Bは映像生成部403R、403Lと同様の動作を行い、カメラ1601の位置姿勢に応じて見える複合現実空間の画像を、例えば、HMD100を頭部に装着していない第三者が見ることのできる表示装置(不図示)に送出する。
次に、現実物体の一例としての「手」の影を仮想物体上に描画するために、同図の物体位置推定部1709、影立体生成制御部1710、影立体生成部1711が行う処理について、図18を用いて説明する。図18は、現実物体の影を仮想物体上に生成するための仕組みについて示した図である。
図18においてoは後述する影モデルを生成するために光源を配置する位置を示すもので、本実施形態ではカメラ1601の位置姿勢でもって配置する。即ち、カメラ1601の位置姿勢は予め3DCG描画データDB1706に登録されている、若しくは位置・姿勢算出部405によって算出されるので、この登録されている/算出される位置姿勢に光源を配置する。
同図において1801はカメラ1601の撮像面で、撮像した画像はこの撮像面上に投影されることになる。1810は現実物体であり、本実施形態ではこの現実物体1810として「手」を用いるが、ここでは説明を簡単にするために、立方体を用いる。
1803,1806はそれぞれ仮想物体(β、α)であり、光源の位置oから見て、現実物体1810よりも近くに配置されているもの、遠くに配置されているものの例である。
1802は、カメラ1601により撮像された現実空間の画像のマスク画像であり、撮像面1801上に投影された現実空間の画像に対して物体マスク抽出部1708Bが生成したマスク画像である。
このような状況の場合、先ず、マスク画像上における現実物体の輪郭部分上に有限個数のサンプルポイントを設定する。ここでは現実物体1810の各頂点A,B,C,Dをサンプルポイントとするが、サンプルポイントの設定方法については特に限定するものではない。例えば、輪郭部分をトレースし、曲率半径が所定値以下となった箇所にサンプルポイントを設定するようにしても良いし、トレースしながら一定間隔毎にサンプルポイントを設定するようにしても良い。
次に、光源の位置から各サンプルポイントに延長した線分で囲まれた領域を求める。同図の場合、面OAB、OBC、OCD、ODAで囲まれた錘状の領域となる。この錐状の領域を示す仮想物体が影モデル(影立体)である。同図では、1820が影モデルを示す。
ここで物理現象としては、影モデル1820内の領域のうち、1805で示す領域、即ち、影モデル1820内の領域のうち、光源の位置oから見て現実物体1810よりも遠い領域内には、現実物体1810の影が発生することになるし、1804で示す領域、即ち、影モデル1820内の領域のうち、光源の位置oから見て現実物体1810よりも近い領域内には、現実物体1810の影は発生しない。
このことから、影モデル1820内に仮想物体の一部若しくは全部が含まれているような状況であっても、この含まれている部分が領域1804内であるのか、領域1805内であるのかによっては、現実物体1810の影をこの含まれている部分に生成する場合もあるし、生成しない場合もある。
そこで、現実物体1810の影を仮想物体上に生成する場合には以下の2つの判定処理が必要となる。
・ 仮想物体の一部若しくは全部が影モデル1820内に含まれているか否か
・ 含まれている部分がある場合には、この含まれている部分が光源の位置oから見て現実物体1810よりも遠い位置にあるのか、それとも近い位置にあるのか
そして、仮想物体の一部若しくは全部が影モデル1820内に含まれており、且つこの含まれている部分が光源の位置oから見て現実物体1810よりも遠い位置にある場合には、この含まれている部分に影を生成する。
次に、この影の生成処理についてより詳細に説明する。
物体位置推定部1709には、左目用の現実空間画像のマスク画像が物体マスク抽出部1708Lから入力されると共に、カメラ1601により撮像された現実空間画像のマスク画像が物体マスク抽出部1708Bから入力される。そして物体位置推定部1709は、この2つのマスク画像から、周知の三角測量の原理を用いて、それぞれのマスク画像においてマスクされた対象現実物体(即ち「手」)の位置を推定する。なお、この「手」の位置の推定のために用いるマスク画像の枚数は2以上であってももちろん良い。その場合には例えば、更に、右目用の現実空間画像のマスク画像を物体位置推定部1709に入力し、このマスク画像を含めた3枚のマスク画像を用いて同様にして「手」の位置を推定するようにしても良い。
ここで、「手」の位置の推定処理についてより詳細に説明する。先ず、マスク画像におけるマスク領域(「手」の領域)の重心位置と、このマスク画像を得るために用いた現実空間画像を撮像したカメラの焦点位置とを結ぶ直線を求める処理を、それぞれのマスク画像について行う。本実施形態の場合には、カメラ1601の焦点位置と、物体マスク抽出部1708Bが生成したマスク画像における「手」の領域の重心位置とを通る直線を求めると共に、映像入力装置102bの焦点位置と、物体マスク抽出部1708Lが生成したマスク画像における「手」の領域の重心位置とを通る直線を求める。そして求めたそれぞれの直線が最も接近した箇所(例えば、それぞれの直線が最も接近する、それぞれの直線上の点の中点)を「手」の位置として推定する。これは直線を3本以上求めた場合にも同様で、それぞれの直線が最も集まっている箇所を「手」の位置として推定する。
次に、影立体生成制御部1710は、仮想空間を構成している仮想物体の位置と、先に推定した「手」の位置とを比較する。仮想物体の位置については、例えば、予め位置が定められているものであれば、予め3DCG描画データDB1706に登録されているので、これを参照すればよい。また、ポインティングデバイス202に関連付けられている仮想物体であれば、磁気レシーバ300により計測されたポインティングデバイス202の位置を用いればよい。
そして、光源の位置oから見て「手」の位置よりも遠くに位置している仮想物体があれば、影立体生成部1711を制御し、影立体生成部1711は、上記影モデルを生成する。
そして更に影立体生成部1711は、光源の位置oから見て「手」の位置よりも遠くに位置している仮想物体において、影モデルの内部に含まれている部分があれば、この部分について影を生成する処理を行う。影を生成する方法については特に限定するものではなく、例えば、仮想物体において影モデルに含まれている部分に、ある透明度を有する黒のテクスチャをマッピングするようにしても良いし、この含まれている部分を構成している要素(例えばポリゴン)の明度を落とすようにしても良い。このように、影を生成する処理を行うことで、この仮想物体に係るデータ(3DCG描画データDB1706に格納されている)を更新する。
なお、一方の仮想物体において他方の仮想物体に含まれている部分を特定するための処理については、一般にゲームなどにおいてキャラクタ同士の衝突判定処理に代表されるように、周知の技術である。
そして、CGレンダリング部407は、この3DCG描画データDB1706に格納されているデータを用いて、各仮想物体を仮想空間中に配置するのであるが、その際、光源の位置oから見て「手」の位置よりも遠くに位置している仮想物体において、影モデルに含まれている部分については影が生成されていることになる。
なお、複数の仮想物体がある場合、各仮想物体について上述の手法により、影を描画してもよいし、観察者が最も注目している仮想物体、―例えば映像入力装置の右目、あるいは左目の視野の中央に位置する仮想物体に対してのみ上記の処理を行ってもよい。
後者の場合、影立体の有無は仮想物体に対してのみ用いてもよいし、全てのCG物体に対して用いてもよい。これらの選択は実現するシステムの目的と、描画パフォーマンス等で決定されるべきことである。
なお、本実施形態では、上記影モデルについては実際には描画しないが、描画するようにしても良い。その場合、上記2つの比較処理を行うことなく、常時影モデルを表示するようにすればよい。
[第6の実施形態]
第5の実施形態では、仮想空間中に照射するための光源と、影モデルを生成するための光源とは別個のもとしていたが、これに限定するものではなく、共通のものを用いるようにしても良い。即ち、カメラ1601の位置姿勢でもって配置する光源のみを用いるようにしても良い。
[その他の実施形態]
本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。
現実空間に仮想空間を重畳させた複合現実空間を観察者に提供すると共に、仮想空間中の仮想物体の閲覧、及び操作を可能にさせるための本発明の第1の実施形態に係るシステムの外観を示す図である。 HMD100の具体的な構成を示す図である。 コンピュータ400の機能構成を示す図である。 複合現実空間の映像の生成処理のフローを示す図である。 操作パネル描画データに従って作成される仮想物体としての操作パネル500の表示例を示す図である。 指示具モデルの一例を示す図である。 図5に示した操作パネル上にポインティングデバイス301を近づけた場合に、操作パネル上に生成される影の映像の表示例を示す図である。 操作パネルの面に、この面の法線に対して90度の角度でもって光を照射した場合の、操作パネルの面と照射される光との関係を示した図である。 操作パネルの面に、この面の法線に対してある角度でもって光を照射した場合の、操作パネルの面と照射される光との関係を示した図である。 ポインティングデバイス301(指示具モデル600)に対してある角度でもって光を照射した場合の、ポインティングデバイス301(指示具モデル600)と照射される光との関係を示した図である。 複合現実空間の映像の生成処理のフローを示す図である。 ポインティングデバイス301(指示具モデル600)、操作パネル500に対してある角度でもって光を照射した場合の、ポインティングデバイス301(指示具モデル600)、操作パネル500と照射される光との関係を示した図である。 操作パネルと3つの光源によるポインティングデバイスの影の描画結果の一例を示す図である。 操作パネルの面を真上から見たときの複数のディレクショナル・ライト光線方向を示す図である。 コンピュータ400の基本構成を示すブロック図である。 現実空間に仮想空間を重畳させた複合現実空間を観察者に提供すると共に、仮想空間中の仮想物体の閲覧、及び操作を可能にさせるための本発明の第5の実施形態に係るシステムの外観を示す図である。 コンピュータ1600の機能構成を示す図である。 現実物体の影を仮想物体上に生成するための仕組みについて示した図である。

Claims (15)

  1. 仮想空間中に光を照射する為の第1の光源を設定する第1の設定工程と、
    仮想物体を前記仮想空間中に配置する配置工程と、
    観察者の視点の位置姿勢を取得する第1の取得工程と、
    前記第1の光源によって光が照射された前記仮想空間を、前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える映像を生成する生成工程とを備える画像処理方法であって、
    仮想空間中に光を照射する為の第2の光源を設定する第2の設定工程と、
    現実空間中における現実物体の位置姿勢を取得する第2の取得工程と、
    前記第2の光源の位置から前記現実物体の輪郭部分に延長する複数の直線で規定される領域を求める計算工程と、
    前記仮想物体において前記領域内に含まれる部分が存在するか否かを判断する第1の判断工程と、
    前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置であるか否かを判断する第2の判断工程と、
    前記仮想物体において前記領域内に含まれる部分が存在し、且つ前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置である場合には、前記含まれている部分に対して影を生成する生成工程と
    を備えることを特徴とする画像処理方法。
  2. 前記計算工程では、
    前記第2の光源の位置姿勢で前記現実物体を撮像した場合に、撮像面上における前記現実物体の輪郭上の複数のサンプル点のそれぞれと、前記第2の光源の位置とを通る線分の集合で囲まれた錐体領域を前記領域として求めることを特徴とする請求項1に記載の画像処理方法。
  3. 前記第1の光源と前記第2の光源とは同じ光源であることを特徴とする請求項1に記載の画像処理方法。
  4. 前記第1の光源と前記第2の光源とは異なる光源であることを特徴とする請求項1に記載の画像処理方法。
  5. 現実空間に仮想空間の映像を重畳させた映像を生成する画像処理方法であって、
    観察者の視点の位置姿勢を入力する第1の入力工程と、
    前記観察者が操作する指示具の位置姿勢を入力する第2の入力工程と、
    仮想空間中に光を照射する為の光源を設定する設定工程と、
    仮想物体としての操作対象を、前記視点との位置姿勢関係が固定された位置姿勢でもって仮想空間中に配置する配置工程と、
    前記第1の入力工程で入力した位置姿勢の視点から見える、前記操作対象を含む仮想空間の映像を生成する生成工程とを備え、
    前記生成工程は、
    前記第2の入力工程で入力した指示具の位置姿勢に基づいて、前記指示具の一部が前記光源と前記操作対象との間に位置するか否かを判断する判断工程と、
    前記判断工程で、前記指示具の一部が前記光源と前記操作対象との間に位置すると判断した場合には、前記光源から前記操作対象への光の照射方向に、前記指示具の映像を前記操作対象上に投影した映像を前記操作対象上に生成する投影工程と
    を備えることを特徴とする画像処理方法。
  6. 前記設定工程では、前記操作対象に光を照射するための第1の光源と、前記操作対象以外に光を照射するための第2の光源とを設定し、
    前記判断工程では、前記指示具の一部が前記第1の光源と前記操作対象との間に位置するか否かを判断し、
    前記投影工程では、前記指示具の一部が前記第1の光源と前記操作対象との間に位置する場合には、前記第1の光源から前記操作対象への光の照射方向に、前記指示具を示す映像を前記操作対象上に投影した映像を前記操作対象上に生成することを特徴とする請求項5に記載の画像処理方法。
  7. 前記設定工程では、前記操作対象の位置姿勢に応じて決まる位置姿勢に前記第1の光源を設定することを特徴とする請求項6に記載の画像処理方法。
  8. 前記設定工程では、前記指示具の位置姿勢に応じて決まる位置姿勢に前記第1の光源を設定することを特徴とする請求項6又は7に記載の画像処理方法。
  9. 前記設定工程では、前記観察者の視点の位置姿勢に応じて決まる位置姿勢に前記第1の光源を設定することを特徴とする請求項6乃至8の何れか1項に記載の画像処理方法。
  10. 前記投影工程では、前記指示具の影を示す映像を、前記操作対象上に生成することを特徴とする請求項5に記載の画像処理方法。
  11. 前記操作対象は、操作パネルであることを特徴とする請求項5に記載の画像処理方法。
  12. 仮想空間中に光を照射する為の第1の光源を設定する第1の設定手段と、
    仮想物体を前記仮想空間中に配置する配置手段と、
    観察者の視点の位置姿勢を取得する第1の取得手段と、
    前記第1の光源によって光が照射された前記仮想空間を、前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える映像を生成する生成手段と、
    仮想空間中に光を照射する為の第2の光源を設定する第2の設定手段と、
    現実空間中における現実物体の位置姿勢を取得する第2の取得手段と、
    前記第2の光源の位置から前記現実物体の輪郭部分に延長する複数の直線で規定される領域を求める計算手段と、
    前記仮想物体において前記領域内に含まれる部分が存在するか否かを判断する第1の判断手段と、
    前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置であるか否かを判断する第2の判断手段と、
    前記仮想物体において前記領域内に含まれる部分が存在し、且つ前記第2の光源の位置から見て、前記仮想物体の位置が前記現実物体よりも遠い位置である場合には、前記含まれている部分に対して影を示す映像を配置する影配置手段と
    を備えることを特徴とする画像処理装置。
  13. 現実空間に仮想空間の映像を重畳させた映像を生成する画像処理装置であって、
    観察者の視点の位置姿勢を入力する第1の入力手段と、
    前記観察者が操作する指示具の位置姿勢を入力する第2の入力手段と、
    仮想空間中に光を照射する為の光源を設定する設定手段と、
    仮想物体としての操作対象を、前記視点との位置姿勢関係が固定された位置姿勢でもって仮想空間中に配置する配置手段と、
    前記第1の入力手段が入力した位置姿勢の視点から見える、前記操作対象を含む仮想空間の映像を生成する生成手段とを備え、
    前記生成手段は、
    前記第2の入力手段が入力した指示具の位置姿勢に基づいて、前記指示具の一部が前記光源と前記操作対象との間に位置するか否かを判断する判断手段と、
    前記判断手段が、前記指示具の一部が前記光源と前記操作対象との間に位置すると判断した場合には、前記光源から前記操作対象への光の照射方向に、前記指示具の映像を前記操作対象上に投影した映像を前記操作対象上に生成する投影手段と
    を備えることを特徴とする画像処理装置。
  14. コンピュータに請求項1乃至11の何れか1項に記載の画像処理方法を実行させることを盗聴とするプログラム。
  15. 請求項14に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。
JP2005356681A 2005-06-30 2005-12-09 画像処理方法、画像処理装置 Expired - Fee Related JP4739002B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005356681A JP4739002B2 (ja) 2005-06-30 2005-12-09 画像処理方法、画像処理装置
US11/476,587 US7965304B2 (en) 2005-06-30 2006-06-29 Image processing method and image processing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005193077 2005-06-30
JP2005193077 2005-06-30
JP2005356681A JP4739002B2 (ja) 2005-06-30 2005-12-09 画像処理方法、画像処理装置

Publications (2)

Publication Number Publication Date
JP2007042055A true JP2007042055A (ja) 2007-02-15
JP4739002B2 JP4739002B2 (ja) 2011-08-03

Family

ID=37591317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005356681A Expired - Fee Related JP4739002B2 (ja) 2005-06-30 2005-12-09 画像処理方法、画像処理装置

Country Status (2)

Country Link
US (1) US7965304B2 (ja)
JP (1) JP4739002B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
JP2012048656A (ja) * 2010-08-30 2012-03-08 Canon Inc 画像処理装置、画像処理方法
JP2012048456A (ja) * 2010-08-26 2012-03-08 Canon Inc 情報処理装置およびその方法
JP2012108842A (ja) * 2010-11-19 2012-06-07 Konica Minolta Holdings Inc 表示システム、表示処理装置、表示方法、および表示プログラム
JP2012174219A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
WO2014050957A1 (ja) * 2012-09-27 2014-04-03 京セラ株式会社 表示装置、制御方法および制御プログラム
JP2014071520A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置、制御方法および制御プログラム
JP2014072570A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
US9082213B2 (en) 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
WO2020262261A1 (ja) * 2019-06-28 2020-12-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339377A (ja) * 2004-05-28 2005-12-08 Canon Inc 画像処理方法、画像処理装置
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
JP4914123B2 (ja) * 2005-07-15 2012-04-11 キヤノン株式会社 画像処理装置及び方法
JP4847203B2 (ja) * 2006-04-27 2011-12-28 キヤノン株式会社 情報処理方法、情報処理装置
JP4986543B2 (ja) * 2006-08-31 2012-07-25 キヤノン株式会社 情報処理方法、情報処理装置
JP5237066B2 (ja) * 2008-11-28 2013-07-17 キヤノン株式会社 複合現実感提示システムおよび複合現実感提示方法、プログラム
GB2465791A (en) * 2008-11-28 2010-06-02 Sony Corp Rendering shadows in augmented reality scenes
US9001157B2 (en) * 2009-03-25 2015-04-07 Nvidia Corporation Techniques for displaying a selection marquee in stereographic content
JP5247590B2 (ja) * 2009-05-21 2013-07-24 キヤノン株式会社 情報処理装置及びキャリブレーション処理方法
JP5548482B2 (ja) * 2010-02-26 2014-07-16 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
JP5514637B2 (ja) * 2010-06-11 2014-06-04 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP5671281B2 (ja) 2010-08-20 2015-02-18 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5762015B2 (ja) * 2011-01-27 2015-08-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US20180243003A1 (en) * 2016-05-18 2018-08-30 Daniel Ezra Walzman Arch fulcrum support catheter
US11042226B2 (en) * 2018-04-02 2021-06-22 Microsoft Technology Licensing, Llc Constellation-based augmentation of mouse form-factor for virtual reality applications

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2000352960A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感画像の効果付加装置、効果付加のための画像処理方法およびプログラム記憶媒体
JP2002312810A (ja) * 2002-03-11 2002-10-25 Hitachi Ltd 合成動画像生成装置および合成動画像生成方法
JP2004272635A (ja) * 2003-03-10 2004-09-30 Sharp Corp 図形処理装置、図形処理方法、図形処理プログラム、および、プログラム記録媒体
JP2005107968A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示装置及び方法並びに情報処理方法
JP2005267554A (ja) * 2004-03-22 2005-09-29 Canon Inc 画像処理方法、画像処理装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6667741B1 (en) * 1997-12-24 2003-12-23 Kabushiki Kaisha Sega Enterprises Image generating device and image generating method
JP2000126454A (ja) * 1998-10-23 2000-05-09 Sega Enterp Ltd 遊戯装置及び画像処理装置
US6636627B1 (en) * 1999-07-12 2003-10-21 Fuji Photo Film Co., Light source direction estimating method and apparatus
JP3957468B2 (ja) * 2000-03-31 2007-08-15 日立造船株式会社 複合現実感実現システム
JP3406965B2 (ja) * 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
EP1386645B1 (en) * 2000-12-14 2011-12-07 KABUSHIKI KAISHA SEGA doing business as SEGA CORPORATION Game machine, communication game system, and recorded medium
JP3647376B2 (ja) * 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
JP4072330B2 (ja) 2001-10-31 2008-04-09 キヤノン株式会社 表示装置および情報処理方法
JP2003215494A (ja) * 2002-01-22 2003-07-30 Canon Inc 複合現実感提示装置および画像処理方法
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
US6831641B2 (en) * 2002-06-17 2004-12-14 Mitsubishi Electric Research Labs, Inc. Modeling and rendering of surface reflectance fields of 3D objects
JP4065507B2 (ja) 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP4170087B2 (ja) * 2002-12-12 2008-10-22 任天堂株式会社 ゲーム装置およびゲームプログラム
US7834890B2 (en) 2003-10-17 2010-11-16 Canon Kabushiki Kaisha Information processing method and image processing method
JP2005149409A (ja) 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US7787009B2 (en) * 2004-05-10 2010-08-31 University Of Southern California Three dimensional interaction with autostereoscopic displays
JP2006039872A (ja) 2004-07-26 2006-02-09 Canon Inc 情報処理方法及び情報処理装置
JP3877077B2 (ja) * 2004-08-31 2007-02-07 任天堂株式会社 ゲーム装置および画像処理プログラム
JP4914123B2 (ja) 2005-07-15 2012-04-11 キヤノン株式会社 画像処理装置及び方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2000352960A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感画像の効果付加装置、効果付加のための画像処理方法およびプログラム記憶媒体
JP2002312810A (ja) * 2002-03-11 2002-10-25 Hitachi Ltd 合成動画像生成装置および合成動画像生成方法
JP2004272635A (ja) * 2003-03-10 2004-09-30 Sharp Corp 図形処理装置、図形処理方法、図形処理プログラム、および、プログラム記録媒体
JP2005107968A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示装置及び方法並びに情報処理方法
JP2005267554A (ja) * 2004-03-22 2005-09-29 Canon Inc 画像処理方法、画像処理装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9082213B2 (en) 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
US8797355B2 (en) 2010-08-26 2014-08-05 Canon Kabushiki Kaisha Information processing device and method of processing information
JP2012048456A (ja) * 2010-08-26 2012-03-08 Canon Inc 情報処理装置およびその方法
JP2012048656A (ja) * 2010-08-30 2012-03-08 Canon Inc 画像処理装置、画像処理方法
JP2012108842A (ja) * 2010-11-19 2012-06-07 Konica Minolta Holdings Inc 表示システム、表示処理装置、表示方法、および表示プログラム
JP2012174219A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
JP2014071520A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置、制御方法および制御プログラム
JP2014072570A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
WO2014050957A1 (ja) * 2012-09-27 2014-04-03 京セラ株式会社 表示装置、制御方法および制御プログラム
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
WO2020262261A1 (ja) * 2019-06-28 2020-12-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11842453B2 (en) 2019-06-28 2023-12-12 Sony Group Corporation Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP4739002B2 (ja) 2011-08-03
US7965304B2 (en) 2011-06-21
US20070006091A1 (en) 2007-01-04

Similar Documents

Publication Publication Date Title
JP4739002B2 (ja) 画像処理方法、画像処理装置
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
US11379948B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
US11423626B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
US10861130B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP2007018173A (ja) 画像処理方法、画像処理装置
JP6295296B2 (ja) 複合システム及びターゲットマーカ
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2006012042A (ja) 画像生成方法及び装置
JP2006085375A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110427

R150 Certificate of patent or registration of utility model

Ref document number: 4739002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees