JP2005157610A - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP2005157610A
JP2005157610A JP2003393406A JP2003393406A JP2005157610A JP 2005157610 A JP2005157610 A JP 2005157610A JP 2003393406 A JP2003393406 A JP 2003393406A JP 2003393406 A JP2003393406 A JP 2003393406A JP 2005157610 A JP2005157610 A JP 2005157610A
Authority
JP
Japan
Prior art keywords
image
virtual object
user
viewpoint position
predetermined range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003393406A
Other languages
English (en)
Inventor
Masahiro Suzuki
雅博 鈴木
Akihiro Katayama
昭宏 片山
Yukio Sakakawa
幸雄 坂川
Takaaki Endo
隆明 遠藤
Daisuke Kotake
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003393406A priority Critical patent/JP2005157610A/ja
Publication of JP2005157610A publication Critical patent/JP2005157610A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 現実空間又は現実空間画像と、コンピュータグラフィックス(CG)を代表とする仮想空間画像とを合成する際にオクルージョン問題(隠れ問題)が発生することがある。
【解決手段】 使用者の視点位置から観察される現実空間に、前記使用者の視点位置から観察される仮想物体の画像を合成する画像処理装置であって、
前記使用者が操作する操作部の位置を検出する操作部位置検出手段と、
前記視点位置を検出する視点位置検出手段と、
前記操作部位置と、前記視点位置との位置関係に基づいて範囲を設定する範囲設定手段と、
前記範囲に少なくとも一部が含まれる仮想物体を決定する決定手段と、
前記決定手段が決定した仮想物体の画像の合成位置または合成方法を変更する変更手段と
を有することを特徴とする画像処理装置。
【選択図】 図1

Description

本発明は、現実空間又は現実空間画像と、コンピュータグラフィックス(CG)を代表とする仮想空間画像とを合成する際のオクルージョン問題(隠れ問題)を解決する画像処理装置および方法に関するものである。
近年、コンピュータの性能向上や位置検出技術等の発達により、複合現実感(MR:Mixed Reality)技術を用いたアプリケーションが各種提案されてきている。複合現実感(MR)技術とは、現実空間又は現実空間画像上に、コンピュータグラフィックス(CG)を代表とする仮想空間画像を合成した複合現実空間をユーザ(体験者)に体験させるための技術である。
MR技術を利用したアプリケーションとしては、例えば現在空き地となっている場所(現実空間)に仮想のビルをコンピュータグラフィックス(CG)により建設したり、テーブル(現実空間)の上で体長15センチの怪獣(仮想空間画像)を動かす、等を挙げることができる。
このような複合現実空間を実現するには、現実空間も仮想空間も3次元空間であるため、現実空間座標系内に静止した3次元のワールド座標系を想定し、このワールド座標系内にビルや怪獣といった3次元仮想空間画像を配置、表示することになる。
ただし、現実空間画像を仮想空間画像と合成する場合には、合成表示する現実空間画像(実写映像)と仮想空間画像(CG画像)は同じ点(視点)から同じ画角で観察される画像でなくてはならない。
例えば、現実空間をカメラなどでリアルタイムに撮影した現実空間画像と計算機等で作成した仮想空間画像とを合成するビデオシースルータイプの頭部装着型表示装置(HMD:Head Mounted Display)を用いてユーザが複合現実空間を体験する場合、現実空間画像はHMDに取り付けられたビデオカメラで撮影されることが多く、またカメラの画角は固定であることが多い。このとき、カメラの位置と向き(姿勢)をリアルタイムで計測し、カメラの位置に対応付けられたワールド座標系内の点からカメラの向きの方向を見た仮想空間画像を、カメラで撮影した現実空間画像と合成してHMDに表示すればよい(特許文献1参照)。
しかしながら、上述のように現実空間及び仮想空間は3次元空間であるため、奥行きが存在する。そのため、実写映像とCG画像とを合成する際にはオクルージョン問題(隠れ問題)が発生することがある。オクルージョン問題(隠れ問題)とは、本来、現実空間にある物体(現実物体)の裏側に隠れて見えないはずの仮想空間の物体(仮想物体(CGオブジェクト))が奥行き関係を無視して手前に見えてしまうという問題である。
この問題を防ぐためには、透明で表示され、かつ裏側に隠れたCGオブジェクトは見えない、という特徴を持った透明仮想物体を、現実空間画像中に存在する現実物体と全く同じように3次元的に仮想空間に配置すればよい。
しかし、この方法で完全にオクルージョン問題を解決するには、透明仮想物体と、対応する現実物体との位置合わせを正確に行なう必要がある。そのためには、現実空間の全てを精密に三次元計測する必要があり、実際には非常に困難である。
特開平11−136706号公報
ところが、ユーザがインタラクションを行なうために操作する現実物体の操作部(例えばスタイラスや指示棒のようなユーザ・インタフェース)など、自由に移動可能な現実物体がボード上のユーザの視野内に現れた場合には、これらの正確な三次元位置をリアルタイムに計測しなければ、本来、隠れて見えないはずのCGオブジェクトが奥行き関係を無視して手前に見えてしまうというオクルージョン問題が発生することがある。
本発明はこのような課題に対して改善を行なうものであり、その目的は、現実空間又は現実空間画像と、コンピュータグラフィックス(CG)を代表とする仮想空間画像とを合成する画像処理装置および方法であって、現実物体がユーザの視野内に出現した場合であっても、当該現実物体によるオクルージョン問題を解決可能な画像処理装置及び方法を提供することにある。
上述した課題を解決するために、本発明の画像処理装置は、使用者の視点位置から観察される現実空間に、前記使用者の視点位置から観察される仮想物体の画像を合成する画像処理装置であって、前記使用者の視点位置を検出する視点位置検出手段と、前記現実空間上で移動可能な物体の位置を検出する物体位置検出手段と、前記視点位置検出手段によって検出される前記使用者の視点位置と、前記物体位置検出手段によって検出される前記物体の位置とに基づいて、前記仮想物体の画像の合成制御を変更する変更手段とを有することを特徴としている。
また、本発明の画像処理方法は、使用者の視点位置から観察される現実空間に、前記使用者の視点位置から観察される仮想物体の画像を合成する画像処理方法であって、前記使用者の視点位置を検出する視点位置検出ステップと、前記現実空間上で移動可能な物体の位置を検出する物体位置検出ステップと、前記視点位置検出ステップによって検出される前記使用者の視点位置と、前記物体位置検出ステップによって検出される前記物体の位置とに基づいて、前記仮想物体の画像の合成制御を変更する変更ステップとを有することを特徴としている。
本発明は、使用者の視点位置と現実空間上で移動可能な物体の位置を検出し、使用者の視点位置と前記物体の位置とに基づいて、前記仮想物体の画像の合成制御を変更することで、現実空間上で移動可能な物体と仮想物体の画像との間で発生するオクルージョン問題を解決することができる。
以下、添付図面を参照して本発明をその好適な実施形態に基づいて詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る複合現実感システム(MRシステム)の構成例を示す図である。
101は現実空間中のゲームボードであり、ゲームボード101の上でゲームが進行する。ゲームボード101上にある104は仮想物体(CGオブジェクト)である。
102はユーザが装着するシースルー型のHMDである。本発明の実施形態では、シースルー型のHMD102として、現実空間をカメラなどでリアルタイムに撮影した現実空間画像と計算機等で作成した仮想空間画像とを合成するビデオシースルー型HMDを想定して説明するが、光学系を介して観察する現実空間の風景と計算機等で作成した仮想空間画像とを合成する光学シースルータイプのHMDでも本発明の実施形態は適用可能である。
HMD102は図示しないカメラを備えており、現実空間の画像を撮影する。撮影された画像は、実写映像取得部1031に送られる。HMD102に備えるカメラは右目用と左目用に2つあることが望ましいが、1つでも構わないことは言うまでもない。
また、HMD102は図示しない位置姿勢センサを備えており、ユーザの3次元空間中での視点位置姿勢情報を取得する。ここで、位置姿勢センサの具体的な例として、磁気センサ、機械式センサ、超音波センサなどがあげられる。
また、ジャイロセンサや加速度センサを利用してその出力値を積分することでユーザの視点位置姿勢情報を求めたり、シースルー型のHMD102に備え付けたカメラで撮影した画像からユーザの視点位置姿勢情報を求めたりしてもよい。さらには、これらを組み合わせてユーザの視点位置姿勢情報を求めてよいことは言うまでもない。
また、位置姿勢センサ付きHMDでなくとも、固定されたカメラとディスプレイでもよい。この場合、視点位置は設置されたカメラの位置に固定で、この位置から見た方向の映像がディスプレイに表示されることになる。
1040は、現実物体であり、ユーザがインタラクションを行なうために操作するスタイラスや指示棒のようなユーザ・インタフェースである。ユーザ・インタフェース1040は、図示しない位置姿勢センサを備えており、ユーザ・インタフェース1040の3次元空間中での位置姿勢情報を計測することができる。
ここで、位置姿勢センサの具体的な例として、磁気センサ、機械式センサ、超音波センサなどがあげられる。また、ジャイロセンサや加速度センサを利用してその出力値を積分することでユーザ・インタフェース1040の位置姿勢情報を求めたり、ユーザ・インタフェース1040に備え付けたカメラで撮影した画像からユーザ・インタフェース1040の位置姿勢情報を求めたりしてもよい。さらには、これらを組み合わせてユーザ・インタフェース1040の位置姿勢情報を求めてよいことは言うまでもない。
計測された位置姿勢情報は、ユーザ・インタフェース位置姿勢検出部1035へ送られる。ユーザ・インタフェース1040の機能や働きについては、アプリケーションの内容等に応じて適宜定めればよい。
103は、ゲームコンソールまたはPCであり、実写映像取得部1031、CG生成部1032、実写・CG合成表示部1033、視点位置姿勢検出部1034、ユーザ・インタフェース位置姿勢検出部1035、障害範囲設定部1036、障害回避戦略決定部1037からなる。ゲームコンソールまたはPC103は、HMD102、およびユーザがインタラクションを行なうために操作するユーザ・インタフェース1040と接続され、ゲームの進行状態等さまざまな情報を処理する。
なお、ゲームコンソールまたはPC103は、CPU、ROM、RAM、外部記憶装置(HDD、FD、CD/DVDドライブ等)及び、各種入出力インタフェースを有する汎用的なコンピュータ機器であり、ROM及び/又は外部記憶装置に記憶されたソフトウェアプログラムをCPUが実行し、機器内部の構成要素を制御することによって以下に説明する処理を実現する。なお、処理の一部又は全部をハードウェアによって実現しても良い。
実写映像取得部1031は、ビデオキャプチャカードなどから構成され、HMD102に設けられたカメラで撮影した実写映像をゲームコンソールまたはPC103内に取り込む。また、実写映像取得部1031は、取り込んだ実写映像を実写・CG合成表示部1033に送る。
視点位置姿勢検出部1034は、HMD102に設けられた位置姿勢センサからユーザの視点位置姿勢情報を取得する。また、視点位置姿勢検出部1034は、取得した視点位置姿勢情報を障害範囲設定部1036およびCG生成部1032に送る。
ユーザ・インタフェース位置姿勢検出部1035は、ユーザ・インタフェース1040に設けられた位置姿勢センサからユーザ・インタフェース1040の位置姿勢情報を取得する。また、ユーザ・インタフェース位置姿勢検出部1035は、取得した位置姿勢情報を障害範囲設定部1036に送る。
障害範囲設定部1036は、視点位置姿勢検出部1034が取得したユーザの視点位置姿勢情報、およびユーザ・インタフェース位置姿勢検出部1035が取得したユーザ・インタフェース1040の位置姿勢情報をもとにオクルージョン問題が起きうる範囲(障害範囲)を求める。
図3(a)(b)は、障害範囲設定部1036が設定する障害範囲の例を示したものである。図3(b)では、視点位置姿勢検出部1034によって得られたユーザの視点位置301に点光源を配置し、ユーザ・インタフェース位置姿勢検出部1035によって得られたユーザ・インタフェース1040の位置姿勢をもとに設定される方向に向かって投影してできる灰色の範囲を障害範囲302としている。
ここで、ユーザ・インタフェース1040の位置姿勢をもとに設定される方向とは、例えば現実のユーザ・インタフェース1040を含む3次元仮想モデルを用意して、ユーザの視点位置301からその3次元仮想モデルの外郭に向かう方向とする。
図5には、障害範囲302の形状の具体的な例として、ユーザの視点位置301を頂点とした角錐台形状(3次元オブジェクトとしての角錐台)の範囲を示す。図5に示す角錐台形状の障害範囲302(灰色の範囲)は、ユーザ・インタフェース1040の位置を含む。
また、錐台の底面501、502の位置は、ユーザ・インタフェース1040を含めば任意に配置してよいが、底面501はユーザ・インタフェース1040に近く、底面502は視点位置301からなるべく離れている位置に配置される方が望ましい(こうすることで、ユーザ・インタフェース1040の手前にあるCGオブジェクトのみユーザ・インタフェース1040の手前に表示される)。
また、障害範囲302の形状は、図5に示すような角錐台形状に限らず錐台形状(円錐台形状を含む)であれば何でもよいことは言うまでもない。
さらに、障害範囲302を、ユーザ・インタフェース1040の位置姿勢情報ではなく、位置情報を利用して求めてもよい。
また、障害範囲設定部1036は、障害回避戦略決定部1037に障害範囲302を知らせる。
障害回避戦略決定部1037は、障害範囲設定部1036から障害範囲302に関する情報、およびCG生成部1032からCGオブジェクトの情報(位置、姿勢など)を得て、障害範囲設定部1036が設定した障害範囲302内にCGオブジェクトが存在するかどうかということを判断する。障害範囲302内にCGオブジェクトが存在する場合には、障害範囲302内に存在するCGオブジェクトの情報(位置、姿勢、形状、色、透明度など)をCG生成部1032から得て、そのCGオブジェクトに対する合成表示指示をCG生成部1032に出す。
合成表示指示の内容としては、例えば対象となるCGオブジェクトの合成位置が障害範囲302の外側になるように位置を変更する、非表示にする、半透明表示する、もしくはCGオブジェクトが存在する位置にCGオブジェクトの代わりにシンボルもしくはテキストを合成表示する等のいずれかであって良い。(図3(a)では、ユーザ・インタフェース1040が存在しなければCGオブジェクト104が×方向に進むように制御されるが、ユーザ・インタフェース1040がある場合には、CGオブジェクト104の進行方向を障害範囲302の外側に変更する様子を示している。(見かけ上は、CGオブジェクト104が障害範囲302の内側に入らないように移動する。))どの方法を採用するかはアプリケーションの内容等に応じて適宜定めればよい。
また、ここでは合成表示指示の内容の例としていくつか挙げたが、障害範囲302に存在するCGオブジェクトに対する合成表示指示であればこれらに限定されるものではない。なお、本実施形態において障害範囲302にCGオブジェクトが「存在する」とは、少なくともCGオブジェクトの一部が含まれることを意味するものとするが、アプリケーションの内容によってはCGオブジェクトの全体が含まれる場合のみを意味するものとしても良い。
CG生成部1032は、図示しない記憶部よりCGデータを読み込み、また視点位置姿勢検出部1034から送られるユーザの視点位置姿勢情報、および障害回避戦略決定部1037が決定したCGオブジェクトに対する合成表示指示をもとに、ユーザの視点から見たCGオブジェクト画像を生成する。CG生成部1032は、生成したCGオブジェクト画像を実写・CG合成表示部1033に送る。
実写・CG合成表示部1033は、実写映像取得部1031が取得した実写映像と、CG生成部1032が生成したCGオブジェクト画像とを受け取り、それらを合成してHMD102に表示する。このようにして、オクルージョン問題(隠れ問題)のない複合現実映像が得られる。なお、本発明の主要な部分ではないので詳細な説明は行なわないが、実写・CG合成表示部1033は、ユーザがHMD102で立体視できるよう、右目用と左目用の合成画像を生成する。
以上のような構成を備えた本実施形態の処理手順について、以下説明する。
図2は本実施形態における処理手順を説明するフローチャートである。
ステップS201では、システムの初期化を行なう。システムの初期化とはシステムを構成する各機器の電源を入れたり、プログラムを起動したりといった、本実施形態の処理手順を進めるにあたり最初に行なうステップである。
ステップS202では、HMD102に設けられた位置姿勢センサからユーザの視点位置姿勢情報を取得し、視点位置姿勢情報を視点位置姿勢検出部1034に送る。ここで、HMD102の位置姿勢(位置姿勢センサの出力値)と、視点の位置姿勢との関係はあらかじめ定めておくことが望ましい。
ステップS203では、ユーザがインタラクションを行なうために操作するユーザ・インタフェース1040の位置姿勢を検出し、検出した位置姿勢情報をユーザ・インタフェース位置姿勢検出部1035に送る。
ステップS204では、障害範囲設定部1036が、視点位置姿勢検出部1034が取得した視点位置姿勢情報、およびユーザ・インタフェース位置姿勢検出部1035が取得したユーザ・インタフェース位置姿勢情報とを受け取り、それらの情報をもとに障害範囲302を設定する。障害範囲302の具体的な設定のやり方については、障害範囲設定部1036の説明のところで述べたとおりである。
ステップS205では、障害回避戦略決定部1037が、障害範囲設定部1036が設定した障害範囲302に関する情報、およびCG生成部1032からCGオブジェクトの情報(位置、姿勢など)を受け取り、障害範囲302内にCGオブジェクトが存在するかどうか判定を行なう。この判定方法は、CGオブジェクトと障害範囲302の3次元的な位置関係によって求めることが可能であり、CG分野においては既知の技術であるため説明を省略する。
ステップS206では、障害範囲302内にCGオブジェクトが存在する場合は処理をステップS207に進め、存在しない場合は処理をステップS208に進める。
ステップS207では、障害範囲302内に存在するCGオブジェクトの情報をCG生成部1032から得て、そのCGオブジェクトに対する合成表示指示をCG生成部1032に出す。CG生成部1032に出す合成表示指示には、対象となるCGオブジェクトの合成位置が障害範囲302の外側になるように位置を変更する、非表示にする、半透明表示する、もしくはCGオブジェクトが存在する位置にCGオブジェクトの代わりにシンボルもしくはテキストを合成表示する等が挙げられるが、詳しくは障害回避戦略決定部1037の説明のところで述べたとおりである。
ステップS208では、CG生成部1032が生成したCGと、実写映像取得部1031が取得した実写映像とを、実写・CG合成表示部1033で合成してHMD102に表示する。
ステップS209では、ユーザが終了処理を行なっていた場合、システムを終了させる。システムを終了させるとは、プログラムを終了させたり、システムを構成する各機器の電源を切ったりといった本実施形態の処理手順を終わらせるために最後に行なうステップである。ユーザが終了処理を行なっていない場合は、ステップS202に戻る。
以上、本実施形態における処理手順の説明を行なった。
以上の実施形態によると、現実空間又は現実空間画像と、コンピュータグラフィックス(CG)を代表とする仮想空間画像とを合成する際、ユーザ・インタフェースなどの現実物体がユーザの視界内に出現したことで生じるオクルージョン問題(隠れ問題)を、ユーザの視点位置姿勢を検出し、現実空間中に出現した現実物体を検出し、現実物体によって少なくとも一部が隠される仮想物体を検出して、この仮想物体の画像の合成位置又は合成方法を変更することで回避することができる。
(第2の実施形態)
図4は、本発明の第2の実施形態に係る複合現実感システム(MRシステム)の構成例を示す図である。第1の実施形態と共通する構成については第1の実施形態と同一の符号をつけて説明を省略する。本実施形態と第1の実施形態との違いはユーザ・インタフェース1040の位置姿勢検出方法にある。
すなわち、本実施形態では、ユーザ・インタフェース1040にあらかじめ定めた色の指標となるマーカ1041を複数貼っておき、まず、HMD102に備えたカメラによって撮影した実写映像から画像処理によってマーカ1041の位置を検出する。次に、マーカ1041の位置をもとにユーザ・インタフェース1040の位置姿勢を求める。
ユーザ・インタフェース位置姿勢検出部1035は、ユーザ・インタフェース1040に備えた位置姿勢センサからではなく、実写映像取得部1031が取得した実写映像中のマーカ1041位置からユーザ・インタフェース1040の位置姿勢を検出する。ここで、マーカ1041の3次元的な位置はHMD102に備えた右目用と左目用の2つのカメラによりステレオ計測を行なうことで検出されることが望ましい。また、別途HMD102に距離計測機構を取り付けて、マーカ1041の3次元的な位置を検出してもよい。
また、本実施形態では、ユーザ・インタフェース1040にマーカ1041を貼ることでユーザ・インタフェース1040の位置姿勢を検出したが、ユーザ・インタフェース1040自体にあらかじめ定めた色を塗っておき、画像処理によってその位置姿勢を求めてもよい。
また、図4におけるその他の構成については、第1の実施形態の構成(図1)と同様である。
以上のような構成を備えた本実施形態の処理手順については、図2に示すフローチャートのステップS203において、実写映像取得部1031が取得した実写映像からマーカ1041の位置を画像処理によって検出することで、ユーザ・インタフェース1040の位置姿勢を検出すればよい。
また、その他のステップについては、第1の実施形態の処理手順(図2)と同様でよい。
(他の実施形態)
上述の実施形態においては、1つの機器から構成されるゲームコンソール又はPC103を用いる画像処理装置および方法についてのみ説明したが、PC103と同等の機能を複数の機器で構成したシステムであっても良い。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
本発明の第1の実施形態における画像処理装置の構成を示すブロック図である。 本発明の第1および第2の実施形態における画像処理装置の処理手順を説明するためのフローチャートである。 本発明の実施形態における画像処理装置の動作を説明するための図である。 本発明の第2の実施形態における画像処理装置の構成を示すブロック図である。 障害範囲302の形状の例を示す図である。

Claims (16)

  1. 使用者の視点位置から観察される現実空間に、前記使用者の視点位置から観察される仮想物体の画像を合成する画像処理装置であって、
    前記使用者の視点位置を検出する視点位置検出手段と、
    前記現実空間上で移動可能な物体の位置を検出する物体位置検出手段と、
    前記視点位置検出手段によって検出される前記使用者の視点位置と、前記物体位置検出手段によって検出される前記物体の位置とに基づいて、前記仮想物体の画像の合成制御を変更する変更手段とを有することを特徴とする画像処理装置。
  2. 変更手段は、前記視点位置検出手段によって検出される前記使用者の視点位置と、前記物体位置検出手段によって検出される前記物体の位置から、前記現実空間上に所定の範囲を設定し、前記所定の範囲に基づいて、前記仮想物体の画像の合成制御を変更する請求項1に記載の画像処理装置。
  3. 変更手段は、前記現実空間上で前記使用者の視点位置から前記物体を投影した所定の範囲を設定し、前記所定の範囲に基づいて、前記仮想物体の画像の合成制御を変更する請求項2に記載の画像処理装置。
  4. 変更手段は、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像の合成位置を前記所定の範囲外に変更することを特徴とする請求項1ないし3のいずれかに記載の画像処理装置。
  5. 変更手段は、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像の合成表示を変更することを特徴とする請求項1ないし3のいずれかに記載の画像処理装置。
  6. 変更手段は、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像を透明もしくは半透明に変更することを特徴とする請求項1ないし3のいずれかに記載の画像処理装置。
  7. 変更手段は、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像をシンボル又はテキストに変更することを特徴とする請求項1ないし3のいずれかに記載の画像処理装置。
  8. 前記物体は、前記使用者によって操作される操作部材であることを特徴とする請求項1ないし7のいずれかに記載の画像処理装置。
  9. 使用者の視点位置から観察される現実空間に、前記使用者の視点位置から観察される仮想物体の画像を合成する画像処理方法であって、
    前記使用者の視点位置を検出する視点位置検出ステップと、
    前記現実空間上で移動可能な物体の位置を検出する物体位置検出ステップと、
    前記視点位置検出ステップによって検出される前記使用者の視点位置と、前記物体位置検出ステップによって検出される前記物体の位置とに基づいて、前記仮想物体の画像の合成制御を変更する変更ステップとを有することを特徴とする画像処理方法。
  10. 変更ステップは、前記視点位置検出ステップによって検出される前記使用者の視点位置と、前記物体位置検出ステップによって検出される前記物体の位置から、前記現実空間上に所定の範囲を設定し、前記所定の範囲に基づいて、前記仮想物体の画像の合成制御を変更する請求項9に記載の画像処理方法。
  11. 変更ステップは、前記現実空間上で前記使用者の視点位置から前記物体を投影した所定の範囲を設定し、前記所定の範囲に基づいて、前記仮想物体の画像の合成制御を変更する請求項10に記載の画像処理方法。
  12. 変更ステップは、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像の合成位置を前記所定の範囲外に変更することを特徴とする請求項9ないし11のいずれかに記載の画像処理方法。
  13. 変更ステップは、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像の合成表示を変更することを特徴とする請求項9ないし11のいずれかに記載の画像処理方法。
  14. 変更ステップは、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像を透明もしくは半透明に変更することを特徴とする請求項9ないし11のいずれかに記載の画像処理方法。
  15. 変更ステップは、前記仮想物体の画像が前記所定の範囲に入る場合には、前記仮想物体の画像をシンボル又はテキストに変更することを特徴とする請求項9ないし11のいずれかに記載の画像処理方法。
  16. 前記物体は、前記使用者によって操作される操作部材であることを特徴とする請求項9ないし15のいずれかに記載の画像処理方法。
JP2003393406A 2003-11-25 2003-11-25 画像処理装置および方法 Withdrawn JP2005157610A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003393406A JP2005157610A (ja) 2003-11-25 2003-11-25 画像処理装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003393406A JP2005157610A (ja) 2003-11-25 2003-11-25 画像処理装置および方法

Publications (1)

Publication Number Publication Date
JP2005157610A true JP2005157610A (ja) 2005-06-16

Family

ID=34719774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003393406A Withdrawn JP2005157610A (ja) 2003-11-25 2003-11-25 画像処理装置および方法

Country Status (1)

Country Link
JP (1) JP2005157610A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007018111A1 (ja) * 2005-08-05 2009-02-19 パイオニア株式会社 画像表示装置
JP2009146140A (ja) * 2007-12-13 2009-07-02 Ponos Corp 3次元画像表示装置
JP2011128838A (ja) * 2009-12-17 2011-06-30 Panasonic Corp 画像表示装置
WO2012088285A3 (en) * 2010-12-22 2012-10-26 Infinite Z, Inc. Three-dimensional tracking of a user control device in a volume
JP2012226766A (ja) * 2007-09-25 2012-11-15 Metaio Gmbh 現実環境内にバーチャルオブジェクトを描写する方法および装置
JP2015153169A (ja) * 2014-02-14 2015-08-24 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4651672B2 (ja) * 2005-08-05 2011-03-16 パイオニア株式会社 画像表示装置
JPWO2007018111A1 (ja) * 2005-08-05 2009-02-19 パイオニア株式会社 画像表示装置
US10043315B2 (en) 2007-09-25 2018-08-07 Apple Inc. Method and apparatus for representing a virtual object in a real environment
JP2012226766A (ja) * 2007-09-25 2012-11-15 Metaio Gmbh 現実環境内にバーチャルオブジェクトを描写する方法および装置
JP2014238883A (ja) * 2007-09-25 2014-12-18 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 現実環境内にバーチャルオブジェクトを描写する方法および装置
US11080932B2 (en) 2007-09-25 2021-08-03 Apple Inc. Method and apparatus for representing a virtual object in a real environment
US10665025B2 (en) 2007-09-25 2020-05-26 Apple Inc. Method and apparatus for representing a virtual object in a real environment
US9165405B2 (en) 2007-09-25 2015-10-20 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
US10366538B2 (en) 2007-09-25 2019-07-30 Apple Inc. Method and device for illustrating a virtual object in a real environment
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
JP2009146140A (ja) * 2007-12-13 2009-07-02 Ponos Corp 3次元画像表示装置
JP2011128838A (ja) * 2009-12-17 2011-06-30 Panasonic Corp 画像表示装置
WO2012088285A3 (en) * 2010-12-22 2012-10-26 Infinite Z, Inc. Three-dimensional tracking of a user control device in a volume
US9201568B2 (en) 2010-12-22 2015-12-01 Zspace, Inc. Three-dimensional tracking of a user control device in a volume
US8970625B2 (en) 2010-12-22 2015-03-03 Zspace, Inc. Three-dimensional tracking of a user control device in a volume
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
JP2015153169A (ja) * 2014-02-14 2015-08-24 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム

Similar Documents

Publication Publication Date Title
US11380068B2 (en) Technique for recording augmented reality data
US9613463B2 (en) Augmented reality extrapolation techniques
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
EP1883052A2 (en) Generating images combining real and virtual images
JP2007042073A (ja) 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
US20220172447A1 (en) Image processing device, image processing method, and program
WO2019123509A1 (ja) 端末装置、システム、プログラム及び方法
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
US20190295324A1 (en) Optimized content sharing interaction using a mixed reality environment
JP2005157610A (ja) 画像処理装置および方法
JP4447896B2 (ja) 画像処理装置および方法
JP2004234253A (ja) 複合現実感呈示方法
JP2004310686A (ja) 画像処理方法及び装置
KR101315398B1 (ko) 3차원 증강 현실 표시 장치 및 방법
KR101860215B1 (ko) 프로젝터 자세에 연동하는 콘텐츠 디스플레이 시스템 및 방법
JP2006277618A (ja) 画像生成装置及び方法
JP2015121892A (ja) 画像処理装置、画像処理方法
JP2002269585A (ja) 画像処理方法、画像処理装置、記憶媒体及びプログラム
JP2003296758A (ja) 情報処理方法および装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206