JP2007034628A - 画像処理方法及び装置 - Google Patents
画像処理方法及び装置 Download PDFInfo
- Publication number
- JP2007034628A JP2007034628A JP2005216148A JP2005216148A JP2007034628A JP 2007034628 A JP2007034628 A JP 2007034628A JP 2005216148 A JP2005216148 A JP 2005216148A JP 2005216148 A JP2005216148 A JP 2005216148A JP 2007034628 A JP2007034628 A JP 2007034628A
- Authority
- JP
- Japan
- Prior art keywords
- observer
- dominant eye
- image
- eye
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012545 processing Methods 0.000 title claims description 37
- 230000008569 process Effects 0.000 claims description 24
- 238000003672 processing method Methods 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 8
- 230000010365 information processing Effects 0.000 claims 7
- 239000002131 composite material Substances 0.000 abstract 3
- 210000001508 eye Anatomy 0.000 description 88
- 238000012937 correction Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000005389 magnetism Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241001620634 Roger Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 244000144992 flock Species 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】 立体視可能なヘッドマウントディスプレイで複合現実感映像を表示する場合に、観察者の視点の位置姿勢補正を正確に行う。またそのために必要な作業および管理を軽減し容易に行うことが可能な方法を提案する。
【解決手段】 観察者の利き目を判定し、利き目が左右どちらの目であるかという情報を設定可能な複合現実感システムを提供する。設定はシステム上で動作するプログラムとは独立し、かつすべてのプログラムから共有される。
位置姿勢補正プログラムは利き目に対応する現実空間映像で表示装置の位置姿勢を補正し、複合現実感映像生成プログラムは位置あわせの結果を利き目に対応する現実空間映像で表示し、センサ校正プログラムは利き目に対応する現実空間映像で校正を行う。
【選択図】 図5
【解決手段】 観察者の利き目を判定し、利き目が左右どちらの目であるかという情報を設定可能な複合現実感システムを提供する。設定はシステム上で動作するプログラムとは独立し、かつすべてのプログラムから共有される。
位置姿勢補正プログラムは利き目に対応する現実空間映像で表示装置の位置姿勢を補正し、複合現実感映像生成プログラムは位置あわせの結果を利き目に対応する現実空間映像で表示し、センサ校正プログラムは利き目に対応する現実空間映像で校正を行う。
【選択図】 図5
Description
本発明は、複数の指標を配置した現実空間の画像を用いて、この画像を撮像した撮像装置の位置姿勢を求める為の技術に関するものである。
カメラの焦点距離、主点、レンズ歪みといったカメラ内部に存在するカメラ固有のカメラ内部パラメータ、もしくは、カメラの位置姿勢といったカメラが外界に対してどのように存在しているかを表すカメラ外部パラメータを校正する技術が知られている。例えば、3次元空間座標内に置かれた座標値が既知の複数の指標をカメラで撮像して指標画像を生成し、各指標の空間座標値と指標の画像座標値を用いて、カメラ校正アルゴリズムに基づき推定する。
カメラ校正アルゴリズムには、すべての指標が1平面上に分布していない(3次元的に分布した)指標を基にする方法、2次元的(平面上)に分布した指標を基にする方法があり、指標を空間に配置する容易さや、非線形な内部パラメータであるレンズ歪みの校正も行える方法へ発展できるなどの利点から広く一般的に利用されている。
これは、古くはロジャー・ツサイらの提案(非特許文献1参照)をはじめとして、数多くの提案がなされている。
一方、このような提案を利用して、カメラ外部パラメータの校正を行い、任意の位置姿勢における現実空間映像とそれに対応した仮想空間映像を重畳して複合現実感を観察者に提示するソフトウェアが提案されている。
例えば、ARツールキット(非特許文献2参照)やMRプラットフォーム(非特許文献3参照)等が存在する。
これらは複合現実感システムを構築する上で必要な観察者の位置姿勢情報等の獲得手段をソフトウェアライブラリとして提供しており、複合現実感システムの開発者は、自らが構築するプログラムにこれらのライブラリを組み込むことにより、目的とする複合現実感アプリケーションを構築することが可能となる。
Roger Y. Tsai, A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Metrology Using Off-the Shelf TV Cameras and Lenses. IEEE J. Robotics and Automation, Vol.RA-3, No.4, pp.323-344, 1987 H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, K. Tachibana. Virtual Object Manipulation on a Table-Top AR Environment. In Proceedings of ISAR 2000, Oct 5th-6th, 2000. 内山, 武本, 山本, 田村:MRシステム構築基盤「MRプラットフォーム」の開発, 日本バーチャルリアリティ学会第6回大会論文集, pp.457-460, September 2001.
Roger Y. Tsai, A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Metrology Using Off-the Shelf TV Cameras and Lenses. IEEE J. Robotics and Automation, Vol.RA-3, No.4, pp.323-344, 1987 H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, K. Tachibana. Virtual Object Manipulation on a Table-Top AR Environment. In Proceedings of ISAR 2000, Oct 5th-6th, 2000. 内山, 武本, 山本, 田村:MRシステム構築基盤「MRプラットフォーム」の開発, 日本バーチャルリアリティ学会第6回大会論文集, pp.457-460, September 2001.
従来の方法では、複合現実感システムを実現するために提供されたライブラリを、コンパイラを利用してプログラムに組み込んで利用している。そのため、2つのカメラと表示装置を有し、立体視可能な複合現実空間映像を提供するヘッドマウントディスプレイ(HMD)の位置姿勢補正処理を行う際、HMDに搭載されている2つのカメラのうち、どちらのカメラを使用して位置あわせを行うかはプログラム上に記述していた。よって使用するカメラを変更する毎に(1)複合現実感アプリケーションプログラムの変更、(2)再コンパイル、(3)複合現実感アプリケーションプログラムの実行という一連の作業を必要としていた。
さらに、複合現実感アプリケーションプログラムで位置補正処理を行うカメラは、アプリケーションプログラムの実行に先立ってあらかじめ初期校正用アプリケーションプログラムで校正用のパラメータを取得する必要がある。このため、複合現実感アプリケーションプログラムで位置姿勢補正処理に使用するカメラを変更した場合には、初期校正用プログラムにおいても(1)初期校正用プログラムの変更、(2)再コンパイル、(3)初期校正用プログラムの実行、(4)校正用パラメータの取得という一連の作業が必要となった。複合現実感アプリケーションプログラムの利用者はこれらの作業とデータの管理を行わなければならなかった。
一方、観察者の利き目に対応するカメラをHMDの位置姿勢補正に利用することで、体感上、位置あわせ精度が向上することが経験的に知られている。しかしながら上記のように観察者の利き目に対応して位置あわせに利用するカメラを容易に変更、管理することが実現されていなかった。
本発明は上記課題を鑑みてなされたものであり、複合現実感アプリケーションプログラムを利用するユーザの利き目を判定し、複合現実感システムを構成するすべてのアプリケーションプログラム(初期校正用プログラム)においてユーザの利き目に関する情報を共有し、かつ利き目を変更する場合においても再コンパイルのような作業を必要とせず、容易に管理することが可能な方法を提案するものである。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
上記目的を達成するために、本願請求項1記載の発明は、任意の位置姿勢における現実空間映像とそれに対応した仮想空間映像を重畳して観察者に提示する画像処理方法であって、観察者の利き目を判定する判定工程と、観察者の利き目を設定する設定工程とを有し、前記設定工程で利き目として設定された目に対応する現実空間映像を画像処理することによって、表示装置の位置姿勢を計測する計測工程を有することを特徴とする。
本発明によれば、プログラムがどちらの目に対応する現実映像で動作しているのかを管理する必要が無くなるばかりでなく、利き目を変更する場合の作業を軽減し、容易に管理することができる。
さらに利き目で位置姿勢補正処理を行うようにしたため、位置姿勢の精度が向上し、より品質の高い複合現実映像を提供することを可能にする。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態では、使用者がを入力することで利き目の判定を半自動的に行う。そして、利き目に対応する現実空間映像を使用して、複合現実感システムを構成するプログラムが統一的に動作する処理について説明する。具体的には利き目の現実空間映像が位置あわせのための初期設定、位置あわせ処理、処理経過表示に使用される。
本実施形態では、使用者がを入力することで利き目の判定を半自動的に行う。そして、利き目に対応する現実空間映像を使用して、複合現実感システムを構成するプログラムが統一的に動作する処理について説明する。具体的には利き目の現実空間映像が位置あわせのための初期設定、位置あわせ処理、処理経過表示に使用される。
図1は、本実施形態に係る画像処理装置として機能するコンピュータおよび周辺機器のハードウェア構成を示すブロック図である。このコンピュータには一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等が用いられる。なお番号の後に「R」とつくものは観察者の右目用、「L」とつくものは左目用を表す。特に特定する必要のない場合、文中ではR、Lを省略して表記することにする。
コンピュータ110はCPU121、メモリ122、HDD(ハードディスクドライブ)123、画像取得部(ビデオキャプチャボード)132,画像生成部(グラフィックボード)130、表示装置140、キーボード124、マウス125、シリアルI/F126により構成されている。
CPU121は本コンピュータ全体の制御を行うと共に、本コンピュータが行う後述の各処理を実行する。
メモリ122は、123からロードされたプログラムやデータを一時的に記憶する為のエリア、CPU121が各処理を実行する際に用いるエリアなど、様々なエリアを提供することができる。
HDD123にはOS(オペレーティングシステム)や、本コンピュータが行う後述の各処理をCPU121に実行させるためのプログラムやデータが保存されており、これらの一部若しくは全部はCPU121による制御に従ってメモリ122にロードされ、CPU121による処理対象となる。
画像取得部(キャプチャーカード)132は、コンピュータ110とHMD400のCCD416とを接続するためのインターフェースとして機能し、CCD416により撮像された各フレームの現実空間の画像がこれを介してメモリ122に転送される。
グラフィックカード130は、コンピュータ110による処理結果である画像や文字を示す信号を表示装置140とHMD400のLCD414に出力する。
画像取得部132、グラフィックカード130、HMD400のCCD416,LCD414は観察者の右目、左目用に二系統用意されており、それぞれ右目、左目用の複合現実空間映像を提供する。
キーボード124、マウス125は本コンピュータの操作者が操作することで、各種の指示をCPU121に対して入力することができる。
シリアルインターフェース126には位置姿勢センサ本体300が接続されている。位置姿勢センサ本体300は位置姿勢センサ送信機310と観察者が頭部に装着しているHMD400に内蔵されている位置姿勢センサ受信機320とにより得られる磁気の強度に基づいて位置姿勢センサ受信機320の位置姿勢を求める。そして、位置姿勢センサ受信機320の位置姿勢をシリアルインターフェース126を介してコンピュータ110に送信する。
次にHMD400の構成について図2〜4を用いて説明する。
図2はHMDの内部構成を示す図であり、図3,4はHMD400の外観図である。320は位置方向センサ受信機で、観察者の視点位置近傍に設けられており、位置姿勢センサ発信機310、本体300と共に動作し、位置センサ発信機310で定義されている座標軸における観察者の視点位置および姿勢を常時計測している。
410,414,415は夫々表示系を構成しており、カラー液晶ディスプレイ414が表示する画像が光学プリズム415によって導かれ、表示部410に表示される。
412、416、417は撮像系を構成しており、入力部412を介してHMDの外部から入力された光が光学プリズム417によってHMD内部に導かれ、CCD416で受光される。
光学プリズム415の出力光と光学プリズム417の入力光は観察者の瞳の光軸と一致しており、CCD416は、観察者の視点位置、姿勢の現実空間画像を撮像し、カラー液晶ディスプレイ414は、CCD416によって取得された現実空間画像と、位置姿勢センサ本体300で算出される観察者の視点位置、姿勢に応じて生成された仮想空間画像とを合成した複合現実空間画像を表示する。
421〜425は頭部装着用の構成部材である。HMD400を頭部に装着するには、まず、アジャスタ422で長さ調整部423を緩めた状態で頭にかぶる。そして、額装着部425を額に密着させてから側頭装着部421と後頭装着部424を各々側頭部、後頭部に密着させるように、アジャスタ422で長さ調整部423を絞める。
426はカラー液晶ディスプレイ414、CCD416、位置姿勢センサ受信機320のための電源および信号線をまとめたものである。
観察者の視点位置、姿勢の計測は、図1内の位置姿勢センサ本体300、位置姿勢センサ発信機310、位置姿勢センサ受信機320により構成される位置姿勢取得装置で行われる。
位置姿勢センサ受信機320、位置姿勢センサ発信機310は位置姿勢センサ本体300に接続されている。位置姿勢センサ発信機310からは磁気が発信されており、位置姿勢センサ受信機320がこの磁気を受信する。位置姿勢センサ本体300は位置姿勢センサ受信機320が受信した磁気の強度から位置姿勢センサ受信機320の位置、姿勢を公知の技術を用いて算出する。
なお、本実施形態では位置姿勢取得装置として米国Polhemus社製FASTRAKや米国Ascension Technology社製Flock of Birdsなどを利用することを想定しているが、これに限定されるものではなく他の市販されている超音波式、光学式位置姿勢センサも利用可能である。
位置センサ系300,310,320を利用することで、観察者100は視点位置、視線方向を自由に変更して、それに応じた複合現実空間画像を、HMD400を介して観察することができる。
次に、このような構成を備えるコンピュータ110上で動作するプログラムについて図5を用いて説明する。
10は複合現実感映像をHMD400に表示するためのアプリケーションプログラム、20はアプリケーション10が必要とする現実映像、HMDの位置姿勢情報を提供する複合現実感情報生成プログラムである。40は位置姿勢センサの配置情報を校正するセンサ初期校正プログラム、50は機器固有の設定や初期情報等の設定を行う設定プログラム、60は観察者の利き目を判定するための利き目判定プログラムである。30は設定データであり、センサ初期校正プログラム40で取得されたパラメータや、設定プログラム50で設定された値、効き目判定プログラム60で求められた情報が含まれる。
複合現実感情報生成プログラム20は、設定データ30にしたがって本実施形態の画像処理装置を構成する各機器を制御し、現実映像の取得、位置姿勢センサ装置の計測値を世界座標系上の値に変換する。そして、これらの情報をアプリケーションプログラム10に、メモリ122を介して提供する。
アプリケーション10は、メモリ122にアクセスし、仮想環境を生成するために必要なHMDの位置姿勢情報や現実空間映像を取得し、処理を行う。このような構成により、システムを構成する各機器の設定や利き目情報などを変更した場合でも(1)アプリケーションプログラムの変更、(2)再コンパイル、(3)アプリケーションプログラムの実行という一連の作業を不要とすることができる。
複合現実感情報生成プログラム20は、現実映像から位置姿勢補正処理をう。位置姿勢補正処理では、現実映像上から位置姿勢補正の情報となる特徴(マーカ)を検出し、その部分にコンピュータグラフィックス(CG)を重畳表示する。この表示画像により位置姿勢補正処理が動作していることを確認することができる。この時使用する現実映像は、観察者の利き目に対応したカメラの現実映像であり、観察者のどちらの目が利き目かという情報は、利き目判定プログラム60で判定、選択され、設定データ30として保存されている。
センサ初期校正プログラム40は、複合現実感情報生成プログラム20が世界座標系におけるHMDの位置姿勢を計算するために必要であるセンサ計測点の位置姿勢をHMDの位置姿勢に変換する座標変換パラメータと、センサの座標系における位置姿勢を世界座標系における位置姿勢に変換する座標変換パラメータとを計測(初期校正)する。
具体的には、例えば特開2004−151085号公報に記載されている方法を使用すればよい。初期校正において、HMDに搭載されているどちらのカメラの映像を使用するかという問題がある。本実施形態では、センサ初期校正プログラム40が起動時に設定データ30を参照し、利き目判定プログラム60で利き目を判定する。そして、選択された観察者の利き目に対応するカメラの映像を自動的に使用する。
次に、利き目判定プログラム60が行う利き目を判定する処理について、図6のフローチャートと図7、8に示される画面例とを用いて説明する。
なお、図6のフローチャートに従った処理をCPU110に実行させるためのプログラムやデータはHDD130に保存されており、これは必要に応じてCPU110による制御に従って適宜メモリ120にロードされるので、CPU110がロードされたプログラムやデータを用いて処理を行うことで、本コンピュータは以下説明する各処理を実行することになる。
先ず、HMDのカメラ、表示装置、画像処理装置のキャプチャボード、グラフィックボードを利用して、HMD装着者の前方の現実映像をHMD装着者に提供する(S502)。
続いてHMDを装着した観察者が遠くに存在するものを見るように誘導する(S510)。誘導の方法は音声によるガイダンスや画面上にテキストで表示するなど特に限定されないものとする。
図7(a)は初め観察者が立体視で見ていた映像で、図7(b)は誘導にしたがって観察者が注目するものを遠くの物体200に変更した立体視の映像である。
注目物体を変更したとき、眼球の向きを変更するのではなく、首により頭部の向きを変更するのが通常のため、注目物体は図7(b)のように画面中央に表示されるようになる。
誘導にしたがって視線位置方向を変更したら、観察者は利き目判定プログラム60にその旨を伝える操作を行う。操作方法は例えばキーボード124やマウス125の押下などで、特に限定されないものとする。
続いて指標物体を注目物体に重なって見えるように視野内に移動するよう誘導する(S515)。指標物体は観察者と注目物体との間にある現実物体である。ここで指標物体としては例えば観察者自身の身体の一部を利用すればよい。
図7(c)は観察者が右手210を指を立てた状態でHMDの前に出した様子を立体視で見た様子を示したものである。このように指標物体となる現実物体と注目物体が一致するように見えたら、観察者は利き目判定プログラム60にその旨を伝える操作を行う。
ここまで作業が終了すると、利き目判定プログラム60は、あらかじめ設定されている時間間隔で、右目用の映像出力と、左目用の映像出力を交互に黒一面で塗りつぶされた映像(ブラックアウト)に切り替える(S520)。観察者の利き目側の映像がブラックアウトする場合、すなわち利き目ではない目のみで映像を見ると、図7(d)のように指標物体と注目物体が一致しないように見える。逆に利き目と逆の映像がブラックアウトすると、指標物体と注目物体は一致して見える。
指標物体と注目物体とが一致して見える場合、観察者は利き目判定プログラム60にその旨を伝える操作を行う(S525)。利き目判定プログラム60はその時点でブラックアウトしている表示装置と逆の表示装置に対応する目を観察者の効き目として判定する(S530)。
判定結果の表示はテキストでも音でもよく、特に限定されないものとする。
図8は判定結果表示の例であり、ラジオボタンを持ったウインドウである。利き目として判定された目に対応するラジオボタンが押下された状態となり、OKボタンをマウスクリックすることで、利き目判定プログラム60は設定データ30にどちらが利き目かという情報を保存する。
利き目を手動で選択する場合はこのウインドウで、対応するラジオボタンをマウスで押下してOKをマウスクリックすればよい(S535)。利き目判定プログラム60の結果を保存しない場合はキャンセルボタンをマウスクリックすればよい。再度設定処理を行う場合は再設定ボタンをマウスクリックすればよい(S540)。OKボタンまたはキャンセルボタンをマウスクリックすると利き目判定プログラム60は現実映像の表示を中止し(S545)、終了する。
以上の説明により、本実施形態によって、利き目判定プログラム60で判定、選択された観察者の利き目に対応するカメラの映像が、複合現実感システムを構成するアプリケーションプログラム、複合現実感情報生成プログラム、センサ初期校正プログラムなどのプログラムで使用される。
利き目に対応するカメラの映像の切り替えには(1)プログラムの変更、(2)再コンパイル、(3)プログラムの再実行が不要であり、利き目の設定に応じてプログラムが動作するため、ユーザは簡単に利き目画像を用いた処理を行うことができる。
また利き目の判定、設定は簡単な処理で実現することができ、観察者ごとにこの処理を行うことで、より位置姿勢補正の精度を向上させることが可能になる。
なお、本実施形態で説明したGUIの操作方法については上記限定するものではない。また、本実施形態では現実空間モデルはポリゴンでもって構成されているとして説明したが、これに限定するものではない。
[第2の実施形態]
本実施形態では、第1の実施形態で説明した利き目の判定に観察者の手を使用せず、仮想物体のみで行う例について説明する。現実空間映像を使用せずに仮想空間映像のみで利き目判定を行うことが可能となる。
本実施形態では、第1の実施形態で説明した利き目の判定に観察者の手を使用せず、仮想物体のみで行う例について説明する。現実空間映像を使用せずに仮想空間映像のみで利き目判定を行うことが可能となる。
機器構成やプログラム構成は実施例1と同様であり、利き目判定プログラム60の動作のみ異なる。
本実施形態の利き目判定プログラム60が行う利き目を判定する処理について、図9のフローチャートと図10に示される画面例を用いて説明する。
先ず、利き目判定プログラム60は、HMDの表示装置、画像処理装置のグラフィックボードを利用して、仮想空間映像をHMD装着者に提供する(S1002)。ここで提供される仮想映像は画面全体が同じ色に塗りつぶされていて、観察者は前後関係を認識できない。
続いて図10(a)に図示するように、利き目判定プログラム60は、無遠限の位置に注目物体100を表示する(S1004)。なお、本実施例では無遠限を擬似的に実現するために画面の水平中心位置に仮想物体を描いたものを左右両方の画面に表示することで代用している。観察者は注目物体を注視し、目の焦点を注目物体にあわせるようにする。
次に、利き目判定プログラム60は、指標物体110を仮想空間における注目物体100と観察者の間に表示する(S1006)。図10(b)、(c)、(d)はそれぞれ注目物体を観察者が立体視で見たときに左方に見える場合、中央に見える場合、右方に見える場合のそれぞれの画面を図示したものである。S1006では図11(b)のように表示されるものとする。
そして利き目判定プログラム60は、指標物体110の仮想空間中の位置を変更して、画面上の水平位置を図11(b)(c)(d)に示すように連続的に左右に変化するように表示することを繰り返し行う(S1006〜S1010)。この間、観察者が注目物体と指標物が一致して見えたとき(S1008)、キーボードの何らかのキーを押すと、利き目判定プログラム60は、その時点における画像上の指標物体と注目物体の位置の差を計算し、差が少ないほうの画面に対応する目を観察者の利き目と判断する(S1012)。そして判断結果を例えば実施例1のように表示する。
判断結果を受け入れる場合、観察者は利き目判定プログラム60にその旨を伝える操作を行う。すると利き目判定プログラム60は終了処理を行い(S1016)、仮想映像表示を中止する(S1018)。判断結果を受け入れない場合、観察者は利き目判定プログラム60にその旨を伝える操作を行う。する利き目判定プログラム60は再度S1004に戻って処理を繰り返す。
なお、本実施例では注目物体100と指標物体110の奥行き関係を注目物体と観察者の間に指標物体があるように記述したが、逆に指標物体と観察者の間に注目物体があるように処理しても良い。
また指標物体は自動的に仮想空間中の位置を左右に移動するよう処理していたが、自動的に移動するのではなく観察者の指示によりその画面上の位置を指定できるようにしても良い。
そしてこれらの処理を観察者の個人的特性や嗜好に合わせて自由に選択するように実現しても良い。
[第3の実施形態]
本実施形態では、第1および第2の実施形態によって設定された利き目情報の使用方法の1例を説明する。本実施形態では、利き目の現実空間映像を、観察者以外の人が参照可能なようにHMD以外の表示装置に出力する。
本実施形態では、第1および第2の実施形態によって設定された利き目情報の使用方法の1例を説明する。本実施形態では、利き目の現実空間映像を、観察者以外の人が参照可能なようにHMD以外の表示装置に出力する。
図11は図1の画像処理装置にシリアルインターフェース126により切り替え可能な切替器142と分配器144を加えたものである。それ以外は図1の画像処理装置と同様である。
複合現実感情報生成プログラム20は、動作開始時に設定データ30から利き目情報を読み取って、切替器142を制御して、観察者の利き目の複合現実感映像をモニタ140に出力する。モニタ140は観察者以外の人が、観察者がどのような映像を見ているのか知るための表示装置である。
観察者は主に利き目で複合現実空間を見ているため、利き目と逆の目の複合現実映像が表示されていると、観察者とモニタを見ている人と見ている物についての認識がずれることがある。これは観察者と注目物体との距離が短い場合に顕著に発生する。
切替器142で利き目の映像をモニタ出力することでこのような事態が生じる可能性を低減する。
[第4の実施形態]
本実施形態では、第1の実施形態で説明したセンサ初期校正プログラム40の処理を、利き目に対応する現実映像に限定せず、画像処理装置が取得可能なすべての現実映像、つまり左右両眼に対応する現実映像について同時に処理を行う例である。
本実施形態では、第1の実施形態で説明したセンサ初期校正プログラム40の処理を、利き目に対応する現実映像に限定せず、画像処理装置が取得可能なすべての現実映像、つまり左右両眼に対応する現実映像について同時に処理を行う例である。
センサ初期校正プログラム40は、すべてのカメラについて校正処理を同時に行い、すべてのカメラの校正結果を設定データ30に保存する。
利き目判定プログラム60は設定された利き目に対応するカメラの校正結果を設定データ30から読み出すよう処理する。
本実施例により、一度の校正処理で左右の両方の目に対応するカメラについて、センサ計測点の位置姿勢をHMDの位置姿勢に変換する座標変換パラメータを取得可能であり、利き目を変更した場合でも再度校正処理を行う手間が削減できる。
また、実施例1のように利き目に対応するカメラのみ校正を行う設定と、実施例4のように両目のカメラに対応するカメラの校正を同時に行う設定を、設定プログラム50と設定データ30で管理し、設定プログラム50で動作を選択できるようにしても良い。
Claims (10)
- 任意の位置姿勢における現実空間映像とそれに対応した仮想空間映像を重畳して観察者に提示する画像処理方法であって、
観察者の利き目を判定する判定工程と、
観察者の利き目を設定する設定工程とを有し、
前記設定工程で利き目として設定された目に対応する現実空間映像を画像処理することによって、表示装置の位置姿勢を計測する計測工程を有することを特徴とする情報処理方法。 - 前記現実空間映像を利用して、前記計測工程の初期校正を行うことを特徴とする請求項1記載の情報処理方法。
- 前記計測工程の初期校正時には、取得可能なすべての現実空間映像ごとに、同時に処理を行う請求項1記載の情報処理装置。
- 前記現実空間映像を利用して、前記計測工程の処理状態を表示することを特徴とする請求項1記載の情報処理方法。
- 前記設定工程の設定値に連動して、外部出力する現実空間映像を切り替えることを特徴とする請求項1記載の情報処理方法。
- 前記設定工程は手動であることを特徴とする請求項1の情報処理方法。
- 右目用画像および左目用画像を用いてユーザに立体視画像を提供する情報処理方法であって、
観察者の利き目を設定する設定工程と、
前記設定された観察者の利き目に対応する画像を用いて、処理条件を算出する算出工程とを有することを特徴とする情報処理方法。 - 任意の位置姿勢における現実空間映像とそれに対応した仮想空間映像を重畳して観察者に提示する画像処理装置であって、
観察者の利き目を判定する判定手段と、
観察者の利き目を設定する設定手段とを有し、
前記設定工程で利き目として設定された目に対応する現実空間映像を画像処理することによって、表示装置の位置姿勢を計測する計測手段を有することを特徴とする画像処理装置。 - コンピュータに請求項1〜7の何れか1項に記載の画像処理方法を実行させるためのプログラム。
- 請求項9に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005216148A JP2007034628A (ja) | 2005-07-26 | 2005-07-26 | 画像処理方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005216148A JP2007034628A (ja) | 2005-07-26 | 2005-07-26 | 画像処理方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007034628A true JP2007034628A (ja) | 2007-02-08 |
Family
ID=37793820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005216148A Withdrawn JP2007034628A (ja) | 2005-07-26 | 2005-07-26 | 画像処理方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007034628A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294530A (ja) * | 2007-05-22 | 2008-12-04 | Fujifilm Corp | 撮像装置、画像再生装置、撮像方法、画像再生方法及びプログラム |
JP2008306602A (ja) * | 2007-06-08 | 2008-12-18 | Canon Inc | 画像表示システム、及びその制御方法 |
JP2010205030A (ja) * | 2009-03-04 | 2010-09-16 | Kddi Corp | 関連情報表示位置特定方法、関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム |
KR20140090549A (ko) * | 2013-12-10 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법 |
WO2014128748A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 |
JP2016130693A (ja) * | 2015-01-14 | 2016-07-21 | 日本電信電話株式会社 | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム |
JP2016197780A (ja) * | 2015-04-02 | 2016-11-24 | 日本電信電話株式会社 | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム |
WO2016209030A1 (ko) * | 2015-06-24 | 2016-12-29 | (주)브이터치 | 복시를 해소한 양안시차 기반 3차원 디스플레이 장치의 증강정보 표시 방법 |
CN107126188A (zh) * | 2017-05-16 | 2017-09-05 | 杨铭轲 | 检测、抑制单眼弃用的装置 |
CN109598797A (zh) * | 2017-10-02 | 2019-04-09 | 宏碁股份有限公司 | 可支持虚拟现实应用程序的混合现实系统及其显示方法 |
JP2021131490A (ja) * | 2020-02-20 | 2021-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
US20220192487A1 (en) * | 2019-09-04 | 2022-06-23 | VTouch Co., Ltd. | Method and system for determining dominant eye, and non-transitory computer-readable recording medium |
-
2005
- 2005-07-26 JP JP2005216148A patent/JP2007034628A/ja not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294530A (ja) * | 2007-05-22 | 2008-12-04 | Fujifilm Corp | 撮像装置、画像再生装置、撮像方法、画像再生方法及びプログラム |
JP2008306602A (ja) * | 2007-06-08 | 2008-12-18 | Canon Inc | 画像表示システム、及びその制御方法 |
JP2010205030A (ja) * | 2009-03-04 | 2010-09-16 | Kddi Corp | 関連情報表示位置特定方法、関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム |
JPWO2014128748A1 (ja) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 |
WO2014128748A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 |
KR20140090549A (ko) * | 2013-12-10 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법 |
KR102083963B1 (ko) * | 2013-12-10 | 2020-04-14 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법 |
JP2016130693A (ja) * | 2015-01-14 | 2016-07-21 | 日本電信電話株式会社 | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム |
JP2016197780A (ja) * | 2015-04-02 | 2016-11-24 | 日本電信電話株式会社 | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム |
WO2016209030A1 (ko) * | 2015-06-24 | 2016-12-29 | (주)브이터치 | 복시를 해소한 양안시차 기반 3차원 디스플레이 장치의 증강정보 표시 방법 |
CN107126188A (zh) * | 2017-05-16 | 2017-09-05 | 杨铭轲 | 检测、抑制单眼弃用的装置 |
CN109598797A (zh) * | 2017-10-02 | 2019-04-09 | 宏碁股份有限公司 | 可支持虚拟现实应用程序的混合现实系统及其显示方法 |
CN109598797B (zh) * | 2017-10-02 | 2023-05-30 | 宏碁股份有限公司 | 可支持虚拟现实应用程序的混合现实系统及其显示方法 |
US20220192487A1 (en) * | 2019-09-04 | 2022-06-23 | VTouch Co., Ltd. | Method and system for determining dominant eye, and non-transitory computer-readable recording medium |
JP2021131490A (ja) * | 2020-02-20 | 2021-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007034628A (ja) | 画像処理方法及び装置 | |
US20220366598A1 (en) | Calibration system and method to align a 3d virtual scene and a 3d real world for a stereoscopic head-mounted display | |
US20210131790A1 (en) | Information processing apparatus, information processing method, and recording medium | |
CN110022470B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
JP6860488B2 (ja) | 複合現実システム | |
JP6515813B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN105264478B (zh) | 全息锚定和动态定位 | |
CN114730094A (zh) | 具有人工现实内容的变焦显示的人工现实系统 | |
WO2016132817A1 (ja) | 仮想オブジェクト表示装置、方法、プログラムおよびシステム | |
EP2919093A1 (en) | Method, system, and computer for identifying object in augmented reality | |
WO2013179427A1 (ja) | 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 | |
KR20130108643A (ko) | 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들 | |
KR20150093831A (ko) | 혼합 현실 환경에 대한 직접 상호작용 시스템 | |
JP2013258614A (ja) | 画像生成装置および画像生成方法 | |
JP2007042055A (ja) | 画像処理方法、画像処理装置 | |
US10386633B2 (en) | Virtual object display system, and display control method and display control program for the same | |
CN105630152A (zh) | 处理视觉数据的设备和方法以及相关的计算机程序产品 | |
JP2017108370A (ja) | 頭部装着型表示装置およびコンピュータープログラム | |
Hu et al. | Alignment-free offline calibration of commercial optical see-through head-mounted displays with simplified procedures | |
JP2006012042A (ja) | 画像生成方法及び装置 | |
JP6534972B2 (ja) | 映像表示装置、映像表示方法及び映像表示プログラム | |
CN112153319A (zh) | 基于视频通信技术的ar信息显示方法和装置 | |
JP2018063567A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2006318094A (ja) | 情報処理方法、情報処理装置 | |
JP2006340017A (ja) | 立体映像表示装置及び立体映像表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081007 |