JP3619063B2 - 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 - Google Patents

立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 Download PDF

Info

Publication number
JP3619063B2
JP3619063B2 JP19480299A JP19480299A JP3619063B2 JP 3619063 B2 JP3619063 B2 JP 3619063B2 JP 19480299 A JP19480299 A JP 19480299A JP 19480299 A JP19480299 A JP 19480299A JP 3619063 B2 JP3619063 B2 JP 3619063B2
Authority
JP
Japan
Prior art keywords
stereoscopic
point
image processing
stereoscopic image
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19480299A
Other languages
English (en)
Other versions
JP2001022344A (ja
Inventor
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP19480299A priority Critical patent/JP3619063B2/ja
Priority to US09/512,828 priority patent/US6677939B2/en
Publication of JP2001022344A publication Critical patent/JP2001022344A/ja
Application granted granted Critical
Publication of JP3619063B2 publication Critical patent/JP3619063B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えばVRML(Virtual Reality Modeling Language)等の三次元の仮想空間を扱う言語により記述された空間データを立体視可能な画像データに変換する立体画像処理装置、立体視パラメータ設定装置、立体画像表示装置、更にはそれらの方法に関する。
【0002】
【従来の技術】
近年の計算機の能力向上と共に、3次元コンビュータグラフィクス(CG)が急速に一般化しつつある。それと相まって、インターネット上のWWW(World Wide Web)の急速な普及と共に、3次元空間をWWW上で取り扱う言語としてVRML(Virtual Reality Modeling Language)が標準化され、広く使われてきている。
【0003】
現時点で公表されている最新版のVRML2.0は、エレクトリック・コマース用の仮想モール構築、また、イントラネットでのCAD等の3次元データの管理等で用いられている。
【0004】
一方、本発明の出願人は、観察者が直接奥行きを知覚できる立体表示装置として、リアクロスレンチrear−cross lenticular type方式の3Dディスプレイ(以下、3Dディスプレイを二次元表示装置と区別するために「立体表示装置」と略す)を開発しているが、出願人のこの表示装置以外にも多くの立体表示装置が提案されている。
【0005】
このVRML2.0で記述された3次元空間を表示するためには、VRMLビューワ装置が必要となる。一般に普及しているVRMLビューワ装置は、記述している空間は3次元であるものの、最終的な表示は通常のモニタを用いた2次元表示(以下、「立体表示装置」との対比上「二次元表示装置」と略す)に留まっている。
【0006】
この理由は、従来のVRMLビューワ装置が、立体視用画像を効率よく生成することができず、そのために、リアルタイムの立体画像の再現に向かないこと、立体視を実現するための一部パラメータ(以下、「立体視パラメータ」と略す)がVRML2.0でサポートされていないために、事実上、立体視を実現することができなかったからである。
【0007】
立体視パラメータとは、基線長、輻輳角、視野角などに関連するパラメータをいう。3次元幾何モデル・仮想空間・仮想物体等といった対象を、立体表示する場合において、その対象の大きさの単位又は値が明瞭である場合は、その大きさを認識でき、且つ立体視が可能なように表示することは可能である。しかしながら、例えば基線長の設定を誤ると立体視は不可能となる。従って、立体視パラメータの初期値を正しく設定することは大きな要請である。
【0008】
この点で、本出願人は、特願平10−185135号(平成10年6月30日)において、基線長の初期値を、画像空間の大きさから求め、例えば65mmとし、又、輻輳角を0度(即ち、平行視)とすることを提案した。
【0009】
立体視パラメータは初期的に設定する時点でのみ問題となるのではない。
【0010】
例えば、仮想空間で体験者にウォークスルーシステムを提供している最中において、対象を観察する視点条件(視点位置・視軸方向)は動的に変化するものである。そのために、基線長や輻輳角の初期値を適正に設定しても、ウォークスルーに伴う視点条件の変化により、基線長や輻輳角を動的に変化させる必要がある。
【0011】
この要請に対して、本出願人は、上記特願平10−185135号において、グラフィック・ユーザインタフェースを立体ディスプレイの表示画面上に設け、このユーザインタフェースを介して、体験者が上記立体視パラメータを動的に変更する途を提案した。
【0012】
【発明が解決しようとする課題】
上記特願平10−185135号は、立体視パラメータの初期値、更にはリアルタイム値を提案するものではある。
【0013】
しかしながら、この従来技術において、基線長を例えば65mmに設定することは、取り敢えず立体視を可能とするために、その画像空間の実際の大きさを無視して、画像空間を人間の大きさに無理に合わせようとするものであることから、観察者若しくはユーザに違和感を与えることは禁じ得ない。
【0014】
又、輻輳角の初期値を0度とすることは、立体視を可能とはするが、これも本来的に望ましい立体視とは限らない。
【0015】
なお、立体視パラメータの初期値及びリアルタイム値を設定する課題はVRMLデータを扱うシステムに限定されない。およそ立体視パラメータが設定されていない三次元空間データ若しくは立体画像データ、あるいは立体視パラメータを動的に変更する必要のある仮想空間での三次元空間データであれば、あらゆる空間データにおいて発生する課題である。
【0016】
【課題を解決するための手段】
本発明は上述の従来技術及び本出願人の提案技術に鑑みてなされたもので、その目的は、立体視パラメータの最適な初期値を自動的に設定する画像処理装置及びパラメータ設定装置を提案する。
【0017】
本発明の他の目的は、立体視パラメータの最適リアルタイム値を自動的に更新する画像処理装置及びパラメータ設定装置を提案する。
【0018】
本発明のさらに他の目的は、ユーザ若しくは観察者の要求に応じて立体視パラメータの最適値を設定する画像処理装置及びパラメータ設定装置を提案する。
【0019】
上記課題を達成するための、本発明の請求項1にかかる、任意の物体の左目用画像と右目用画像とを表示して前記物体の立体視を得る立体画像処理装置は、入力画像の奥行き方向について、観察者の視点位置に最も近い、前記物体上の物体点を検出する検出手段と、前記物体点が二次元描画空間に描画された際に現れる左右間のズレ距離を設定するズレ距離設定手段と、前記左目用画像と右目用画像のいずれか一方における前記物体点の画像位置と、前記ズレ距離とに基づいて、基線長の値を決定する決定手段と、決定された基線長の値を立体視パラメータとして用いて、前記左目用画像と右目用画像を生成する生成手段とを具備することを特徴とする。
【0020】
立体視パラメータとして例えば基線長を、上記ズレ距離の三次元空間での距離に設定すれば、立体視は確保される。即ち、立体視パラメータがユーザ若しくは観察者の手を煩わすことなく設定される。
【0021】
本発明の好適な一態様である請求項2に拠れば、前記決定手段は、
前記物体点の前記二次元描画空間上の座標から、観察者の基線長方向に、前記ズレ距離だけ離間したズレ点の位置を演算するズレ演算手段と、
前記ズレ点の三次元空間における座標を演算する座標変換手段と、
前記ズレ点の三次元座標と前記物体点との距離に基づいて前記基線長の値を決定する基線長決定手段を具備することを特徴とする。
【0025】
前記物体点(例えば仮想物体上の観察者に最も近い点)は二次元描画空間中において特定されねばならない。そこで、本発明の好適な一態様である請求項に拠れば、前記物体点は所定の条件を満足すべきものとされ、満足する物体点が前記二次元描画空間において高速に探索されるように、前記描画空間における複数の探索位置が前もって離散的分布を有するように設定されている。
【0031】
本発明の目的は、立体視パラメータの値の最適値を自動的に設定するものであるが、その値を、別途、ユーザ自身が設定するようにしてもよい。そこで、本発明の好適な一態様である請求項に拠れば、手動で立体視パラメータの値を設定するユーザインタフェース手段を更に具備する。
【0032】
請求項の装置においては、立体視パラメータの値が、自動設定される場合とユーザが設定しようとする場合とで競合する。そこで、本発明の好適な一態様である請求項に拠れば、前記ユーザインタフェース手段と前記決定手段との競合の調停をとる手段を更に具備する。後述の実施形態では、いずれのモードをとるかを指定するアイコンが表示画面上に表示される。
【0033】
立体視パラメータとして輻輳角を設定する場合には、請求項6の決定手段は、入力画像の仮想空間の奥行き方向の広がりを求め、観察者の左右の視点位置から見える、この仮想空間の奥行き方向の広がりの中間位置の方向に基づいて輻輳角の値を決定する。
【0035】
本発明の好適な一態様である請求項に拠れば、前記ズレ距離設定手段は、
立体画像が表示される表示装置の画素サイズと、この表示装置の表示画面から観察者までの距離とに基づいて前もって前記ズレ距離を決定る。これらの要素によって決定されたズレ距離の最大値に一致するようなパラメータ、例えば基線長、は立体視を保証する。
【0037】
左右の視点位置での視軸が平行する場合には、仮想空間の物体の最近点が最も視差距離が大きい値を示す。そこで、本発明の好適な一態様である請求項に拠れば、前記物体点は、前記左目用画像と右目用画像のいずれか一方の画像データに、観察者の視点からの前記二次元描画空間への透視変換を施し、透視変換された画像データのなかから最も小さな奥行き値を有する画素に決定される。
【0045】
本発明の目的は、請求項1乃至9のいずれかに記載の立体画像処理装置を具備する立体画像表示装置によっても達成できる。
【0046】
【発明の実施の形態】
以下、本発明を、本出願人が開発したリアクロスレンチ方式の3Dディスプレイを立体表示装置として用い、ウォークスルー体験をユーザに提供するウォークスルー体験システムに適用した実施形態を説明する。尚、本発明は、リアクロスレンチ方式の3Dディスプレイのみに適用可能なものではないこと、ウォークスルー体験システムにのみに適用可能なものではないことは、後述の説明から明らかになるであろう。
【0047】
〈ウォークスルー・システム〉
第1図は、このウォークスルーシステムに適用される立体画像表示装置の構成を示す。この表示装置1000は、通常のワークステーションのように、ディスプレイ10と、ディスプレイ10に表示するデータを一時的に格納するフレームバッファ11と、描画用画像データ(の他にマスク情報や距離情報も)を記憶するフレームバッファ11と、CPU12と、キーボード13と、マウス14と、プログラムなどを格納する記憶装置15と、三次元空間データベースを記憶する大容量記憶装置16と、さらにディスプレイ10からユーザ(観察者)までの距離LGHを測定する測距センサ17と、観察者の視点の視点位置・姿勢OBを検出する視点位置センサ18とを有する。尚、観察者の位置及び視点が予め決められた範囲内でのみ許されるのであれば、測距センサや視点位置センサは不要となろう。
【0048】
ディスプレイ10は、立体視が可能となるように、本出願人により提案されているリアクロスレンチ方式の眼鏡無し(即ち、裸眼)3Dディスプレイを用いている。
【0049】
リアクロスレンチ方式の裸眼立体ディスプレイ10は、第2図に示すようにTFTの波晶(LC)パネル20とバックライト・パネル24との間に2枚のレンチキュラーレンズ(Hレンチキュラーレンズ21、Vレンチキュラーレンズ22)と市松状マスクパネル23を配置した構成を特徴としている。Vレンチキュラーレンズ22は、バックライト24からの照明光の指向性を走査線毎に変えて左眼方向と右眼方向とに分離する役割をもつ。Hレンチキュラーレンズ21は、市松状マスク23の1つの水平ラインの開口からの光を、LCパネル20の一走査線上に集光させ、クロストークの発生を防ぐと同時に、開口部からの光を観察者の方へ発散する光束とすることで垂直方向の立体視域を拡大している。
【0050】
第3図は、第2図のLCパネル20の一部領域Aを拡大表示したものである。このディスプレイ10では、第3図に示すように、立体視用の左右ステレオ画像対を横ストライプ状に交互に並べて合成した画像をLCパネル20に表示する。そのため、縦ストライプ画像を入力とする通常のレンチキュラ方式と比較して、波晶の縦ストライプに対応した色分離が発生しない、波晶シャッター眼鏡などで標準に使われる時分割フィールド順次方式の水平ストライプ合成画像と互換性がある、等の特長を持つ。
【0051】
ウォークスルーすべき仮想空間の立体画像はディスプレイ10上に標示される。ウォークスルーを体験するユーザは、マウス14又はキーボード13により、進行方向及び移動距離を指定する。CPU12は、メモリ15に記憶された所定のウォークスルーアプリケーション・プログラムに従って、移動先の仮想画像を生成し、その仮想画像をディスプレイ10上に表示させることにより、仮想空間を疑似体験させる。
【0052】
今、このウォークスルー空間において、第4図のように、4つの狭領域1,2,3,4が設定されている場合を想定する。異なる狭領域に跨ってウォークスルーする場合には、マウスにより移動経路5又は6などを指定すればよい。このウォークスルー空間の狭領域の夫々について、三次元空間データベースがメモリ16に記憶されている。従って、本システム、即ちアプリケーション・プログラムは、メモリ16に記憶されている各狭領域の三次元空間データにおいて立体視パラメータが設定されていない場合には、後述するように、立体視パラメータの初期値を設定する。又、例えば、別の狭領域(空間)に移動するような場合には、視点条件(視点位置、視軸方向)が大きく変わることとなり、このために、立体視パラメータをその時点で移動先の狭空間での視点条件(視点位置、視軸方向)に合致するように変更する必要がある。
【0053】
このように、本実施形態のシステムは、立体視パラメータの初期最適値のみならず動的な最適値を、ダイナミック(ユーザの手を介さずに、或いは必要に応じてユーザの指示により)に設定することができる。
【0054】
〈基線長最適値の決定原理〉
第5図は、メモリ16に記憶された空間データが合成されて表示される様子を示す。同図において、立体視のための空間データは、右目用画像31と左目用画像32とが前もってメモリ16に記憶され、適切な基線長と輻輳角が設定されたならば第5図の33に示すように、ディスプレイ10上では、2つの画像31,32が見かけ上のズレを持って、例えば第6図のように表示される。このズレ量が適切に設定されれば、体験者には、画像31,32は融像した立体画像として感知される。
【0055】
本システムにおける基線長の最適値の決定は、ステレオ画像31,32が第6図のように表示された場合において、画面上に現れる画像31と画像32の視差の最大値(以下、「最大視差量」と呼ぶ)を問題にする。ここで、視差とは、本来は1つの点(仮想物体或いは現実物体の上の点)についての、二次元空間で描画表示された画像31と画像32上における夫々の点の距離であって、そのような距離の中(仮想物体或いは現実物体の上の点は多数ある)で最大値を指すものとする。
【0056】
表示された物体画像31,32が体験者によって立体的に知覚できるか否かは、ディスプレイ10の大きさ、特性(例えば画素ピッチ)、視点から画面までの距離などの条件の他に、上述の視差量が、密接に関係することはよく知られている。本実施形態のシステムは、この最大視差量を、
・ディスプレイ毎に調整する、
・一定量以下に調整する、
・自動的に調整する
ものである。
本実施形態の基線長決定の原理を第7図乃至第10図を用いて説明する。
【0057】
尚、説明を簡略化するために、物体として四角錐30を想定する。メモリ16に記憶されたこの物体30の三次元空間データは、この四角錐30を第7図に示すような配置の左右の仮想カメラで撮影すると、第6図のようなステレオ画像が得られるデータである。この仮想カメラによる撮像の様子を上方から見たとすると、物体30と左右夫々の仮想カメラの視点との関係は第8図のようになる。尚、第8図において、仮想撮像面とは、その仮想カメラの撮像面であり、その解像度はディスプレイ10の解像度に一致させており、仮想カメラの1画素分の画像データは、ディスプレイ10の表示画面の1画素に表示される。このために、スケールを考慮しなければ、仮想撮像面上の位置は、表示ディスプレイ上の表示位置に等価である。
【0058】
第8図において、四角錐30の頂点40は、右仮想カメラの撮像面上(即ち、表示面上)の点41Rに、左仮想カメラの撮像面上(即ち、表示面上)の点41Lに射影される。即ち、左右の仮想カメラの視点位置間の距離(即ち、基線長)が距離42に設定されている場合に、物体30上の点40の三次元位置と、基線長42と、射影点41L,41R間の距離43とは、夫々、一対一に対応することになる。
【0059】
第6図に関連して説明したように、対象(この場合は物体30)が変化(変形や移動)していない場合には、基線長の変化量が物体の任意の点の仮想画面上での最大視差量に影響する。特に、第8図のように、2つの仮想カメラの視軸方向が平行である場合には、最大視差量は基線長の変化のみによって支配される。この場合、最大視差量の変化と基線長の変化は一次の関係にあるので、立体視を可能にする(即ち、最大視差量を一定値以下にする)ためには、立体視パラメータとしての基線長を調整すればよいことになる。
【0060】
一方、第7図のように仮想カメラの視軸は平行である場合には、視点に最も近い物体上の点の視差量が最大となるから、このような視点に最も近い物体上の点の視差量を計算し、この視差量に基づいて基線長を計算すれば、その物体(第7図の例では四角錐30)の全ての点についての立体視が保証されることがわかる。
【0061】
従って、このウォークスルー立体視システムでは、
【0062】
・物体上の点のうち、仮想カメラ視点に最も近い点(或いは、最も近いと思われる点)(以下、「最近点」と略称する)を決定する処理(「最近点決定処理」と呼ぶ)と、
・この最近点の撮像面上でのズレ量を基にした基線長の決定処理(「基線長決定処理」と呼ぶ)、
という2つの処理が組み込まれている。
【0063】
〈基線長決定処理の原理〉
まず、最近点が既に決定されている場合において、その最近点に基づいた基線長決定処理の原理について第9図,第10図を用いて説明する。
【0064】
第9図において、視点60とは、例えば第7図の右仮想カメラ(左仮想カメラでもよい)における視点をいい、仮想撮像面61は、その仮想カメラの撮像面であり、その解像度はディスプレイ10の解像度に一致させている。即ち、仮想カメラの1画素分の画像データは、ディスプレイ10の表示画面の1画素に表示される。
【0065】
第9図において、仮想線53の長さは、ディスプレイ10上において標示されるステレオ画像を立体視として保証するための最大視差量に相当する長さに設定されているとすると、この仮想線53を仮想画面上で第9図の位置に設定するということは、その右端点52は、三次元物体の最近点50の射影の筈である。すると、右端点52が最近点50の射影として設定され、仮想線53の長さが立体視として保証するための最大視差量に相当する長さとして設定されるならば、仮想線53の左端点54は、同じ最近点50の左仮想カメラの仮想撮像面上への射影点の筈である。すると、仮想線53の左端点54を、左仮想カメラではなく、右仮想カメラでもって逆透視して三次元空間に射影することにより、点55が得られる。即ち、三次元空間において点50と点55を結ぶ線分51は、仮想撮像面上の仮想線53(即ち、最大視差量を表す)の3次元空間への射影を表す。尚、点54の射影点55は、右仮想カメラによる透視変換行列をVとすると、その逆行列V−1 によって得られる。
【0066】
仮想線53の長さは立体視を保証する最大視差量に相当するように設定されているから、第10図に示すように、左右の仮想カメラの距離(即ち、基線長)を線分53の長さに設定すれば、観察者には、最近点50の融像を見ることができる。仮想カメラが互いに平行視軸を持つように設定されており、仮想線53の長さが最大視差量に相当するように設定されているので、観察者は、最近点50のみならず、その物体の全ての点を、即ち、その物体を立体感を持って見ることとなる。
【0067】
かくして、本実施形態システムの基線長決定処理は、線分51の長さを決定することに他ならない。
【0068】
〈最近点決定処理〉
基線長決定処理は、その処理に先立って、最近点が決定されていることが前提である。最近点は、観察者若しくはユーザがディスプレイ10の画面を見ながらマウスなどによりマニュアルで選定してもよいが、それでは、ウォークスルーのリアルタイム性が失われてしまう。本実施形態のシステムは、最近点を、システムがユーザに替わって自動的に求めて決定する。
【0069】
本実施形態のシステムでは、三次元空間データは、メモリ16に、
・形状を記述するデータ(点群に関する三次元位置データ(X,Y,Z)と各点間のパッチリンク)と、
・表面の特性(色・反射率・透過率・テクスチャ)を記述するデータと、
・光源位置を記述するデータと、
等を記憶して構成される。尚、通常、三次元空間データは、この他にも、初期値や、数個のセットの視点位置や方向、動的に動いている物体の動作方法、音の生成方法の記述(ある物体にさわると音がするなど)、手続きの実行できるスクリプト言語の記述などが可能である。これらのうち、視点位置、方向以外は、今回の発明とは直接関係しないので、ここでは詳細な説明は省略する。
最近点は、点群に関する三次元位置データ(X,Y,Z)と、ユーザ(即ち、仮想カメラ)の視点位置によって変化する。従って、最近点は、ユーザの視点位置を考慮して決定しなければならない。
【0070】
ユーザの視点位置から物体までの距離は、コンピュータグラフイクスの技術分野で利用されている「zバッファ値」を用いることで得ることができる。まず、zバッファおよびzバッファ値に関して簡単に説明する。
【0071】
三次元空間上の一点(X, Y, Z)は、表示のために二次元の平面へと透視変換する必要がある。第11図のようなユーザの視点位置と視体積とを想定し、その視体積を、
【0072】
b = bottom, t = top, l = left, r = right, n = near, f = far
【0073】
と定義すると、三次元空間状の一点(X, Y, Z)は、仮想カメラの撮像面の(x, y, z)ヘと次式のように変換される。ここで、この変換式では同次座標系を利用している。
【0074】
[数1]
Figure 0003619063
【0075】
但し、
【0076】
[数2]
Figure 0003619063
【0077】
[数3]
Figure 0003619063
【0078】
上記透視変換により得られた(x, y, z)のうち、(x, y)は仮想撮像面上での2次元位置であり、zがzバッファ値となる。このzバッファ値は、透視変換前の三次元空間中での奥行順を保持したまま、視体積の奥行方向を正規化したような値である。通常、コンピュータグラフィクスの技術分野では、このzバッファ値を利用して表示時に、面や線の隠れの判定(陰面消去・陰線消去処理)を行っている。これは、表示画面(仮想撮像面)用に必要なRGB色バッファメモリの他に、zバッファというフレームバッファメモリを用いることで実現している。これは、
・透視変換により得られた(x, y, z)があるときに、(x, y)の位置に相当する画素位置のRGB色バッファ及びzバッファに、色の計算結果および名を格納する、
・このとき、既に格納しておるzバッファのその画素の値の方が小さい場合には更新を行わない、
という処理である。本来、zバッフアおよび、上記数式1〜3による結果zは、この処理のために利用されている。ここで、zバッファは、この目的のためにのみ用意された専用ハードウェアメモリとして用意してある場合もあれば、専用のメモリではなく通常の主記憶メモリに割り当てられてソフトウェア的に実現してある場合もある。
この処理にあるように、zバッフアは、ユーザ視点から見えている対象物体の最も近い表面上の奥行き情報を保持しており、また、透視変換前の3次元空間上での奥行順も保持しているため、ユーザ視点からの「最近点」を求める際に利用できる。すなわち、最小のzバッファ値を有する点が「最近点」となる。
【0079】
ここで、(x, y)の位置のzバッファ値を得るためには、例えば、例えば、次のコマンド、
【0080】
glReadPixels(x,y,1,1,GL_DEPTH_COMPONENT, GL_FLOAT, &z)
【0081】
を用いることができる。最近点(x, y, z)は、下記の式を満足する点をフレームバッファ11内を探索して得る。
【0082】
[数4]
Figure 0003619063
【0083】
である。
ところで、[数3]や[数4]を用いてフレームバッファ内で最近点を探索することは、データの読出に時間がかかる(特にハードウエアが通常のフレームバッファであれば特にそうである)。そこで、最近点の探索を高速化するために、探索点をサンプリングする。探索点のサンプリングは、フレームバッファ内で、即ち、第12図のように、撮像画面の二次元空間上において行う。即ち、サンプリング点iの分布を、第13図〜第18図のいずれかに前もって設定する。同図において、各点はサンプリング点を表す。要は、サンプリング点のいずれかに、実際の最近点が含まれていれば好ましい。
【0084】
第13図の例では、二次元空間(x, y)の全てをサンプリング点とするものである。この手法は最近点の探索の精度が上がるが、前述したように、探索に時間がかかるという欠点がある。
【0085】
第14図の例では撮像面の中央領域のみをサンプリングする。観察者(ユーザ)は、仮想カメラの撮像空間、即ち、ディスプレイ10の表示空間の中央領域を見つめていることが多い。このことは、中央領域で立体視が得られれば、その周辺で立体視が得られなくても問題はないことを意味する。そこで、サンプリング点を中央領域に集中して高速化を図るのである。
【0086】
第15図の例は、中央の一点に探索を集中する。高速化を極限まで達成できるが、立体視が得られない確率が向上する。例えば、遠方の点を最近点と誤認識すれば、観察者は、実際の最近点近傍の(ディスプレイ10上での)表示画像を立体として認知できないであろう。
【0087】
第16図の例では、第13図の例から、サンプリング点の密度を全体的に一様に低下させた。
【0088】
第17図の例は、ディスプレイ10上で、上下方向での立体視の確保を重要視し、左右方向での立体視性の低下を甘受することとしたサンプリングパターンの例である。
【0089】
第18図の例は、中心から、放射状に、より離間するにつれて、立体視性が低下することを甘受する例である。
【0090】
第19図は、最近点の決定のための制御手順である。
【0091】
ステップS2では、ユーザの視点位置OB(視点の三次元位置とその三軸周りの頭部の回転角度)と共に、視点の画面からの距離LGHとを入力する。ステップS4では、第13図乃至第18図のパターンの中から、ユーザの視点位置OBに適したサンプリングパターンを決定する。ステップS6では、視点位置OBや視点までの距離LGHに基づいて右仮想カメラのビューイング変換行列Vを決定する。
【0092】
ステップS8では、得られたビューイング変換行列Vを用いて、物体の三次元空間データであるベクトルX(ステップS8ではベクトルXで表す)を撮像面での二次元画像データであるベクトルx(ステップS8ではベクトルxで表す)に変換する。このベクトルxはdepthバッファ値dを有していることは前述したとおりである。
【0093】
ステップS10では、ステップS4で指定されているサンプリングパターンに従って、1つの点xの奥行き値dをバッファから得る。ステップS12では、奥行き値dの最小値dを探索する。全てのサンプリング点iについて探索した結果の最近点x = xをステップS16で出力する。
【0094】
尚、複数の最近点が得られたならば、そのうちのユーザの視線方向に最も近いものを、視点位置情報OBに基づいて決定し、これを用いるものとする。
【0095】
また、ステップS4のパターン決定は、システムが、第13図〜第18図に示した分布パターンに似せたアイコンをディスプレイ10上に標示し、いずれか1つのアイコンを、ユーザがキーボード13により指定するようにしてもよい。
【0096】
かくして、本実施形態の制御によれば、
【0097】
i: 最近点がユーザの手を煩わすことなく自動的に決定される。
ii: 最近点の決定は周知のzバッファ(若しくはdepthバッファ)を利用するので、汎用性が向上する。
iii: 最近点の探索はサンプリングポイントの分布パターンを前もって複数通り設定しておき、そのうちの最適な1つをシステム若しくはユーザの選択により指定することにより、最適な最近点の決定が高速処理を害することなく実現する。
iv: サンプリングポイントの分布パターンの指定を自動で行う場合には、ユーザの視線方向を考慮して行われるので、ユーザが関心ある方向にある領域が確実に立体視される。
【0098】
〈立体視パラメータの決定の制御手順〉
第20図は、実施形態に係る立体視パラメータの決定の制御手順のフローチャートである。
【0099】
まず、ステップS20で、ディスプレイ10の各種のパラメータを入力する。パラメータとは、立体視を保証する最大視差量の値に影響するもので、例えば、ディスプレイ10の1画素の大きさ(width×height)、1画面の大きさ(SIZE)などであり、これらのハード情報はシステムが既に把握しているものである。
【0100】
ステップS22では、ユーザの位置・姿勢OB並びにディスプレイ画面からユーザの視点までの距離LGHを前記のセンサから入力する。
【0101】
ステップS24では、上記の情報に基づいて、立体視を保証する最大視差量の値を設定する。立体視を保証する最大視差量の値は、ディスプレイ画面の大きさ仕様(例えば、VGAやXVGA等の仕様)毎に前もって値を決めておくのがよい。ステップS26では、設定された最大視差量(例えば10mmの距離)を画素数で表したオフセット量offsetに変換する。これにより、立体視が保証されるには、ディスプレイ10の画面上でoffset分の視差が発生するような基線長を決定するればよいことになる。第9図,第10図を参照。
【0102】
ステップS28では、ユーザの初期位置・姿勢、視軸、画角を設定する。ステップS30では、ステップS28で設定したユーザの視点位置・姿勢に関する情報に基づいて、左右の夫々のカメラの各々の透視変換行列V,V並びに各々の逆透視変換行列V−1 ,V−1 を演算しておく。ステップS32では、メモリ16に記憶されている三次元空間データを読み出す。
【0103】
以上の処理により、立体視パラメータを決定するための土台が整ったことになる。
【0104】
次に、ステップS34では、第19図に関連して説明した最近点の決定処理を行う。第19図の制御手順は、最近点(x, y, d)を出力する。
【0105】
次に第20図のステップS36の基線長の決定処理が実行される。この基線長の決定処理の詳細は第21図に示される。
【0106】
第21図に基づいて、この処理を説明する。
【0107】
ステップS40では、最近点の決定処理が出力した最近点(x, y, d)を所定のレジスタに読み出す。この最近点(x, y, d)は、第8図の最近点50が仮想撮像画面上に射影された点52に相当する。ステップS42では、最近点(x, y, d)を正規化処理して右仮想カメラによる射影変換後の空間における画素位置(x, y, z)を下記の[数5]に従って算出する。
【0108】
[数5]
Figure 0003619063
【0109】
ステップS44では、画素位置(x, y, z)から、カメラ座標系での三次元空間中の点(第8図の点50)の座標値P=(X, Y, Z)を求める。即ち、右仮想カメラの変換行列Vの逆行列を、
【0110】
[数6]
Figure 0003619063
【0111】
とすると、座標値Pは、
【0112】
[数7]
Figure 0003619063
【0113】
[数8]
Figure 0003619063
【0114】
かくして、第図の点50に相当するP0が得られた。
次に、ステップS46では、最近点(xn, yn,dn)を左仮想カメラにより透視すると、前述のoffset数の画素分だけy軸方向にずれるのであるから、そのずれた画素位置(xL,yL, zL)は、下記の[数9]
【0115】
[数9]
Figure 0003619063
【0116】
によって得られる。この画素位置(x, y, z)は第8図の点54に相当する。この点54の左カメラの座標系から逆透視した三次元座標位置P=(X, Y, Z)を、左仮想カメラの逆透視変換行列V−1 (実質的にV−1 に等しい)により、
【0117】
[数10]
Figure 0003619063
とすると、座標値Pは、
【0118】
[数11]
Figure 0003619063
【0119】
[数12]
Figure 0003619063
【0120】
となる。次にステップS50では、距離|P − P|に従って基線長を決定する。
以上が基線長の決定処理の制御手順である。
【0121】
第20図の立体視パラメータの制御手順のフローチャートに戻ると、ステップS36の次には、ステップS38で輻輳角の決定処理が行われる。この処理は後に説明する。
【0122】
以上のようにして、基線長と輻輳角などの立体視パラメータの最適値が、ユーザの手を煩わさずに、初期的に或いはリアルタイムで決定することができる。
【0123】
〈ウォークスルーのための制御〉
第22図は、本立体視パラメータ決定システムをウォークスルー提供システムに組み込んだ場合の制御手順を示す。即ち、ウォークスルーに特有な問題として、第4図に示すように、ユーザが視点位置を移動していくにつれて、立体視パラメータを変更しなければならないほど、視点条件が変更される場合がある。即ち、立体視パラメータをウォークスルーに伴ってリアルタイムにまたはオンデマンドに変更する必要がある。第22図の制御手順は、初期的に立体視パラメータを自動で最適設定できるのみならず、ユーザからのオンデマンドに従って立体視パラメータを最適に設定する機能が盛り込まれている。
【0124】
第22図の制御手順に従って、ステップS60が実行されると、第20図に関連して説明した「立体視パラメータの決定」処理が行われる。これにより、立体視パラメータの初期値が、その時点のユーザの位置やディスプレイ伸しように即して最適な値として設定される。ステップS62では、このようにして設定した立体視パラメータに従って左目用と右目用の画像を描画し、ステップS64ではそれらの画像を合成して表示する。
【0125】
このステップS64の時点では、ディスプレイ10の画面上には、ウォークスルーのための仮想空間が表示されている。
【0126】
ユーザは、前述したように、マウスなどを用いてウォークスルー方向を指定すると、その移動指示に従って仮想空間の表示画面が変化していく。移動指示の入力は「インタラクション操作」として入力され、そのための操作がステップS72で実行される。
【0127】
ユーザは、ステップS66で「インタラクション操作」以外の種々のコマンド指示を入力することができる。
【0128】
その指示が終了であれば本システムは終了するであろう。
【0129】
ユーザが立体視パラメータの変更を希望するときは、キーボードの所定のキーを押下することにより、ステップS74が実行される。ステップS74では、立体視パラメータの決定処理(第20図の制御手順)を再実行する。即ち、その時点での、ユーザの視点位置や条件に即した立体視パラメータが再度設定される。換言すれば、第22図の制御によれば、仮想空間の変遷に係わらず立体視が確保できるので、異なる大きさの小空間を複数持つような仮想空間をウォークスルーするなどの用途に特に適している。
【0130】
〈最適輻輳角の自動設定〉
第20図のステップS38の輻輳角の決定処理(自動設定)はオプションの処理ルーチンである。立体視において、輻輳角が必要か否かは、応用分野或いはその応用分野でのユーザに応じた個人差があるからである。本システムでは、そのために、第22図のウォークスルーアプリケーション・プログラムが実行された直後において、そのアプリケーション・プログラムが輻輳角の自動設定を行うか否かをユーザに問うダイアログをディスプレイ10に表示する。ユーザはそのダイアログにおいて、輻輳角の自動設定を行う(即ちステップS38を実行する)か、行わない(即ち、ステップS38をスキップする)かを選択する。ステップS38は選択されたときのみ実行される。
【0131】
第23図,第24図は、輻輳角の自動決定の原理を説明する。即ち、ステップS38は、入力された仮想空間の三次元データに基づいて輻輳角を決定する。第23図において、例えば仮想空間に円錐60と四角錐70の仮想物体があるとする。勿論、これら2つの仮想物体以外にも仮想物体が存在することは許される。これらの仮想物体は三次元座標情報を有するから、この仮想空間の中の最近点と最遠点とが存在する。第23図の例では、最近点は四角錐70の頂点が存在する垂直平面71上に有り、最遠点は円錐60の周囲が存在する垂直平面61上にある。輻輳角の最適な値は、種々の学説により、まちまちであるが、本実施形態では、第24図に示すように、垂直面61と垂直面71の中間位置にある垂直面80上のある点と、左右の仮想視点とが成す二等辺四角形の頂点の角度(の半分)であるδを輻輳角とする。
【0132】
2つの仮想カメラの視軸が平行である場合において最近点のみを考慮したのは、最近点において視差量が最大値をとるからである。しかしながら、仮想カメラが平行でない、即ち、0度でない輻輳角を有する場合には、最近点と最遠点において視差量が最大値を示すことになる。従って、0度でない輻輳角が損する場合には最近点のみならず最遠点を考慮しなければならないのである。
【0133】
第25図は、ステップS38の詳細な処理手順を表す。
【0134】
最近点は第20図のステップS34で既に決定されているので、輻輳角の決定のために、最近点を改めて求める必要はない。そこで、ステップS38aでは最遠点を探索する。最遠点の探索処理は、第19図に示された最近点の探索処理を一部変更した処理手順を援用することができる。その変更箇所はステップS12において、最遠点を探索するために、
【0135】
[数13]
Figure 0003619063
【0136】
の処理を行う。更にステップS38bでは、奥行き範囲Dを決定する。ステップS38cでは、D/2の値に従って、輻輳角δを第24図に示された演算手法に従って決定する。
本発明は、その趣旨を逸脱しない範囲で種々変形が可能である。
【0137】
第19図乃至第21図の制御手順に示された立体視パラメータの決定手順は、仮想カメラの視軸が互いに平行(輻輳角=0度)である場合を想定していた。輻輳角=0度の方がユーザが疲労しない場合があるからである。しかしながら、三次元空間データの中には、予め輻輳角に関するパラメータを有するものがある。また、上記実施形態でも、ユーザが望む場合には、輻輳角の初期値δが自動決定された。従って、最初から輻輳角を有するような画像データや、事後、輻輳角を付加された画像データのような場合には、輻輳角を考慮した基線長の決定を行わなければならない。
【0138】
輻輳角を考慮した基線長の決定は回転処理を行うことによって実現される。第26図は、輻輳角を考慮した基線長の決定する処理が、第9図に示された輻輳角を有さない場合の基線長の決定処理の原理に対して、いかなる変更処理を付加するかを説明している。
【0139】
即ち、第26図と第9図とを比較すると、最近点52を、画面上での最大視差量に相当する長さだけ平行移動して点54を得るのは変わらないが、第26図では、更に、点54を、右視点を中心にしy軸の周りに輻輳角(=2δ)だけ回転して点57を得、この点57に相当する三次元空間座標58を求め、点58を点Pとすると、最近点50(=P)から点Pまでの距離を、輻輳角を考慮した場合の基線長とするのである。
【0140】
第26図に示された処理は、実質的には、ステップS48(第21図)での処理に、上記回転による座標変換処理Rを逆透視変換処理V −1に付加するのである。この回転処理を付加されたステップS48を新たにステップS48’とすると、ステップS46で、前述したように、[数9]に従って点54に相当する画素位置(x, y, z)を得る。更に、ステップS48では、画素位置(x, y, z)を座標変換して、点58に相当する座標値Pを、
【0141】
[数14]
Figure 0003619063
【0142】
[数15]
Figure 0003619063
【0143】
に基づいて求める。ここで、行列Rは、y軸周りの角度2δの回転変換であり、具体的には、
【0144】
[数16]
Figure 0003619063
【0145】
という構造を有する。また、Vは左右の仮想カメラを同じカメラパラメータを持つものとすれば、V(即ち、[数2])に等しい行列である。
上記実施形態は、本発明の立体視パラメータの決定を、ウォークスルーに適用したものであった。特にこの仮想空間ウォークスルーでは、立体視パラメータを、初期値のみならず、リアルタイム値も計算していた。
【0146】
この変形例は、立体視パラメータの演算輻輳角を減らすために、初期値のみを演算する仮想空間ウォークスルーの制御であり、その手順を第27図に示す。
【0147】
である。
第27図の処理は、第22図の処理からステップS74の工程が除去されたものに等しい。
【0148】
尚、第22図,第27図,第28図,第29図に示された各フローチャート間で、同じステップ番号を有する工程は同じ内容の処理を行う。
【0149】
上記実施形態では、ディスプレイ10に表示するための左右目のための画像は、合成の都度、描画生成(レンダリング)していた。この第3変形例は、立体視パラメータの設定処理(第20図のステップS34)が、第19図のステップS8において右目用の画像を描画生成していた点を考慮し、この右目用画像を有効に利用して計算負荷を軽減しようとするものである。
【0150】
これは、第22図のステップS62において左右目画像の描画するという処理を、第28図のステップS62’のように、左目用画像のみの描画を行う処理に変更する。このために、第28図の制御手順では、立体視パラメータの再計算キーが押されるたびに、ステップS60で立体視パラメータの再設定が行われ(併せてステップS8で右目用画像の描画が行われ)、ステップS62’で左目用画像の描画が行われ、ステップS64で左右の画像の合成が成される。一方、インタラクション処理やその他の処理では、ステップS76で、左右目用の画像の描画が行われ、それらの画像はステップS64で合成されて表示される。
【0151】
このように、第3変形例では、立体視パラメータの再建さんが行われるときは、右目用画像の描画(レンダリング)の工程が1つ省略されて高速処理に寄与することとなる。
【0152】
第4変形例は、立体視パラメータの再計算を毎回行うというものであって、その制御手順を第29図に示す。即ち、インタラクション処理やその他の処理では、ステップS60にモードって、立体視パラメータの再設定が行われ(併せてステップS8で右目用画像の描画が行われ)、ステップS62’で左目用画像の描画が行われ、ステップS64で左右の画像の合成が成される。
【0153】
この第4変形例でも、右目用画像の描画(レンダリング)の工程が1つ省略されて高速処理に寄与することとなる。
【0154】
前述の実施形態では、depthバッファを用いることにより、複数の仮想物体があっても、描画時に全ての仮想物体の座標変換が行われるために、内部での座標変換が不要であった。この第5変形例は、第30図に示すように、対象の三次元空間中の物体を観察するカメラ座標系(カメラ位置を原点とする三次元座標系)に変換して、最も視点位置に近い最近点を直接的に計算するようにする。この変形例の手法では、3次元対象内の物体間の座標変換を考慮する必要がある。第30図の例では、カメラと部屋は世界座標系の位置で指定されているが、机と椅子は部屋の座標系からの位置で指定されている。壺は机の座標系からの位置で指定されている。これらの座標系間の関係を考慮してカメラ座標系に変換する。
【0155】
本発明の発明者は、特願平10−185135号において立体視パラメータをユーザの欲する時点で変更することのできるユーザインタフェースを提案した。
【0156】
第31図は、第6変形例に従った、ディスプレイ10の画面に表示されたユーザ・インタフェースを表す。
【0157】
同図において、200と201は基線長bを変更するためのユーザ・インタフェース(VIEW OFFSET)であり、どちらもスライドバーのコントロールである。スライドバー200は基線長を大きく変更するとき、スライドバー201は小さく変更するときに、それぞれ使用される。
【0158】
第31図に於いて、スライドバー202は前進方向の移動速度(FWD SPEED)を変更するときに用いる。スライドバー203は後退方向の移動速度(BWD SPEED)を変更するときに用いる。
【0159】
また、スライドバー204は輻輳角(View Congestion)を変更するときに用いる。更にスライドバー205は視野角(Field of View)を変更するときに用いる。
【0160】
第16図に示されたユーザ・インタフェースはユーザがマウスを用いて操作する。マウスの移動量が操作量となる。
【0161】
尚、ユーザ・インタフェースの具体的なツールはスライドバーに限定されない。連続的に変更できるツール、例えば、ジョグダイヤルであってもよい。
【0162】
尚、前述の実施形態は、立体視パラメータの値(初期値及びリアルタイム値)を自動設定することが特徴であるから、第31図のユーザインタフェースをさらに設けると競合する。そこで、第31図の200から205までの6つのバーのいずれかがユーザにより操作されたことが検知されると、前述の立体視パラメータの設定処理(第20図)を停止するように制御手順を変更するとよい。そして、自動設定を再開したいときには、同じくディスプレイ10に表示されているキーアイコン206をユーザが押したことを検知したならば、再開される。
【0163】
以上説明した第1変形例乃至第6変形例によれば、立体視パラメータの再計算が、ユーザアプリケーションの態様に応じて、或いはユーザの希望に応じて、最適なタイミングで行われるので、使い勝手がよい。
【0164】
また、仮想カメラの視軸において輻輳角が存在する場合も考慮されているので、本発明の立体視パラメータの自動設定は適用分野は広いものとなる。
【0165】
また、立体視パラメータの再設定は時間のかかる処理であるが、レンダリングの処理を、立体視パラメータの設定と立体画像の生成とにへ移用することによって処理負担を軽減することができた。
【0166】
〈その他の変形例〉
上記実施形態や変形例では、一般的な仮想現実感システムに本発明の立体視パラメータ設定の自動処理を適用したものであったが、所謂複合現実感システムに本発明を適用することも可能である。
【0167】
複合現実感システムではHMD(頭部装着型表示装置)を用いることが多いが、この場合は、表示画面とユーザの視点までの距離が固定であるので、測距センサ17は不要である。
【0168】
【発明の効果】
以上説明したように、本発明によれば、立体視パラメータの最適な初期値を自動的に設定することができる。
【0169】
また、立体視パラメータの最適リアルタイム値を自動的に更新することができる。
【0170】
また、立体視パラメータの再設定タイミングを自動的に或いはユーザの好みにあわせて設定することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る立体画像表示装置1000の構成を示す図。
【図2】表示装置1000に用いられているリアクロスレンチ方式眼鏡なし3Dディスプレイ10の構成を説明する図。
【図3】ディスプレイ10のLCD部分を拡大した図。
【図4】実施形態の立体視パラメータの設定を仮想空間ウォークスルーシステムに適用した事例を説明する図。
【図5】立体視を得るために左目用画像と右目用画像の合成原理を説明する図。
【図6】最大視差量と基線長の関係を説明する図。
【図7】基線長を決定原理を説明するために、2つの左右画像が生成される様子を説明する図。
【図8】仮想空間の最近点が、2つの視点において視差として生じるかを説明する図。
【図9】本実施形態の基線長を決定する原理を説明する図。
【図10】本実施形態の基線長を決定する原理を説明する図。
【図11】透視変換を説明する図。
【図12】二次元空間でのサンプリングを説明する図。
【図13】最近点の探索のためのサンプリングパターンの一例を示す図。
【図14】最近点の探索のためのサンプリングパターンの他の例を示す図。
【図15】最近点の探索のためのサンプリングパターンの他の例を示す図。
【図16】最近点の探索のためのサンプリングパターンの他の例を示す図。
【図17】最近点の探索のためのサンプリングパターンの他の例を示す図。
【図18】最近点の探索のためのサンプリングパターンの他の例を示す図。
【図19】最近点決定のための制御手順を説明するフローチャート。
【図20】立体視パラメータの設定のための制御手順を説明するフローチャート。
【図21】基線長決定のための制御手順を説明するフローチャート。
【図22】ウォークスルーアプリケーションにおける全体制御手順を説明するフローチャート。
【図23】立体視パラメータとしての輻輳角を決定する原理を説明する図。
【図24】立体視パラメータとしての輻輳角を決定する原理を説明する図。
【図25】輻輳角決定のための制御手順を説明するフローチャート。
【図26】輻輳角が存在する場合における基線長を決定する原理を説明する図。
【図27】ウォークスルーアプリケーションの変形例に係る全体制御手順を説明するフローチャート。
【図28】ウォークスルーアプリケーションの他の変形例に係る全体制御手順を説明するフローチャート。
【図29】ウォークスルーアプリケーションの更に他の変形例に係る全体制御手順を説明するフローチャート。
【図30】最近点を決定する他の手法を説明する図。
【図31】立体視パラメータの値をユーザが自由に設定するためのユーザインタフェースを説明する図。

Claims (12)

  1. 任意の物体の左目用画像と右目用画像とを表示して前記物体の立体視を得る立体画像処理装置において、
    入力画像の奥行き方向について、観察者の視点位置に最も近い、前記物体上の物体点を検出する検出手段と、
    前記物体点が二次元描画空間に描画された際に現れる左右間のズレ距離を設定するズレ距離設定手段と、
    前記左目用画像と右目用画像のいずれか一方における前記物体点の画像位置と、前記ズレ距離とに基づいて、基線長の値を決定する決定手段と、
    決定された基線長の値を立体視パラメータとして用いて、前記左目用画像と右目用画像を生成する生成手段とを具備することを特徴とする立体画像処理装置。
  2. 前記決定手段は、
    前記物体点の前記二次元描画空間上の座標から、観察者の基線長方向に、前記ズレ距離だけ離間したズレ点の位置を演算するズレ演算手段と、
    前記ズレ点の三次元空間における座標を演算する座標変換手段と、
    前記ズレ点の三次元座標と前記物体点との距離に基づいて前記基線長の値を決定する基線長決定手段を具備することを特徴とする請求項1に記載の立体画像処理装置。
  3. 所定の条件を満足すべき前記所定の物体点が前記二次元描画空間において高速に探索されるように、前記描画空間における複数の探索位置が前もって離散的分布を有するように設定されていることを特徴とする請求項2に記載の立体画像処理装置。
  4. 手動で立体視パラメータの値を設定するユーザインタフェース手段を更に具備することを特徴とする請求項1乃至3のいずれかに記載の立体画像処理装置。
  5. 前記ユーザインタフェース手段と前記決定手段との競合の調停をとる手段を更に具備することを特徴とする請求項4に記載の立体画像処理装置。
  6. 前記決定手段は、さらに、
    入力画像の仮想空間の奥行き方向の広がりを求め、
    観察者の左右の視点位置から見える、この仮想空間の奥行き方向の広がりの中間位置の方向に基づいて輻輳角の値を決定し、
    前記生成手段は前記決定手段で決定された輻輳角の値を前記立体視パラメータの一つとして用いることを特徴とする請求項1乃至5のいずれかに記載の立体画像処理装置。
  7. 前記ズレ距離設定手段は、
    立体画像が表示される表示装置の画素サイズと、この表示装置の表示画面から観察者までの距離とに基づいて前もって前記ズレ距離を決定することを特徴とする請求項1に記載の立体画像処理装置。
  8. 前記物体点は、
    前記左目用画像と右目用画像のいずれか一方の画像データに、観察者の視点からの前記二次元描画空間への透視変換を施し、透視変換された画像データのなかから最も小さな奥行き値を有する画素に決定されることを特徴とする請求項1に記載の立体画像処理装置。
  9. 請求項1乃至8のいずれかに記載の立体画像処理装置を具備する立体画像表示装置。
  10. 任意の物体の左目用画像と右目用画像とを表示して前記物体の立体視を得る立体画像処理方法において、
    入力画像の奥行き方向について、観察者の視点位置に最も近い、前記物体上の物体点を検出する検出工程と、
    前記物体点が二次元描画空間に描画された際に現れる左右間のズレ距離を設定するズレ距離設定工程と、
    前記左目用画像と右目用画像のいずれか一方における前記物体点の画像位置と、前記ズレ距離とに基づいて、基線長の値を決定する決定工程と、
    決定された基線長の値を立体視パラメータとして用いて、前記左目用画像と右目用画像を生成する生成工程とを具備することを特徴とする立体画像処理方法。
  11. 前記決定工程は、
    前記物体点の前記二次元描画空間上の座標から、観察者の基線長方向に、前記ズレ距離だけ離間したズレ点の位置を演算するズレ演算工程と、
    前記ズレ点の三次元空間における座標を演算する座標変換工程と、
    前記ズレ点の三次元座標と前記物体点との距離に基づいて前記基線長の値を決定する基線長決定工程を具備することを特徴とする請求項10に記載の立体画像処理方法。
  12. 任意の物体の左目用画像と右目用画像とを表示して前記物体の立体視を得るためにコンピュータ上で実行される立体画像処理プログラムを記憶するコンピュータプログラム記憶媒体であって、請求項10または11に記載の立体画像処理方法を実現するためのプログラムコードを記憶するコンピュータプログラム記憶媒体。
JP19480299A 1999-07-08 1999-07-08 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 Expired - Fee Related JP3619063B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP19480299A JP3619063B2 (ja) 1999-07-08 1999-07-08 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
US09/512,828 US6677939B2 (en) 1999-07-08 2000-02-25 Stereoscopic image processing apparatus and method, stereoscopic vision parameter setting apparatus and method and computer program storage medium information processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19480299A JP3619063B2 (ja) 1999-07-08 1999-07-08 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体

Publications (2)

Publication Number Publication Date
JP2001022344A JP2001022344A (ja) 2001-01-26
JP3619063B2 true JP3619063B2 (ja) 2005-02-09

Family

ID=16330514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19480299A Expired - Fee Related JP3619063B2 (ja) 1999-07-08 1999-07-08 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体

Country Status (2)

Country Link
US (1) US6677939B2 (ja)
JP (1) JP3619063B2 (ja)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092657A (ja) * 2000-09-12 2002-03-29 Canon Inc 立体表示制御装置、方法及び記憶媒体
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
US7213214B2 (en) 2001-06-12 2007-05-01 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
US7079139B2 (en) * 2001-07-02 2006-07-18 Kaon Interactive, Inc. Method and system for measuring an item depicted in an image
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
CA2370752A1 (en) 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
JP2003337303A (ja) * 2002-05-17 2003-11-28 Canon Inc 立体画像表示装置および立体画像表示システム
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
JP4115188B2 (ja) * 2002-07-19 2008-07-09 キヤノン株式会社 仮想空間描画表示装置
CA2406131A1 (en) 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
KR101101570B1 (ko) * 2003-12-19 2012-01-02 티디비전 코포레이션 에스.에이. 데 씨.브이. 3차원 비디오게임 시스템
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
WO2005114422A2 (en) * 2004-05-21 2005-12-01 Pressco Technology Inc. Graphical re-inspection user setup interface
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
JP2006285952A (ja) * 2005-03-11 2006-10-19 Sony Corp 画像処理方法、画像処理装置、プログラムおよび記録媒体
US7580036B2 (en) 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
JP4555722B2 (ja) * 2005-04-13 2010-10-06 株式会社 日立ディスプレイズ 立体映像生成装置
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
KR100649523B1 (ko) * 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
CN101127202B (zh) * 2006-08-18 2011-07-27 鸿富锦精密工业(深圳)有限公司 显示装置参数自动调节系统及方法
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
US8228327B2 (en) * 2008-02-29 2012-07-24 Disney Enterprises, Inc. Non-linear depth rendering of stereoscopic animated images
US8139111B2 (en) * 2008-12-04 2012-03-20 The Boeing Company Height measurement in a perspective image
US9275680B2 (en) * 2009-06-16 2016-03-01 Microsoft Technology Licensing, Llc Viewer-centric user interface for stereoscopic cinema
RU2554465C2 (ru) * 2009-07-27 2015-06-27 Конинклейке Филипс Электроникс Н.В. Комбинирование 3d видео и вспомогательных данных
JP4747214B2 (ja) * 2009-09-17 2011-08-17 パナソニック株式会社 映像信号処理装置、及び、映像信号処理方法
JP4482657B1 (ja) * 2009-09-25 2010-06-16 学校法人 文教大学学園 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
CN102640502B (zh) * 2009-10-14 2015-09-23 诺基亚公司 自动立体渲染和显示装置
JP5405264B2 (ja) 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法
KR101651568B1 (ko) * 2009-10-27 2016-09-06 삼성전자주식회사 3차원 공간 인터페이스 장치 및 방법
JP4754031B2 (ja) 2009-11-04 2011-08-24 任天堂株式会社 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
TW201130285A (en) * 2010-02-26 2011-09-01 Hon Hai Prec Ind Co Ltd System and method for controlling 3D images
DE102010009737A1 (de) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten
WO2011108277A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置および立体撮像方法
US9049434B2 (en) 2010-03-05 2015-06-02 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
US9128367B2 (en) 2010-03-05 2015-09-08 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US20110242355A1 (en) 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
JP5872185B2 (ja) * 2010-05-27 2016-03-01 任天堂株式会社 携帯型電子機器
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
US8970672B2 (en) 2010-05-28 2015-03-03 Qualcomm Incorporated Three-dimensional image processing
JP5073013B2 (ja) * 2010-06-11 2012-11-14 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP5541974B2 (ja) * 2010-06-14 2014-07-09 任天堂株式会社 画像表示プログラム、装置、システムおよび方法
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
EP2608553A4 (en) * 2010-08-19 2014-04-16 Panasonic Corp STEREOSCOPIC IMAGE RECORDING DEVICE AND STEREOSCOPIC IMAGE RECORDING METHOD
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
JP4956658B2 (ja) * 2010-10-12 2012-06-20 シャープ株式会社 立体映像変換装置及び立体映像表示装置
JP5122659B2 (ja) * 2011-01-07 2013-01-16 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理装置及び情報処理システム
JP2012174237A (ja) * 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP5987267B2 (ja) * 2011-03-28 2016-09-07 ソニー株式会社 画像処理装置および画像処理方法
US9914056B2 (en) 2011-06-03 2018-03-13 Nintendo Co., Ltd. Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system
JP5757790B2 (ja) * 2011-06-03 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
KR20130015664A (ko) * 2011-08-04 2013-02-14 삼성전자주식회사 이미지 변환 장치 및 방법
KR20130024504A (ko) * 2011-08-31 2013-03-08 삼성전기주식회사 삼차원 카메라 시스템 및 주시각 조정 방법
US20130293547A1 (en) * 2011-12-07 2013-11-07 Yangzhou Du Graphics rendering technique for autostereoscopic three dimensional display
JP2013211672A (ja) * 2012-03-30 2013-10-10 Namco Bandai Games Inc 曲面投影立体視装置
US8957892B2 (en) 2012-08-20 2015-02-17 Disney Enterprises, Inc. Stereo composition based on multiple camera rigs
US9300942B2 (en) 2012-10-18 2016-03-29 Industrial Technology Research Institute Method and control system for three-dimensional video playback using visual fatigue estimation
JP5639138B2 (ja) * 2012-10-24 2014-12-10 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理装置及び情報処理システム
US9225969B2 (en) 2013-02-11 2015-12-29 EchoPixel, Inc. Graphical system with enhanced stereopsis
US20180140362A1 (en) * 2015-04-07 2018-05-24 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
WO2019049289A1 (ja) * 2017-09-07 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
CN107657654B (zh) * 2017-09-21 2021-11-23 北京小鸟看看科技有限公司 一种虚拟现实场景渲染方法、装置和头戴显示设备
JP7349808B2 (ja) * 2019-03-20 2023-09-25 任天堂株式会社 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法

Also Published As

Publication number Publication date
US6677939B2 (en) 2004-01-13
US20030179198A1 (en) 2003-09-25
JP2001022344A (ja) 2001-01-26

Similar Documents

Publication Publication Date Title
JP3619063B2 (ja) 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
JP3420504B2 (ja) 情報処理方法
US10349033B2 (en) Three-dimensional map generating and displaying apparatus and method
JP3728160B2 (ja) 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP3318680B2 (ja) 画像生成方法及び画像生成装置
JP4228646B2 (ja) 立体視画像生成方法および立体視画像生成装置
JP3230745B2 (ja) 3次元画像生成装置及び生成方法
JP2005295004A (ja) 立体画像処理方法および立体画像処理装置
EP2051533B1 (en) 3D image rendering apparatus and method
JP2005353047A (ja) 立体画像処理方法および立体画像処理装置
US20150187132A1 (en) System and method for three-dimensional visualization of geographical data
JP2003187261A (ja) 3次元画像生成装置、3次元画像生成方法、立体画像処理装置、立体画像撮影表示システム、立体画像処理方法及び記憶媒体
US6603475B1 (en) Method for generating stereographic image using Z-buffer
JP2003067784A (ja) 情報処理装置
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
US20220300120A1 (en) Information processing apparatus, and control method
JP5252703B2 (ja) 立体映像表示装置、立体映像表示方法、及び立体映像表示プログラム
JP2003284095A (ja) 立体画像処理方法および装置
US11050993B2 (en) Image generating apparatus and image generating method
US7064767B2 (en) Image solution processing method, processing apparatus, and program
JP2001222723A (ja) 立体視画像の生成方法及び同装置
JPH03296176A (ja) 高速画像生成表示方法
JP2001042259A (ja) 医用画像表示装置
JPH10172004A (ja) 立体画像表示方法
JPH11184453A (ja) 表示装置及びその制御方法、コンピュータ可読メモリ

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041111

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071119

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111119

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121119

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees