JP2004334550A - Method for processing three-dimensional image - Google Patents
Method for processing three-dimensional image Download PDFInfo
- Publication number
- JP2004334550A JP2004334550A JP2003129793A JP2003129793A JP2004334550A JP 2004334550 A JP2004334550 A JP 2004334550A JP 2003129793 A JP2003129793 A JP 2003129793A JP 2003129793 A JP2003129793 A JP 2003129793A JP 2004334550 A JP2004334550 A JP 2004334550A
- Authority
- JP
- Japan
- Prior art keywords
- stencil
- determining
- reference value
- viewpoint
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、裸眼立体視表示装置用の画像データを生成する方法に関し、特に、複数の視点の画像を合成して立体画像用画像データを生成する方法に関する。
【0002】
【従来の技術】
立体視表示装置としては、左右の目のそれぞれで見る映像を異ならせることを利用した立体視表示装置がある。これは、右目用画像と左目用画像を別々に用意し、各画像をそれぞれ縦偏光、横偏光フィルタを介して別々に偏光した後、縦偏光、横偏光フィルタをそれぞれ左右のレンズとした偏光眼鏡を用いて見ると、各画像が合成されて立体的に見えるものである。また、眼鏡等を用いずに裸眼で見ることが可能な裸眼立体視表示装置も様々なものが開発されている。このような装置には、バリアパララックス方式やレンティキュラ方式等がある。この方式は、複数の方向から撮像した画像をストライプ上に合成し、開口部やスリット、蒲鉾形のレンティキュラレンズを表示装置前面に配置して、左右の目のそれぞれに対応した画像のみが左右の目のそれぞれで観察できるようにしたものである。また、例えば特許文献1のように、楔状表面を組み合わせた蛇腹上の表面を有する構造部を表示装置の前面に配置したものもある。
【0003】
このように、立体視表示装置に用いられる立体画像用の画像データは、左右の目、即ち2つの視点から見た画像をそれぞれ描画し、スリットやレンティキュラレンズの配列等に合わせて、2つの視点の画像を合成することで生成される。このように2つの視点からみた画像を合成して画像データを生成する方法には、種々の方法が存在するが、例えばCPUを用いてメインメモリ上で合成する方法や、特許文献2のように、ステンシルバッファを用いて右目用画像と左目用画像をそれぞれ別々にフレームバッファに書き込むことで合成する方法がある。
【0004】
さらに、近来では2つの視点だけでなく、多視点からの画像を合成し、広い範囲で立体映像を観察できるようにした裸眼立体視表示装置も開発されている。この場合、バリアパララックス方式等により縦ストライプ形状のスリットを用いると、視点が多くなればなるほど水平方向の解像度が劣化する。そのため、解像度の劣化を縦横両方向に振り分けるように階段状の開口部を持たせた、斜めバリア方式等も開発されている。具体的には、図1に示すように、例えば4視点の立体画像用画像データの場合、スリットを斜めに配置することで、解像度の劣化を水平方向と垂直方向に分散することで、全体としてみればある程度解像度の劣化を防ぐことが可能となるものである。
【0005】
さらに、特許文献3のように、1画素がRGBの3成分からなることを利用して、1画素中に複数の視点(最大3視点分)の情報を書き込むようにしたものもある。これは、各視点ごとのRGBの各成分を一単位として効率良く配置して鮮明な立体画像を得ることを目的としたものである。この例のように、RGBの各成分ごとに画像を合成していくと、見た目上の解像度の劣化を減少させることが可能となる。例えば左右2視点の場合を考えると、図2に示すように、左の視点のR成分、右の視点のG成分、左の視点のB成分を合成し、1つの画素を構成し、続いてその右側の画素は、右の視点のR成分、左の視点のG成分、右の視点のB成分を合成することで構成していく。なお、このような配置にした場合、バリアパララックス方式のための光学フィルタは、図示のような市松模様状のスリットになる。このように構成すると、1画素1視点の場合に比べて、見た目上の解像度の劣化を減少することが可能となることが分かる。
【0006】
【特許文献1】
特開2000−249980号公報
【特許文献2】
特開2000−20757号公報
【特許文献3】
特開平08−331605号公報
【0007】
【発明が解決しようとする課題】
上記のような裸眼立体視表示装置用の画像データを生成する場合、左右の目の視点、即ち2視点程度の画像データであれば、2つの画像を合成するだけであるため、CPUを用いてメインメモリ上で合成する方法であっても、ある程度の速度で合成可能であり、立体モデルが動く動画像データを作成する場合であってもリアルタイム処理がある程度は可能である。しかしながら、視点が増えてきた場合、メインメモリ上で合成する方法では、メインメモリとフレームバッファ間の情報の伝達が多くなり、この部分が処理速度上、ボトルネックとなってしまう。したがって、合成処理が間に合わず、フレームレートが高くできないため、リアルタイム処理は難しかった。
【0008】
また、ステンシルバッファを用いて右目用画像と左目用画像をそれぞれ別々にフレームバッファに書き込むことで合成する方法は、メインメモリ上で合成する場合に比べれば速度的には有利であるが、基本的に2視点のものだけを対象に考えられており、多視点になった場合には、各視点からの画像を単純にストライプ状に順番に配置しただけでは、その見た目上の解像度の劣化が大きくなってしまう。具体的には、縦方向のスリットを用いたバリアパララックス方式の裸眼立体視表示装置用に、各視点の画像を順番に画素ごとにストライプ状に配置した画像の場合には、多視点になればなるほど、1つの視点について見れば、隣り合う画素が離れていくため、水平方向の解像度が劣化していくことになる。
【0009】
さらに、解像度の劣化を防ぐための斜めバリア方式があるが、これに上記のステンシルバッファを用いてフレームバッファに書き込む合成方法を適用した場合、ステンシルバッファを用いて書き込むことができるのは1画素単位であるため、結局1画素に1視点の情報しか合成できない。したがって、多視点になった場合にはそれ以上解像度を上げることができなかった。具体的には、図1に示すように、例えば4視点の立体画像用画像データの場合、1画素1視点の情報で立体モデルを合成すると、1つの視点において、ある1画素の次の画素は、間に3画素分他の視点の画素を挟んだ位置にあり、例え斜めバリア方式を用いたとしても、解像度を上げることは難しかった。
【0010】
さらにまた、1画素がRGBの3成分からなることを利用して、1画素中に複数の視点(最大3視点分)の情報を書き込むようにしたものの場合、メインメモリ上で合成する方法を用いると、フレームバッファとメインメモリ間での処理工程が多くなり速度的に高速化が非常に難しく、リアルタイムレンダリング等に用いることができるようなものではなかった。また、ステンシルバッファを用いてフレームバッファに書き込む方法では、上記のように1画素単位でしか書き込めないため、RGB成分ごとにフレームバッファに書き込むことはできないので、適用することができなかった。
【0011】
本発明は、斯かる実情に鑑み、立体画像用の画像データを高速に生成可能であり、さらに、多視点の画像を合成する場合であっても高速に高解像度の立体画像用画像データを生成可能な立体画像処理方法を提供しようとするものである。
【0012】
【課題を解決するための手段】
上述した本発明の目的を達成するために、複数の視点から立体モデルを見たRGB画像を合成して立体画像用画像データを生成するための本発明による立体画像処理方法は、マスク情報を格納するステンシルバッファに、裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、決定されたステンシル参照値に対応する画素に対して、RGB成分のうちの少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、決定されたステンシル参照値とステンシルパターンの要素値を照合し、一致した値に対応する画素に、決定されたカラーマスクに基づき少なくとも1成分で立体モデルを描画する過程と、RGB成分のうちの残りの他の成分に対して、ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程とを行う、色成分を変更して描画する過程と、m+1番目(但し、m<n)の視点に対して、ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、色成分を変更して描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程とを具備し、これらにより立体画像用画像データを生成するものである。
【0013】
また、本発明の立体画像処理方法は、マスク情報を格納するステンシルバッファに、裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、決定されたステンシル参照値に対応する画素に対して、RGB成分のうちの少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、決定されたステンシル参照値とステンシルパターンの要素値を照合し、一致した値に対応する画素に、決定されたカラーマスクに基づき少なくとも1成分で立体モデルを描画する過程と、m+1番目(但し、m<n)の視点に対して、ステンシル参照値を決定する過程と、立体モデルを描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程と、RGB成分のうちの残りの他の成分に対して、ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、視点を変更して描画する過程とを行う、色成分を変更して描画する過程とを具備し、これらにより立体画像用画像データを生成するものであっても良い。
【0014】
ここで、視点が2個(n=2)の場合、カラーマスクを決定する過程は、決定されたステンシル参照値に応じて、RGB成分のうちの所定の2成分をフレームバッファに描画するようにカラーマスクを決定し、立体モデルを描画する過程は、決定されたステンシル参照値に応じて、決定されたカラーマスクに基づき2成分で立体モデルを描画することで、過程を省略することも可能である。
【0015】
また、ステンシルパターンは、1画素を構成するRGB成分と各成分に対する視点番号の関係が等しい画素に対しては共通の要素値が与えられる。
【0016】
さらに、所定のステンシルパターンを格納する過程の後であってステンシル参照値を決定する過程の前に、立体モデルの位置や向きを決定する過程を有し、立体画像用画像データが生成された後に、立体モデルの位置や向きを決定する過程に戻り、これらを繰り返すことで複数のフレームを作成して立体画像用の動画像データを生成することも可能である。
【0017】
上記手段によれば、以下のような作用が得られる。即ち、ステンシルバッファを用いステンシル参照値を決定すると共に、カラーマスクを用いてRGB成分のうちの1成分ごとに描画できるようにしているため、1画素中の色成分ごとに複数の視点(最大3視点分)の情報を書き込むことができるという作用が得られる。また、メインメモリ上での合成処理を行うのではなく、ステンシルバッファとカラーマスクを用いて直接フレームバッファに書き込むため、メインメモリとの情報のやり取りが不要となり処理速度が高速となるので、リアルタイムレンダリング等にも適用可能であるという作用も得られる。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態を図示例と共に説明する。図3は、本発明の立体画像処理方法の流れを説明するためのフローチャートである。なお、本発明は視点の数に制限は無く、立体視表示装置や光学フィルタの構成に合わせて種々変更可能である。先ず、マスク情報を格納するステンシルバッファに、所定のステンシルパターンを格納する(ステップ10)。ステンシルバッファとは、対象画像の1画素単位での描画を有効又は無効にするために用いられるバッファである。ステンシルパターンとは、その描画する画素を特定する要素値からなっており、描画パターンを決定するものである。ステンシルパターンは、後述するように、裸眼立体視表示装置の画素配列及びカラーフィルタの配列に応じて、適宜決定されるものである。同じ立体視表示装置を使用する限り、ステンシルパターンは一度だけ作成すれば良い。そしてこのステンシルパターンを用いて、描画処理を行う(ステップ20)。以下、本発明の立体画像処理方法の描画処理に関し、図4を用いて詳細に説明する。
【0019】
図4は、図3の描画処理過程20の詳細を説明するためのフローチャートである。先ず、描画すべき立体モデルに対して、n個(n=2,3,4,・・・)の視点の視点番号m(m=1,2,・・・n)と、描画する色成分(RGB成分)のうちの1成分とから、ステンシル参照値を決定する(ステップ201)。ここで、ステンシル参照値とは、ステンシルバッファ内の値と比較される値として指定するものである。次に、RGB成分のうちの1成分のみをフレームバッファに描画するように、カラーマスクを決定する(ステップ202)。カラーマスクとは、例えばR成分のみを書き込む場合には、他の成分、G成分、B成分をマスクして、R成分のみを通すようにするものである。そして、ステップ201で決定されたステンシル参照値とステンシルパターンの要素値とを照合し、一致した値に対応する画素の部分に、ステップ202で決定されたカラーマスクを適用してRGB成分のうちの1成分のみで立体モデルを描画する(ステップ203)。そして、ステップ204でRGB成分すべてについて描画したか否かを判定し、まだ残っていれば、次の色に変更して(ステップ205)、ステンシル参照値を決定するステップ201へ戻る。これを3成分すべてに対して繰り返し、RGB成分すべてが終了したら、ステップ204からステップ206へ進む。ステップ206で、すべての視点について描画したか否かを判定し、まだ残っていれば次の視点、即ち、視点番号m+1番目(但し、m<n)の視点に変更して(ステップ207)、ステンシル参照値を決定するステップ201へ戻る。このm+1番目の視点に対しても、RGB成分すべてについて描画する過程が行なわれる。そして、すべての視点、即ち、n番目の視点になるまでこれらの過程が繰り返され、すべての視点について描画が終了することで、描画処理が終了し、本発明の立体画像処理方法が終了する。
【0020】
以下に、例えば図2に示す2視点の場合の各視点の各RGB成分の配置例の裸眼立体視表示装置に対して、本発明の画像処理方法を適用した場合について、具体的に説明する。なお、本発明はこれに限定されず、視点の数、表示装置のRGB3原色の蛍光体やカラーフィルタの配置、表示装置前面に設けられるスリット等の形状を基に、種々変更可能である。図3のステップ10において格納するステンシルパターンの作成例について説明する。ステンシルバッファは、その性質上、1画素単位でしかフレームバッファに書き込みができない。本発明では、1つの視点に対してRGB各要素をそれぞれ書き込んでいく。図2の左上の画素を参照すると、この画素は左側視点のR成分(以下、「左−R」というように記す)、「右−G」、「左−B」からなっている。ステンシルパターンの要素値はこの1画素単位で画定されるため、この部分のステンシルパターンの要素値を便宜上例えば「1」とする。本発明によると、1つの視点(例えば左側視点)に対して、カラーマスクを用いてRGB各成分ごとに書き込んでいくため、例えば「左−R」の次は「左−G」、「左−B」の順番に書き込むことになる。なお、R,G,Bの順番で書き込む必要はなく、上記の例はあくまでも一例であって、書き込む順番は任意に決めれば良い。さらに、1つの色成分に対して、各視点ごとに書き込んでいっても良い。即ち、カラーマスクはそのままで、視点を変更していっても構わない。次に「左−G」の成分は、図2でいえば、例えば上記の画素の1つ下の画素になるため、上記のステンシルパターンの要素値とは異なる要素値、例えば「2」とする。次に「右−R」を書き込むが、これは「左−G」が含まれる画素に書き込むものであり、この画素は既にステンシルパターンの要素値を「2」とした画素である。これらのことから、図5に示すような、書き込む画素(要素)とステンシルパターンの要素値の関係が導き出せる。即ち、「左−R」、「右−B」、「右−G」からなる画素に対応するステンシルパターンの要素値が「1」で、「左−G」、「右−R」、「右−B」からなる画素に対応するステンシルパターンの要素値が「2」である。このように、ステンシルパターンは、1画素を構成するRGB成分と各成分に対する視点の関係が等しい画素に対しては共通の要素値が与えられる。なお、図5中の矢印は書き込む順番を示したものである。したがって、ステンシルバッファに格納すべき図2の配置例に対応するステンシルパターンは、図6のようなパターンになる。なお、同図の1、2の数字は、描画する画素を特定するための要素値であり、便宜的に付された数値である。このように作成したステンシルパターンをステンシルバッファに格納しておく(図3のステップ10)。
【0021】
したがって、図2及び図6を参照しながらステンシル参照値を決定する過程を説明すると、例えば「左−R」を書き込む場合には、ステンシル参照値を「1」にし(図4のステップ201)、カラーマスクをR成分のみを書き込めるように設定すれば良い(図4のステップ202)。その後、ステンシル参照値とステンシル要素値を照合し、カラーマスクを用いて立体モデルをフレームバッファに描画する(図4のステップ203)。そして、次の「左−G」を書き込む場合には、ステンシル参照値を「2」にし、カラーマスクをG成分のみを書き込めるように設定すれば良い。これらを、他の色成分(図4のステップ204)や右側の視点・色成分(図4のステップ207)に対しても同様に行うことで、図2に示すような合成画像が生成できる。
【0022】
なお、2視点の立体画像の場合、1画素中に同一の視点が2個含まれることになるため、カラーマスクをRGB成分のうちの所定の2成分を同時に書き込めるように設定することで、カラーマスクを設定するステップを一部分減らすことができるので、画像合成処理のさらなる高速化が望める。
【0023】
このように、ステンシルバッファとカラーマスクを用いることで、1つの色成分単位でフレームバッファに直接書き込むことが可能となるので、メインメモリ−フレームバッファ間のボトルネックがなくなるため、メインメモリ上で複数の画像を生成してフレームバッファに書き込むよりも、より高速な描画が可能となる。したがって、高速に画像の合成が可能となるため、単に静止画の立体画像用画像データを生成するだけではなく、立体画像用の動画像データを生成することも可能となる。
【0024】
次に、他の合成配置例について説明する。図7は、4視点用の裸眼立体視表示装置に表示する各視点の画像の各画素の配置例を示す表示画面の一部拡大図である。同図は、例えば図8に示すような階段状に配置されるスリットを有する光学フィルタを表示装置の前面に設けた斜めバリア方式の裸眼立体視表示装置において、4つの視点のそれぞれの画素のそれぞれのRGB各成分を、裸眼立体視表示装置用の1つの画像となるように配置して合成する場合の配置例を表わしている。また、図8に示す光学フィルタは、1画素中のRGB各成分単位でバリアすることが可能なスリットパターンになっている。なお、図8のスリットパターンは左から右に下がる斜めスリットになっているが、本発明は、1画素中のRGB各成分単位でフレームバッファに描画可能である点が特徴であり、これらの配置やハードウェア構成には限定されるものではなく、任意の配置で任意に書き込み可能なものである。例えば、スリットが右から左に下がる斜めスリットであれば、それに合わせて各視点の画像の各画素のRGB成分ごとの配置を変更すれば良い。さらには、スリットではなく、孔状のフィルタであっても良い。また、解像度の劣化を水平・垂直方向に分散することを考えなければ、縦スリット方式の裸眼立体視表示装置に適用することも勿論可能である。このように、本発明はハードウェア構成には限定されず、用いる裸眼立体視表示装置に合わせて種々の合成処理が可能なものである。
【0025】
図2及び図5を用いて説明した2視点の場合のステンシルパターンと同様に、図7の配置例の場合のステンシルパターンは以下のように作成できる。図7の合成後の配置の左上の画素を参照すると、この画素は視点1のR成分(以下、「1−R」というように記す)、「2−G」、「3−B」からなっている。ステンシルパターンの要素値はこの1画素単位で画定されるため、この部分のステンシルパターンの要素値を便宜上例えば「1」とする。本発明によると、1つの視点(例えば視点1)に対して、カラーマスクを用いてRGB各成分ごとに書き込んでいくため、例えば「1−R」の次は「1−G」、「1−B」の順番に書き込むことになる。なお、R,G,Bの順番で書き込む必要はなく、上記はあくまでも一例であって、書き込む順番は任意に決めれば良い。さらに、1つの色成分に対して、各視点ごとに書き込んでいっても良い。即ち、カラーマスクはそのままで、視点番号を変更していっても構わない。次に「1−G」の成分は、図7でいえば、例えば上記の画素の1つ下の画素になるため、上記のステンシルパターンの要素値とは異なる要素値、例えば「2」とする。同様に、「1−B」は要素値を「3」とする。次に視点2について、「2−R」を書き込むが、この画素は「1−B」が含まれる画素の下の画素になるため、さらに別の要素値「4」とする。次に「2−G」を書き込むが、これは「1−R」が含まれる画素に書き込むものであり、この画素は既にステンシルパターンの要素値を「1」とした画素である。これらのことから、図9に示すような、書き込む画素(要素)とステンシルパターンの要素値の関係が導き出せる。即ち、「1−R」、「2−G」、「3−B」からなる画素に対応するステンシルパターンの要素値が「1」で、「1−G」、「2−B」、「4−R」からなる画素に対応するステンシルパターンの要素値が「2」であり、「1−B」、「3−R」、「4−G」に対応する要素値が「3」であり、「2−R」、「3−G」、「4−B」に対応する要素値が「4」となる。なお、図9中の矢印は書き込む順番を示したものである。したがって、ステンシルバッファに格納すべき図7の配置例に対応するステンシルパターンは、図10のようなパターンになる。なお、同図の1〜4の数字は、描画する画素を特定するための要素値であり、便宜的に付された数値である。このように作成したステンシルパターンをステンシルバッファに格納しておく(図3のステップ10)。なお、図10のステンシルパターンと図7の合成画像の配置例との関係がより明確となるように、図11にこれらを重ねた状態の図を示す。
【0026】
したがって、図11を参照しながらステンシル参照値を決定する過程を説明すると、例えば「1−R」を書き込む場合には、ステンシル参照値を「1」にし(図4のステップ201)、カラーマスクをR成分のみを書き込めるように設定すれば良い(図4のステップ202)。その後、ステンシル参照値とステンシル要素値を照合し、カラーマスクを用いて立体モデルをフレームバッファに描画する(図4のステップ203)。そして、次の「1−G」を書き込む場合には、ステンシル参照値を「2」にし、カラーマスクをG成分のみを書き込めるように設定すれば良い。これらを、他の色成分(図4のステップ204)に対して行い、さらに他の視点・色成分(図4のステップ207)に対しても同様に行うことで、図7に示すような合成画像が生成できる。
【0027】
このように、ステンシルバッファとカラーマスクを用いることで、1つの色成分単位でフレームバッファに直接書き込むことが可能となるので、メインメモリ上で複数の画像を生成してフレームバッファに書き込むよりも、より高速な描画が可能となる。視点数が多くなってもステンシルバッファを用いて高速に描画が可能であるため、単に静止画の立体画像用画像データを生成するだけではなく、立体画像用の動画像データを生成することも可能となる。
【0028】
次に、さらに別の合成配置例について、簡単に説明する。図12は、4視点用の裸眼立体視表示装置に表示する各視点の画像の各画素の配置例と、それに用いられる光学フィルタを示す図である。上記の説明と同様に、本発明では、例えば「1−R」、「1−G」、「1−B」、「2−R」・・・の順番にステンシル参照値を変更して書き込むとすれば、図13のようなステンシルパターンをステンシルバッファに格納すれば良い。そして、ステンシル参照値とステンシルパターンの要素値が一致する画素に、各成分のカラーマスクを適用して書き込むことで、図に示すような配置例の画像が生成できる。
【0029】
このように、本発明の立体画像処理方法は、裸眼立体視表示装置のカラーフィルタの配置やスリット等の光学フィルタの構造、それに合わせた立体画像の合成配置に合わせて、所定のステンシルパターンを作成し、フレームバッファに書き込む際に、ステンシルバッファとカラーマスクを用いて書き込むことが可能であるため、如何なる合成配置であっても適用可能である。
【0030】
次に、図14を用いて、本発明の立体画像処理方法を用いて動画像データを生成する方法について説明する。図14は、本発明の動画像データを生成するための立体画像処理方法の流れを説明するためのフローチャートである。図中、図3と同一の符号を付した過程は同一の過程を表わしているため、重複説明は省略する。図示のとおり、本実施例の場合、ステンシルパターンをステンシルバッファに格納するステップ10と、描画処理20の間に、立体モデルの位置や向きを決定する過程30がある点が図3の実施例とは異なる点である。
【0031】
ステンシルパターンを作成してステンシルバッファに格納するステップ10の後、立体モデルの位置や向きを決定する(ステップ30)。ここで決定された位置や向きに対して、描画処理を行い(ステップ20)、多視点の画像を立体画像用の画像データとなるように合成して1つのフレームを作成する。1つのフレームの作成が完了すると、次のフレームに進むべく、再度ステップ30へ戻り(ステップ40)、次のフレームにおける立体モデルの位置や向きを決定し、描画処理を行う。これを繰り返すことで、動画像データが生成される。
【0032】
このように、本発明の立体画像処理方法を用いれば、より高速に合成が可能であるため、予め複数の画像を用意しておいて単にこれを再生するだけでなく、その場で合成するリアルタイムレンダリング等も可能となる。したがって、例えば裸眼立体視表示装置の鑑賞者が、画面上の立体モデルを、マウス等の入力手段を用いて自由に回転、移動させるような場合でも、立体的に表示したままで、入力手段の動きに追従する画像をリアルタイムに生成することも可能となる。なお、フレームレートはレンダリングを行うマシンのスペックに左右されるが、10フレーム/秒程度あれば、ある程度滑らかな動きとなる。
【0033】
なお、本発明の立体画像処理方法は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記の実施例で具体的に例示した視点の数は、あくまでも一例であって、2視点以上のものであれば、種々合成可能である。同様に、ステンシルパターンやステンシル参照値は、裸眼立体視表示装置のカラーフィルタの配置やスリット等の光学フィルタの配置によるものであり、上記の実施例で具体的に例示したものに限定されるものではなく、裸眼立体視表示装置のカラーフィルタの配置やスリット等の光学フィルタの構造によって種々変更可能である。
【0034】
【発明の効果】
以上、説明したように本発明の立体画像表示方法によれば、立体画像用の画像データを高速に生成可能であり、さらに、多くの視点の画像を合成する場合であっても高速に高解像度の立体画像用画像データを生成可能であるという優れた効果を奏し得る。
【図面の簡単な説明】
【図1】図1は、斜めバリア方式の4視点の場合の各視点の画素の配置例を説明するための図である。
【図2】図2は、1画素中に複数の視点の情報を書き込む例を説明するための図である。
【図3】図3は、本発明の立体画像処理方法の流れを説明するためのフローチャートである。
【図4】図4は、図3の描画処理を説明するためのフローチャートである。
【図5】図5は、図2に示す合成画像の配置例に対する、書き込む画素とステンシルパターンの要素値の関係を説明するための図である。
【図6】図6は、図2に示す合成画像の配置例に用いられるステンシルパターンを示す図である。
【図7】図7は、裸眼立体視表示装置に表示する各視点の画像の各画素の一配置例を示す表示画面の一部拡大図である。
【図8】図8は、図7に示す合成画像の配置例に用いられる階段状に配置されるスリットを有する光学フィルタを説明するための図である。
【図9】図9は、図7に示す合成画像の配置例に対する、書き込む画素とステンシルパターンの要素値の関係を説明するための図である。
【図10】図10は、図7に示す合成画像の配置例に用いられるステンシルパターンを示す図である。
【図11】図11は、図7に示す合成画像の配置例と図10に示すステンシルパターンとの関係を説明するための図である。
【図12】図12は、裸眼立体視表示装置に表示する各視点の画像の各画素の他の配置例及びそれに用いられる光学フィルタを示す図である。
【図13】図13は、図12に示す合成画像の配置例に用いられるステンシルパターンを示す図である。
【図14】図14は、本発明の動画像データを生成するための立体画像処理方法の流れを説明するためのフローチャートである。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for generating image data for an autostereoscopic display device, and more particularly to a method for generating image data for stereoscopic images by combining images from a plurality of viewpoints.
[0002]
[Prior art]
As a stereoscopic display device, there is a stereoscopic display device that utilizes different images viewed by the right and left eyes. In this method, the right-eye image and the left-eye image are separately prepared, each image is separately polarized through a vertically polarized light and a horizontally polarized light filter, and then the polarized glasses having the longitudinally polarized light and the horizontally polarized light filter as left and right lenses, respectively. When viewed using, each image is synthesized and looks three-dimensional. Also, various types of naked-eye stereoscopic display devices that can be viewed with the naked eye without using glasses or the like have been developed. Such devices include a barrier parallax system and a lenticular system. In this method, images taken from multiple directions are combined on a stripe, and an opening, a slit, and a lenticular lens in the shape of a semicircle are arranged on the front of the display device, and only the images corresponding to the left and right eyes are left and right. It can be observed with each eye. Further, for example, as in
[0003]
As described above, the image data for a stereoscopic image used in the stereoscopic display device draws the images viewed from the left and right eyes, that is, the two viewpoints, and two images are drawn according to the arrangement of the slits and the lenticular lenses. It is generated by combining viewpoint images. As described above, there are various methods for generating image data by synthesizing images viewed from two viewpoints. For example, a method of synthesizing images on a main memory by using a CPU, and a method of There is a method in which a right-eye image and a left-eye image are separately written into a frame buffer using a stencil buffer, and are combined.
[0004]
Furthermore, in recent years, an autostereoscopic display device has been developed which combines images not only from two viewpoints but also from multiple viewpoints so that a stereoscopic image can be observed in a wide range. In this case, when vertical stripe-shaped slits are used by the barrier parallax method or the like, the resolution in the horizontal direction is deteriorated as the number of viewpoints increases. For this reason, an oblique barrier method and the like having a step-like opening so as to distribute the deterioration of resolution in both the vertical and horizontal directions have been developed. Specifically, as shown in FIG. 1, for example, in the case of image data for a stereoscopic image with four viewpoints, by arranging slits obliquely, the degradation of resolution is dispersed in the horizontal direction and the vertical direction, and as a whole, It is possible to prevent the degradation of the resolution to some extent.
[0005]
Further, as disclosed in
[0006]
[Patent Document 1]
JP 2000-249980 A
[Patent Document 2]
JP 2000-20575 A
[Patent Document 3]
JP 08-331605 A
[0007]
[Problems to be solved by the invention]
When generating the image data for the autostereoscopic display device as described above, if the image data is for the left and right eye viewpoints, that is, image data of about two viewpoints, only two images are combined, and thus the CPU is used. Even in the method of synthesizing on the main memory, synthesis can be performed at a certain speed, and real-time processing can be performed to some extent even when creating moving image data in which a three-dimensional model moves. However, when the number of viewpoints increases, in the method of combining images on the main memory, information transmission between the main memory and the frame buffer increases, and this portion becomes a bottleneck in processing speed. Therefore, real-time processing was difficult because the synthesizing process could not be performed in time and the frame rate could not be increased.
[0008]
A method of combining the right-eye image and the left-eye image by separately writing them in the frame buffer using the stencil buffer is advantageous in terms of speed as compared with the case where the images are combined on the main memory. However, in the case of multiple viewpoints, simply arranging the images from each viewpoint in a striped order greatly reduces the apparent resolution. turn into. Specifically, in the case of an image in which images of each viewpoint are sequentially arranged in a stripe pattern for each pixel for a barrier-parallax type autostereoscopic display device using a vertical slit, a multi-viewpoint can be obtained. The more pixels are seen from one viewpoint, the more apart the neighboring pixels are, so that the resolution in the horizontal direction is degraded.
[0009]
Furthermore, there is a diagonal barrier method for preventing the resolution from being deteriorated, but when the above-described synthesizing method for writing to the frame buffer using the stencil buffer is applied to this, writing using the stencil buffer can be performed on a pixel-by-pixel basis. Therefore, information of only one viewpoint can be combined in one pixel after all. Therefore, when the number of viewpoints is increased, the resolution cannot be further increased. More specifically, as shown in FIG. 1, for example, in the case of image data for a stereoscopic image of four viewpoints, when a stereoscopic model is synthesized with information of one viewpoint per pixel, the pixel next to a certain one pixel in one viewpoint is However, even if a pixel of another viewpoint is interposed between three pixels, it is difficult to increase the resolution even if the oblique barrier method is used.
[0010]
Furthermore, in the case where information of a plurality of viewpoints (for a maximum of three viewpoints) is written in one pixel by utilizing the fact that one pixel is composed of three components of RGB, a method of synthesizing on a main memory is used. In addition, the number of processing steps between the frame buffer and the main memory increases, and it is very difficult to increase the processing speed. Thus, the method cannot be used for real-time rendering. Also, the method of writing to the frame buffer using the stencil buffer cannot be applied because writing can be performed only in units of one pixel as described above, and cannot be written to the frame buffer for each RGB component.
[0011]
In view of such circumstances, the present invention can generate image data for a three-dimensional image at high speed, and can generate high-resolution three-dimensional image image data at high speed even when synthesizing multi-viewpoint images. It is intended to provide a possible stereoscopic image processing method.
[0012]
[Means for Solving the Problems]
In order to achieve the above-described object of the present invention, a stereoscopic image processing method according to the present invention for generating image data for a stereoscopic image by combining RGB images obtained by viewing a stereoscopic model from a plurality of viewpoints stores mask information. A stencil buffer to create and store a predetermined stencil pattern including element values for specifying pixels to be drawn in accordance with the autostereoscopic display device, and a viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn, and a process of determining a stencil reference value. For a pixel corresponding to the determined stencil reference value, The process of determining the color mask so that at least one of the components is drawn in the frame buffer, and comparing the determined stencil reference value with the element value of the stencil pattern Drawing a three-dimensional model on a pixel corresponding to the matched value with at least one component based on the determined color mask, and determining a stencil reference value for the remaining RGB components. A process of determining a color mask and a process of drawing a three-dimensional model, a process of drawing while changing color components, and a stencil reference value for an (m + 1) th (where m <n) viewpoint. The process of deciding, the process of deciding a color mask, the process of drawing a three-dimensional model, and the process of changing color components and performing drawing are repeated until the n-th viewpoint is reached. And a step of drawing, whereby image data for a stereoscopic image is generated.
[0013]
Further, according to the stereoscopic image processing method of the present invention, a predetermined stencil pattern including element values for specifying a pixel to be drawn is created and stored in a stencil buffer storing mask information in accordance with an autostereoscopic display device. And determining a stencil reference value for the three-dimensional model from the viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn. Determining a color mask so that at least one of the RGB components is drawn in the frame buffer for a pixel corresponding to the stencil reference value, and comparing the determined stencil reference value with the element value of the stencil pattern A process of drawing a three-dimensional model with at least one component on the pixel corresponding to the matched value based on the determined color mask; , M <n), a process of determining a stencil reference value and a process of drawing a three-dimensional model, and repeating these processes until the n-th viewpoint is reached. , A stencil reference value determination process, a color mask determination process, a three-dimensional model rendering process, and a viewpoint changing rendering process for the remaining RGB components. And a step of performing drawing by changing a color component, thereby generating image data for a three-dimensional image.
[0014]
Here, when the number of viewpoints is two (n = 2), the process of determining the color mask is such that two predetermined RGB components are drawn in the frame buffer according to the determined stencil reference value. The process of determining the color mask and drawing the three-dimensional model can be omitted by drawing the three-dimensional model with two components based on the determined color mask according to the determined stencil reference value. is there.
[0015]
In the stencil pattern, a common element value is given to a pixel having the same relationship of viewpoint numbers with respect to the RGB components forming one pixel and each component.
[0016]
Further, after the step of storing the predetermined stencil pattern and before the step of determining the stencil reference value, the method further includes a step of determining the position and orientation of the stereo model, and after the image data for the stereo image is generated. Returning to the process of determining the position and orientation of the three-dimensional model, it is also possible to generate a plurality of frames and generate moving image data for a three-dimensional image by repeating these processes.
[0017]
According to the above means, the following effects can be obtained. That is, the stencil buffer is used to determine the stencil reference value, and the color mask is used to draw each of the RGB components. Therefore, a plurality of viewpoints (up to 3 The effect of writing information for the viewpoint can be obtained. Also, instead of performing compositing processing on the main memory, the data is written directly to the frame buffer using a stencil buffer and color mask, eliminating the need for exchanging information with the main memory and increasing the processing speed. And the like.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 3 is a flowchart for explaining the flow of the stereoscopic image processing method of the present invention. In the present invention, the number of viewpoints is not limited, and can be variously changed according to the configuration of a stereoscopic display device and an optical filter. First, a predetermined stencil pattern is stored in a stencil buffer for storing mask information (step 10). The stencil buffer is a buffer used to enable or disable rendering of a target image in units of one pixel. The stencil pattern is made up of element values that specify the pixels to be drawn, and determines the drawing pattern. The stencil pattern is appropriately determined according to the pixel arrangement and the color filter arrangement of the autostereoscopic display device, as described later. As long as the same stereoscopic display device is used, the stencil pattern needs to be created only once. Then, drawing processing is performed using this stencil pattern (step 20). Hereinafter, drawing processing of the stereoscopic image processing method of the present invention will be described in detail with reference to FIG.
[0019]
FIG. 4 is a flowchart for explaining details of the
[0020]
Hereinafter, a case where the image processing method of the present invention is applied to an autostereoscopic display device of an arrangement example of each RGB component of each viewpoint in the case of two viewpoints illustrated in FIG. 2 will be specifically described. Note that the present invention is not limited to this, and various changes can be made based on the number of viewpoints, the arrangement of phosphors and color filters of the three primary colors of RGB of the display device, and the shape of a slit provided on the front surface of the display device. An example of creating a stencil pattern stored in
[0021]
Therefore, the process of determining the stencil reference value will be described with reference to FIGS. 2 and 6. For example, when "left-R" is written, the stencil reference value is set to "1" (
[0022]
In the case of a stereoscopic image with two viewpoints, two identical viewpoints are included in one pixel. Therefore, by setting a color mask so that two predetermined components of the RGB components can be simultaneously written, Since the step of setting the mask can be partially reduced, further speeding up of the image synthesizing process can be expected.
[0023]
As described above, by using the stencil buffer and the color mask, it is possible to directly write data into the frame buffer in units of one color component, so that there is no bottleneck between the main memory and the frame buffer. This makes it possible to perform drawing at a higher speed than when an image is generated and written into the frame buffer. Therefore, it is possible to synthesize images at high speed, and it is possible not only to generate stereoscopic image image data of a still image but also to generate moving image data for a stereoscopic image.
[0024]
Next, another example of a combined arrangement will be described. FIG. 7 is a partially enlarged view of a display screen showing an example of the arrangement of each pixel of an image of each viewpoint displayed on the autostereoscopic display device for four viewpoints. The figure shows, for example, in an oblique-barrier autostereoscopic display device in which an optical filter having slits arranged in steps as shown in FIG. Of the RGB components are arranged so as to form one image for an autostereoscopic display device and synthesized. Further, the optical filter shown in FIG. 8 has a slit pattern capable of barrier in units of RGB components in one pixel. Although the slit pattern in FIG. 8 is an oblique slit that goes from left to right, the present invention is characterized in that it is possible to draw in the frame buffer in units of RGB components in one pixel. The hardware configuration is not limited, and can be arbitrarily written in any arrangement. For example, if the slit is an oblique slit that goes down from right to left, the arrangement of each pixel of each pixel of the image of each viewpoint may be changed accordingly. Further, instead of a slit, a filter having a hole shape may be used. Further, if it is not considered that the degradation of resolution is dispersed in the horizontal and vertical directions, it is of course possible to apply the present invention to a vertical slit type autostereoscopic display device. As described above, the present invention is not limited to the hardware configuration, and various synthesis processes can be performed in accordance with an autostereoscopic display device to be used.
[0025]
Similar to the stencil pattern for the two viewpoints described with reference to FIGS. 2 and 5, the stencil pattern for the arrangement example of FIG. 7 can be created as follows. Referring to the upper left pixel of the arrangement after the combination in FIG. 7, this pixel is composed of the R component of viewpoint 1 (hereinafter, referred to as “1-R”), “2-G”, and “3-B”. ing. Since the element value of the stencil pattern is defined in units of one pixel, the element value of the stencil pattern in this portion is set to, for example, "1" for convenience. According to the present invention, for each viewpoint (for example, viewpoint 1), writing is performed for each of the RGB components using a color mask, so, for example, after “1-R”, “1-G”, “1-G” B ". Note that it is not necessary to write in the order of R, G, and B, and the above is only an example, and the writing order may be determined arbitrarily. Further, writing may be performed for each viewpoint for one color component. That is, the viewpoint number may be changed without changing the color mask. Next, in FIG. 7, the component of “1-G” is, for example, a pixel immediately below the above-mentioned pixel, and thus has an element value different from the above-mentioned stencil pattern element value, for example, “2”. . Similarly, “1-B” sets the element value to “3”. Next, “2-R” is written for
[0026]
Therefore, the process of determining the stencil reference value will be described with reference to FIG. 11. For example, when "1-R" is written, the stencil reference value is set to "1" (
[0027]
As described above, by using the stencil buffer and the color mask, it is possible to directly write data to the frame buffer in units of one color component. Higher speed drawing becomes possible. Even when the number of viewpoints increases, high-speed drawing is possible using the stencil buffer, so it is possible not only to generate image data for stereoscopic images of still images, but also to generate moving image data for stereoscopic images. It becomes.
[0028]
Next, yet another example of a combined arrangement will be briefly described. FIG. 12 is a diagram illustrating an arrangement example of each pixel of an image of each viewpoint displayed on the autostereoscopic display device for four viewpoints, and an optical filter used for the pixel. Similarly to the above description, according to the present invention, for example, when the stencil reference value is changed and written in the order of “1-R”, “1-G”, “1-B”, “2-R”,. Then, the stencil pattern as shown in FIG. 13 may be stored in the stencil buffer. Then, by applying a color mask of each component to a pixel where the stencil reference value and the element value of the stencil pattern match, an image of an arrangement example as shown in the figure can be generated.
[0029]
As described above, the stereoscopic image processing method of the present invention creates a predetermined stencil pattern in accordance with the arrangement of the color filters of the autostereoscopic display device, the structure of the optical filters such as the slits, and the combined arrangement of the stereoscopic images according to the arrangement. However, when writing to the frame buffer, writing can be performed using a stencil buffer and a color mask, so that the present invention can be applied to any combination arrangement.
[0030]
Next, a method of generating moving image data using the stereoscopic image processing method of the present invention will be described with reference to FIG. FIG. 14 is a flowchart for explaining the flow of the stereoscopic image processing method for generating moving image data according to the present invention. In the figure, the steps denoted by the same reference numerals as those in FIG. 3 represent the same steps, and therefore, redundant description will be omitted. As shown in the figure, in the case of the present embodiment, a
[0031]
After the
[0032]
As described above, since the three-dimensional image processing method of the present invention can be used for synthesizing at higher speed, it is not only necessary to prepare a plurality of images in advance and simply reproduce them, but also to perform real-time synthesizing on the spot. Rendering and the like are also possible. Therefore, for example, even when the viewer of the autostereoscopic display device freely rotates and moves the three-dimensional model on the screen using the input means such as a mouse, the input means of the input means remains displayed in a three-dimensional manner. It is also possible to generate an image that follows the movement in real time. Note that the frame rate depends on the specifications of the rendering machine, but if the frame rate is about 10 frames / sec, the motion is somewhat smooth.
[0033]
It should be noted that the stereoscopic image processing method of the present invention is not limited to the illustrated example described above, and it goes without saying that various changes can be made without departing from the spirit of the present invention. For example, the number of viewpoints specifically exemplified in the above embodiment is merely an example, and various combinations can be made as long as the number of viewpoints is two or more. Similarly, the stencil pattern and the stencil reference value are based on the arrangement of the color filters and the arrangement of the optical filters such as the slits of the autostereoscopic display device, and are limited to those specifically exemplified in the above embodiments. Instead, various changes can be made depending on the arrangement of the color filters of the autostereoscopic display device and the structure of the optical filters such as slits.
[0034]
【The invention's effect】
As described above, according to the three-dimensional image display method of the present invention, image data for a three-dimensional image can be generated at high speed, and even when images of many viewpoints are synthesized, high-resolution An excellent effect of being able to generate the image data for a three-dimensional image can be obtained.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an example of pixel arrangement at each viewpoint in the case of four viewpoints in an oblique barrier method.
FIG. 2 is a diagram for explaining an example in which information of a plurality of viewpoints is written in one pixel.
FIG. 3 is a flowchart for explaining the flow of the stereoscopic image processing method of the present invention.
FIG. 4 is a flowchart for explaining a drawing process in FIG. 3;
FIG. 5 is a diagram for explaining a relationship between a pixel to be written and an element value of a stencil pattern with respect to the arrangement example of the composite image illustrated in FIG. 2;
FIG. 6 is a diagram illustrating a stencil pattern used in the arrangement example of the composite image illustrated in FIG. 2;
FIG. 7 is a partially enlarged view of a display screen showing one arrangement example of each pixel of an image of each viewpoint displayed on the autostereoscopic display device.
FIG. 8 is a diagram for explaining an optical filter having slits arranged in a staircase, which is used in the example of arrangement of the composite image shown in FIG. 7;
FIG. 9 is a diagram for explaining a relationship between a pixel to be written and an element value of a stencil pattern with respect to the arrangement example of the composite image illustrated in FIG. 7;
FIG. 10 is a diagram showing a stencil pattern used in the example of arrangement of the composite image shown in FIG. 7;
FIG. 11 is a diagram for explaining a relationship between an example of arrangement of the combined image shown in FIG. 7 and the stencil pattern shown in FIG. 10;
FIG. 12 is a diagram illustrating another arrangement example of each pixel of an image of each viewpoint displayed on the autostereoscopic display device and an optical filter used for the pixel;
FIG. 13 is a diagram illustrating a stencil pattern used in the example of arrangement of the composite image illustrated in FIG. 12;
FIG. 14 is a flowchart illustrating a flow of a stereoscopic image processing method for generating moving image data according to the present invention.
Claims (5)
マスク情報を格納するステンシルバッファに、前記裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、
立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、
前記決定されたステンシル参照値に対応する画素に対して、前記RGB成分のうちの前記少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、
前記決定されたステンシル参照値と前記ステンシルパターンの要素値を照合し、一致した値に対応する画素に、前記決定されたカラーマスクに基づき前記少なくとも1成分で立体モデルを描画する過程と、
RGB成分のうちの残りの他の成分に対して、前記ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程とを行う、色成分を変更して描画する過程と、
m+1番目(但し、m<n)の視点に対して、前記ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、色成分を変更して描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程と、
を具備し、これらにより立体画像用画像データを生成することを特徴とする立体画像処理方法。In order to stereoscopically display the stereoscopic model on the autostereoscopic display device, RGB images obtained by viewing the stereoscopic model from n (n = 2, 3, 4. A stereoscopic image processing method for generating
In a stencil buffer storing mask information, according to the autostereoscopic display device, a step of creating and storing a predetermined stencil pattern including element values for specifying pixels to be drawn,
Determining a stencil reference value from the viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn for the three-dimensional model;
Determining a color mask for a pixel corresponding to the determined stencil reference value so as to render the at least one of the RGB components in a frame buffer;
Comparing the determined stencil reference value and the element value of the stencil pattern, and rendering a stereo model with the at least one component based on the determined color mask on a pixel corresponding to the matched value;
The process of determining the stencil reference value, the process of determining a color mask, and the process of drawing a three-dimensional model are performed on the remaining RGB components. Process
For the (m + 1) th viewpoint (where m <n), a process of determining the stencil reference value, a process of determining a color mask, a process of drawing a three-dimensional model, and a process of changing color components And repeating these until the n-th viewpoint is reached.
A stereoscopic image processing method comprising generating image data for a stereoscopic image by using these.
マスク情報を格納するステンシルバッファに、前記裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、
立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、
前記決定されたステンシル参照値に対応する画素に対して、前記RGB成分のうちの前記少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、
前記決定されたステンシル参照値と前記ステンシルパターンの要素値を照合し、一致した値に対応する画素に、前記決定されたカラーマスクに基づき前記少なくとも1成分で立体モデルを描画する過程と、
m+1番目(但し、m<n)の視点に対して、前記ステンシル参照値を決定する過程と、立体モデルを描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程と、
RGB成分のうちの残りの他の成分に対して、前記ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、視点を変更して描画する過程とを行う、色成分を変更して描画する過程と、
を具備し、これらにより立体画像用画像データを生成することを特徴とする立体画像処理方法。In order to stereoscopically display the stereoscopic model on the autostereoscopic display device, RGB images obtained by viewing the stereoscopic model from n (n = 2, 3, 4. A stereoscopic image processing method for generating
In a stencil buffer storing mask information, according to the autostereoscopic display device, a step of creating and storing a predetermined stencil pattern including element values for specifying pixels to be drawn,
Determining a stencil reference value from the viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn for the three-dimensional model;
Determining a color mask for a pixel corresponding to the determined stencil reference value so as to render the at least one of the RGB components in a frame buffer;
Comparing the determined stencil reference value and the element value of the stencil pattern, and rendering a stereo model with the at least one component based on the determined color mask on a pixel corresponding to the matched value;
For the (m + 1) th viewpoint (where m <n), the process of determining the stencil reference value and the process of drawing a stereo model are performed, and these processes are repeated until the viewpoint becomes the nth viewpoint. And drawing process,
The process of determining the stencil reference value, the process of determining a color mask, the process of drawing a stereo model, and the process of changing the viewpoint with respect to the remaining RGB components are described. Performing the process of changing the color components and drawing;
A stereoscopic image processing method comprising generating image data for a stereoscopic image by using these.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003129793A JP4267364B2 (en) | 2003-05-08 | 2003-05-08 | Stereoscopic image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003129793A JP4267364B2 (en) | 2003-05-08 | 2003-05-08 | Stereoscopic image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004334550A true JP2004334550A (en) | 2004-11-25 |
JP4267364B2 JP4267364B2 (en) | 2009-05-27 |
Family
ID=33505496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003129793A Expired - Lifetime JP4267364B2 (en) | 2003-05-08 | 2003-05-08 | Stereoscopic image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4267364B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006284619A (en) * | 2005-03-31 | 2006-10-19 | Sanyo Epson Imaging Devices Corp | Image display apparatus |
JP2007094027A (en) * | 2005-09-29 | 2007-04-12 | Sanyo Epson Imaging Devices Corp | Electro-optic device and driving method thereof |
JP2007249398A (en) * | 2006-03-14 | 2007-09-27 | Seiko Epson Corp | Image processing system, display device, and image processing method |
JP2012141400A (en) * | 2010-12-28 | 2012-07-26 | Sony Corp | Driving method of stereoscopic display device, and stereoscopic display device |
KR20150027679A (en) * | 2013-09-04 | 2015-03-12 | 삼성전자주식회사 | Method and apparatus for processing image |
US9384574B2 (en) | 2013-09-04 | 2016-07-05 | Samsung Electronics Co., Ltd. | Image processing method and apparatus therefor |
CN107464280A (en) * | 2017-07-31 | 2017-12-12 | 广东欧珀移动通信有限公司 | The matching process and device of user's 3D modeling |
-
2003
- 2003-05-08 JP JP2003129793A patent/JP4267364B2/en not_active Expired - Lifetime
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006284619A (en) * | 2005-03-31 | 2006-10-19 | Sanyo Epson Imaging Devices Corp | Image display apparatus |
JP2007094027A (en) * | 2005-09-29 | 2007-04-12 | Sanyo Epson Imaging Devices Corp | Electro-optic device and driving method thereof |
JP2007249398A (en) * | 2006-03-14 | 2007-09-27 | Seiko Epson Corp | Image processing system, display device, and image processing method |
US8115802B2 (en) | 2006-03-14 | 2012-02-14 | Seiko Epson Corporation | Image processing system, display apparatus and image processing method |
JP2012141400A (en) * | 2010-12-28 | 2012-07-26 | Sony Corp | Driving method of stereoscopic display device, and stereoscopic display device |
KR20150027679A (en) * | 2013-09-04 | 2015-03-12 | 삼성전자주식회사 | Method and apparatus for processing image |
KR101579112B1 (en) | 2013-09-04 | 2016-01-04 | 삼성전자주식회사 | Method and apparatus for processing image |
US9384574B2 (en) | 2013-09-04 | 2016-07-05 | Samsung Electronics Co., Ltd. | Image processing method and apparatus therefor |
CN107464280A (en) * | 2017-07-31 | 2017-12-12 | 广东欧珀移动通信有限公司 | The matching process and device of user's 3D modeling |
CN107464280B (en) * | 2017-07-31 | 2020-08-07 | Oppo广东移动通信有限公司 | Matching method and device for user 3D modeling |
Also Published As
Publication number | Publication date |
---|---|
JP4267364B2 (en) | 2009-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1143747B1 (en) | Processing of images for autostereoscopic display | |
JP3944188B2 (en) | Stereo image display method, stereo image imaging method, and stereo image display apparatus | |
CN1977544B (en) | 3D display method and apparatus | |
JP4489610B2 (en) | Stereoscopic display device and method | |
US20100171811A1 (en) | Method and device for the creation of pseudo-holographic images | |
AU2005331138A1 (en) | 3D image generation and display system | |
US8731279B2 (en) | Method and device for generating multi-viewpoint image | |
JP5107564B2 (en) | Image display device | |
JP6060329B2 (en) | Method for visualizing 3D image on 3D display device and 3D display device | |
JP2008228199A (en) | Three-dimensional image display device, method for displaying three-dimensional image, and structure of three-dimensional image data | |
CN101803393A (en) | Method and arrangement for three-dimensional representation | |
CN101507287A (en) | Three-dimensional image display device and three-dimensional image display method | |
US8723920B1 (en) | Encoding process for multidimensional display | |
US20120069004A1 (en) | Image processing device and method, and stereoscopic image display device | |
CN103745448A (en) | Rapid generating method for ultrahigh-resolution composite image in raster 3D displaying | |
US20180249145A1 (en) | Reducing View Transitions Artifacts In Automultiscopic Displays | |
TWI387934B (en) | Method and system for rendering multi-view image | |
JP4267364B2 (en) | Stereoscopic image processing method | |
JP2006163547A (en) | Program, system and apparatus for solid image generation | |
AU2010294914B2 (en) | Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback | |
JP4119409B2 (en) | 3D image display apparatus, 3D image display method, and 3D display image data generation method | |
WO2008012821A2 (en) | Computer graphics imaging | |
CN108076337A (en) | A kind of stereoscopic display screen splicing content mergence method | |
Makiguchi et al. | 21‐1: Reducing Image Quality Variation with Motion Parallax for Glassless 3D Screens using Linear Blending Technology | |
JP7394691B2 (en) | 3D display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090210 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4267364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081218 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |