JP2004334550A - Method for processing three-dimensional image - Google Patents

Method for processing three-dimensional image Download PDF

Info

Publication number
JP2004334550A
JP2004334550A JP2003129793A JP2003129793A JP2004334550A JP 2004334550 A JP2004334550 A JP 2004334550A JP 2003129793 A JP2003129793 A JP 2003129793A JP 2003129793 A JP2003129793 A JP 2003129793A JP 2004334550 A JP2004334550 A JP 2004334550A
Authority
JP
Japan
Prior art keywords
stencil
determining
reference value
viewpoint
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003129793A
Other languages
Japanese (ja)
Other versions
JP4267364B2 (en
Inventor
Takeshi Haga
剛士 芳賀
Michinori Sawai
理紀 澤井
Masanori Kakimoto
正憲 柿本
Tetsuya Hirata
哲也 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SGI Japan Ltd
Original Assignee
SGI Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SGI Japan Ltd filed Critical SGI Japan Ltd
Priority to JP2003129793A priority Critical patent/JP4267364B2/en
Publication of JP2004334550A publication Critical patent/JP2004334550A/en
Application granted granted Critical
Publication of JP4267364B2 publication Critical patent/JP4267364B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for processing three-dimensional images capable of creating image data for three-dimensional images at high speeds and of generating the image data for three-dimensional images of high resolution at high speeds even when images from a number of viewing points are synthesized. <P>SOLUTION: The method comprises a process for storing a predetermined stencil pattern in a stencil buffer, a process for determining a stencil reference value based on the number of a viewing point and one of RGB components, and a process for determining a color mask so that the one component is drawn in a frame buffer. The stencil reference value determined is collated with an element value of the stencil pattern, and based on the color mask determined and using the one component, a three-dimensional model is drawn at a pixel which corresponds to matching values. Similar processes are repeated for the rest of the components. The similar processes are also repeated for the other viewing points to synthesize images from a number of viewing points to create the image data for three-dimensional images. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、裸眼立体視表示装置用の画像データを生成する方法に関し、特に、複数の視点の画像を合成して立体画像用画像データを生成する方法に関する。
【0002】
【従来の技術】
立体視表示装置としては、左右の目のそれぞれで見る映像を異ならせることを利用した立体視表示装置がある。これは、右目用画像と左目用画像を別々に用意し、各画像をそれぞれ縦偏光、横偏光フィルタを介して別々に偏光した後、縦偏光、横偏光フィルタをそれぞれ左右のレンズとした偏光眼鏡を用いて見ると、各画像が合成されて立体的に見えるものである。また、眼鏡等を用いずに裸眼で見ることが可能な裸眼立体視表示装置も様々なものが開発されている。このような装置には、バリアパララックス方式やレンティキュラ方式等がある。この方式は、複数の方向から撮像した画像をストライプ上に合成し、開口部やスリット、蒲鉾形のレンティキュラレンズを表示装置前面に配置して、左右の目のそれぞれに対応した画像のみが左右の目のそれぞれで観察できるようにしたものである。また、例えば特許文献1のように、楔状表面を組み合わせた蛇腹上の表面を有する構造部を表示装置の前面に配置したものもある。
【0003】
このように、立体視表示装置に用いられる立体画像用の画像データは、左右の目、即ち2つの視点から見た画像をそれぞれ描画し、スリットやレンティキュラレンズの配列等に合わせて、2つの視点の画像を合成することで生成される。このように2つの視点からみた画像を合成して画像データを生成する方法には、種々の方法が存在するが、例えばCPUを用いてメインメモリ上で合成する方法や、特許文献2のように、ステンシルバッファを用いて右目用画像と左目用画像をそれぞれ別々にフレームバッファに書き込むことで合成する方法がある。
【0004】
さらに、近来では2つの視点だけでなく、多視点からの画像を合成し、広い範囲で立体映像を観察できるようにした裸眼立体視表示装置も開発されている。この場合、バリアパララックス方式等により縦ストライプ形状のスリットを用いると、視点が多くなればなるほど水平方向の解像度が劣化する。そのため、解像度の劣化を縦横両方向に振り分けるように階段状の開口部を持たせた、斜めバリア方式等も開発されている。具体的には、図1に示すように、例えば4視点の立体画像用画像データの場合、スリットを斜めに配置することで、解像度の劣化を水平方向と垂直方向に分散することで、全体としてみればある程度解像度の劣化を防ぐことが可能となるものである。
【0005】
さらに、特許文献3のように、1画素がRGBの3成分からなることを利用して、1画素中に複数の視点(最大3視点分)の情報を書き込むようにしたものもある。これは、各視点ごとのRGBの各成分を一単位として効率良く配置して鮮明な立体画像を得ることを目的としたものである。この例のように、RGBの各成分ごとに画像を合成していくと、見た目上の解像度の劣化を減少させることが可能となる。例えば左右2視点の場合を考えると、図2に示すように、左の視点のR成分、右の視点のG成分、左の視点のB成分を合成し、1つの画素を構成し、続いてその右側の画素は、右の視点のR成分、左の視点のG成分、右の視点のB成分を合成することで構成していく。なお、このような配置にした場合、バリアパララックス方式のための光学フィルタは、図示のような市松模様状のスリットになる。このように構成すると、1画素1視点の場合に比べて、見た目上の解像度の劣化を減少することが可能となることが分かる。
【0006】
【特許文献1】
特開2000−249980号公報
【特許文献2】
特開2000−20757号公報
【特許文献3】
特開平08−331605号公報
【0007】
【発明が解決しようとする課題】
上記のような裸眼立体視表示装置用の画像データを生成する場合、左右の目の視点、即ち2視点程度の画像データであれば、2つの画像を合成するだけであるため、CPUを用いてメインメモリ上で合成する方法であっても、ある程度の速度で合成可能であり、立体モデルが動く動画像データを作成する場合であってもリアルタイム処理がある程度は可能である。しかしながら、視点が増えてきた場合、メインメモリ上で合成する方法では、メインメモリとフレームバッファ間の情報の伝達が多くなり、この部分が処理速度上、ボトルネックとなってしまう。したがって、合成処理が間に合わず、フレームレートが高くできないため、リアルタイム処理は難しかった。
【0008】
また、ステンシルバッファを用いて右目用画像と左目用画像をそれぞれ別々にフレームバッファに書き込むことで合成する方法は、メインメモリ上で合成する場合に比べれば速度的には有利であるが、基本的に2視点のものだけを対象に考えられており、多視点になった場合には、各視点からの画像を単純にストライプ状に順番に配置しただけでは、その見た目上の解像度の劣化が大きくなってしまう。具体的には、縦方向のスリットを用いたバリアパララックス方式の裸眼立体視表示装置用に、各視点の画像を順番に画素ごとにストライプ状に配置した画像の場合には、多視点になればなるほど、1つの視点について見れば、隣り合う画素が離れていくため、水平方向の解像度が劣化していくことになる。
【0009】
さらに、解像度の劣化を防ぐための斜めバリア方式があるが、これに上記のステンシルバッファを用いてフレームバッファに書き込む合成方法を適用した場合、ステンシルバッファを用いて書き込むことができるのは1画素単位であるため、結局1画素に1視点の情報しか合成できない。したがって、多視点になった場合にはそれ以上解像度を上げることができなかった。具体的には、図1に示すように、例えば4視点の立体画像用画像データの場合、1画素1視点の情報で立体モデルを合成すると、1つの視点において、ある1画素の次の画素は、間に3画素分他の視点の画素を挟んだ位置にあり、例え斜めバリア方式を用いたとしても、解像度を上げることは難しかった。
【0010】
さらにまた、1画素がRGBの3成分からなることを利用して、1画素中に複数の視点(最大3視点分)の情報を書き込むようにしたものの場合、メインメモリ上で合成する方法を用いると、フレームバッファとメインメモリ間での処理工程が多くなり速度的に高速化が非常に難しく、リアルタイムレンダリング等に用いることができるようなものではなかった。また、ステンシルバッファを用いてフレームバッファに書き込む方法では、上記のように1画素単位でしか書き込めないため、RGB成分ごとにフレームバッファに書き込むことはできないので、適用することができなかった。
【0011】
本発明は、斯かる実情に鑑み、立体画像用の画像データを高速に生成可能であり、さらに、多視点の画像を合成する場合であっても高速に高解像度の立体画像用画像データを生成可能な立体画像処理方法を提供しようとするものである。
【0012】
【課題を解決するための手段】
上述した本発明の目的を達成するために、複数の視点から立体モデルを見たRGB画像を合成して立体画像用画像データを生成するための本発明による立体画像処理方法は、マスク情報を格納するステンシルバッファに、裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、決定されたステンシル参照値に対応する画素に対して、RGB成分のうちの少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、決定されたステンシル参照値とステンシルパターンの要素値を照合し、一致した値に対応する画素に、決定されたカラーマスクに基づき少なくとも1成分で立体モデルを描画する過程と、RGB成分のうちの残りの他の成分に対して、ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程とを行う、色成分を変更して描画する過程と、m+1番目(但し、m<n)の視点に対して、ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、色成分を変更して描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程とを具備し、これらにより立体画像用画像データを生成するものである。
【0013】
また、本発明の立体画像処理方法は、マスク情報を格納するステンシルバッファに、裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、決定されたステンシル参照値に対応する画素に対して、RGB成分のうちの少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、決定されたステンシル参照値とステンシルパターンの要素値を照合し、一致した値に対応する画素に、決定されたカラーマスクに基づき少なくとも1成分で立体モデルを描画する過程と、m+1番目(但し、m<n)の視点に対して、ステンシル参照値を決定する過程と、立体モデルを描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程と、RGB成分のうちの残りの他の成分に対して、ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、視点を変更して描画する過程とを行う、色成分を変更して描画する過程とを具備し、これらにより立体画像用画像データを生成するものであっても良い。
【0014】
ここで、視点が2個(n=2)の場合、カラーマスクを決定する過程は、決定されたステンシル参照値に応じて、RGB成分のうちの所定の2成分をフレームバッファに描画するようにカラーマスクを決定し、立体モデルを描画する過程は、決定されたステンシル参照値に応じて、決定されたカラーマスクに基づき2成分で立体モデルを描画することで、過程を省略することも可能である。
【0015】
また、ステンシルパターンは、1画素を構成するRGB成分と各成分に対する視点番号の関係が等しい画素に対しては共通の要素値が与えられる。
【0016】
さらに、所定のステンシルパターンを格納する過程の後であってステンシル参照値を決定する過程の前に、立体モデルの位置や向きを決定する過程を有し、立体画像用画像データが生成された後に、立体モデルの位置や向きを決定する過程に戻り、これらを繰り返すことで複数のフレームを作成して立体画像用の動画像データを生成することも可能である。
【0017】
上記手段によれば、以下のような作用が得られる。即ち、ステンシルバッファを用いステンシル参照値を決定すると共に、カラーマスクを用いてRGB成分のうちの1成分ごとに描画できるようにしているため、1画素中の色成分ごとに複数の視点(最大3視点分)の情報を書き込むことができるという作用が得られる。また、メインメモリ上での合成処理を行うのではなく、ステンシルバッファとカラーマスクを用いて直接フレームバッファに書き込むため、メインメモリとの情報のやり取りが不要となり処理速度が高速となるので、リアルタイムレンダリング等にも適用可能であるという作用も得られる。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態を図示例と共に説明する。図3は、本発明の立体画像処理方法の流れを説明するためのフローチャートである。なお、本発明は視点の数に制限は無く、立体視表示装置や光学フィルタの構成に合わせて種々変更可能である。先ず、マスク情報を格納するステンシルバッファに、所定のステンシルパターンを格納する(ステップ10)。ステンシルバッファとは、対象画像の1画素単位での描画を有効又は無効にするために用いられるバッファである。ステンシルパターンとは、その描画する画素を特定する要素値からなっており、描画パターンを決定するものである。ステンシルパターンは、後述するように、裸眼立体視表示装置の画素配列及びカラーフィルタの配列に応じて、適宜決定されるものである。同じ立体視表示装置を使用する限り、ステンシルパターンは一度だけ作成すれば良い。そしてこのステンシルパターンを用いて、描画処理を行う(ステップ20)。以下、本発明の立体画像処理方法の描画処理に関し、図4を用いて詳細に説明する。
【0019】
図4は、図3の描画処理過程20の詳細を説明するためのフローチャートである。先ず、描画すべき立体モデルに対して、n個(n=2,3,4,・・・)の視点の視点番号m(m=1,2,・・・n)と、描画する色成分(RGB成分)のうちの1成分とから、ステンシル参照値を決定する(ステップ201)。ここで、ステンシル参照値とは、ステンシルバッファ内の値と比較される値として指定するものである。次に、RGB成分のうちの1成分のみをフレームバッファに描画するように、カラーマスクを決定する(ステップ202)。カラーマスクとは、例えばR成分のみを書き込む場合には、他の成分、G成分、B成分をマスクして、R成分のみを通すようにするものである。そして、ステップ201で決定されたステンシル参照値とステンシルパターンの要素値とを照合し、一致した値に対応する画素の部分に、ステップ202で決定されたカラーマスクを適用してRGB成分のうちの1成分のみで立体モデルを描画する(ステップ203)。そして、ステップ204でRGB成分すべてについて描画したか否かを判定し、まだ残っていれば、次の色に変更して(ステップ205)、ステンシル参照値を決定するステップ201へ戻る。これを3成分すべてに対して繰り返し、RGB成分すべてが終了したら、ステップ204からステップ206へ進む。ステップ206で、すべての視点について描画したか否かを判定し、まだ残っていれば次の視点、即ち、視点番号m+1番目(但し、m<n)の視点に変更して(ステップ207)、ステンシル参照値を決定するステップ201へ戻る。このm+1番目の視点に対しても、RGB成分すべてについて描画する過程が行なわれる。そして、すべての視点、即ち、n番目の視点になるまでこれらの過程が繰り返され、すべての視点について描画が終了することで、描画処理が終了し、本発明の立体画像処理方法が終了する。
【0020】
以下に、例えば図2に示す2視点の場合の各視点の各RGB成分の配置例の裸眼立体視表示装置に対して、本発明の画像処理方法を適用した場合について、具体的に説明する。なお、本発明はこれに限定されず、視点の数、表示装置のRGB3原色の蛍光体やカラーフィルタの配置、表示装置前面に設けられるスリット等の形状を基に、種々変更可能である。図3のステップ10において格納するステンシルパターンの作成例について説明する。ステンシルバッファは、その性質上、1画素単位でしかフレームバッファに書き込みができない。本発明では、1つの視点に対してRGB各要素をそれぞれ書き込んでいく。図2の左上の画素を参照すると、この画素は左側視点のR成分(以下、「左−R」というように記す)、「右−G」、「左−B」からなっている。ステンシルパターンの要素値はこの1画素単位で画定されるため、この部分のステンシルパターンの要素値を便宜上例えば「1」とする。本発明によると、1つの視点(例えば左側視点)に対して、カラーマスクを用いてRGB各成分ごとに書き込んでいくため、例えば「左−R」の次は「左−G」、「左−B」の順番に書き込むことになる。なお、R,G,Bの順番で書き込む必要はなく、上記の例はあくまでも一例であって、書き込む順番は任意に決めれば良い。さらに、1つの色成分に対して、各視点ごとに書き込んでいっても良い。即ち、カラーマスクはそのままで、視点を変更していっても構わない。次に「左−G」の成分は、図2でいえば、例えば上記の画素の1つ下の画素になるため、上記のステンシルパターンの要素値とは異なる要素値、例えば「2」とする。次に「右−R」を書き込むが、これは「左−G」が含まれる画素に書き込むものであり、この画素は既にステンシルパターンの要素値を「2」とした画素である。これらのことから、図5に示すような、書き込む画素(要素)とステンシルパターンの要素値の関係が導き出せる。即ち、「左−R」、「右−B」、「右−G」からなる画素に対応するステンシルパターンの要素値が「1」で、「左−G」、「右−R」、「右−B」からなる画素に対応するステンシルパターンの要素値が「2」である。このように、ステンシルパターンは、1画素を構成するRGB成分と各成分に対する視点の関係が等しい画素に対しては共通の要素値が与えられる。なお、図5中の矢印は書き込む順番を示したものである。したがって、ステンシルバッファに格納すべき図2の配置例に対応するステンシルパターンは、図6のようなパターンになる。なお、同図の1、2の数字は、描画する画素を特定するための要素値であり、便宜的に付された数値である。このように作成したステンシルパターンをステンシルバッファに格納しておく(図3のステップ10)。
【0021】
したがって、図2及び図6を参照しながらステンシル参照値を決定する過程を説明すると、例えば「左−R」を書き込む場合には、ステンシル参照値を「1」にし(図4のステップ201)、カラーマスクをR成分のみを書き込めるように設定すれば良い(図4のステップ202)。その後、ステンシル参照値とステンシル要素値を照合し、カラーマスクを用いて立体モデルをフレームバッファに描画する(図4のステップ203)。そして、次の「左−G」を書き込む場合には、ステンシル参照値を「2」にし、カラーマスクをG成分のみを書き込めるように設定すれば良い。これらを、他の色成分(図4のステップ204)や右側の視点・色成分(図4のステップ207)に対しても同様に行うことで、図2に示すような合成画像が生成できる。
【0022】
なお、2視点の立体画像の場合、1画素中に同一の視点が2個含まれることになるため、カラーマスクをRGB成分のうちの所定の2成分を同時に書き込めるように設定することで、カラーマスクを設定するステップを一部分減らすことができるので、画像合成処理のさらなる高速化が望める。
【0023】
このように、ステンシルバッファとカラーマスクを用いることで、1つの色成分単位でフレームバッファに直接書き込むことが可能となるので、メインメモリ−フレームバッファ間のボトルネックがなくなるため、メインメモリ上で複数の画像を生成してフレームバッファに書き込むよりも、より高速な描画が可能となる。したがって、高速に画像の合成が可能となるため、単に静止画の立体画像用画像データを生成するだけではなく、立体画像用の動画像データを生成することも可能となる。
【0024】
次に、他の合成配置例について説明する。図7は、4視点用の裸眼立体視表示装置に表示する各視点の画像の各画素の配置例を示す表示画面の一部拡大図である。同図は、例えば図8に示すような階段状に配置されるスリットを有する光学フィルタを表示装置の前面に設けた斜めバリア方式の裸眼立体視表示装置において、4つの視点のそれぞれの画素のそれぞれのRGB各成分を、裸眼立体視表示装置用の1つの画像となるように配置して合成する場合の配置例を表わしている。また、図8に示す光学フィルタは、1画素中のRGB各成分単位でバリアすることが可能なスリットパターンになっている。なお、図8のスリットパターンは左から右に下がる斜めスリットになっているが、本発明は、1画素中のRGB各成分単位でフレームバッファに描画可能である点が特徴であり、これらの配置やハードウェア構成には限定されるものではなく、任意の配置で任意に書き込み可能なものである。例えば、スリットが右から左に下がる斜めスリットであれば、それに合わせて各視点の画像の各画素のRGB成分ごとの配置を変更すれば良い。さらには、スリットではなく、孔状のフィルタであっても良い。また、解像度の劣化を水平・垂直方向に分散することを考えなければ、縦スリット方式の裸眼立体視表示装置に適用することも勿論可能である。このように、本発明はハードウェア構成には限定されず、用いる裸眼立体視表示装置に合わせて種々の合成処理が可能なものである。
【0025】
図2及び図5を用いて説明した2視点の場合のステンシルパターンと同様に、図7の配置例の場合のステンシルパターンは以下のように作成できる。図7の合成後の配置の左上の画素を参照すると、この画素は視点1のR成分(以下、「1−R」というように記す)、「2−G」、「3−B」からなっている。ステンシルパターンの要素値はこの1画素単位で画定されるため、この部分のステンシルパターンの要素値を便宜上例えば「1」とする。本発明によると、1つの視点(例えば視点1)に対して、カラーマスクを用いてRGB各成分ごとに書き込んでいくため、例えば「1−R」の次は「1−G」、「1−B」の順番に書き込むことになる。なお、R,G,Bの順番で書き込む必要はなく、上記はあくまでも一例であって、書き込む順番は任意に決めれば良い。さらに、1つの色成分に対して、各視点ごとに書き込んでいっても良い。即ち、カラーマスクはそのままで、視点番号を変更していっても構わない。次に「1−G」の成分は、図7でいえば、例えば上記の画素の1つ下の画素になるため、上記のステンシルパターンの要素値とは異なる要素値、例えば「2」とする。同様に、「1−B」は要素値を「3」とする。次に視点2について、「2−R」を書き込むが、この画素は「1−B」が含まれる画素の下の画素になるため、さらに別の要素値「4」とする。次に「2−G」を書き込むが、これは「1−R」が含まれる画素に書き込むものであり、この画素は既にステンシルパターンの要素値を「1」とした画素である。これらのことから、図9に示すような、書き込む画素(要素)とステンシルパターンの要素値の関係が導き出せる。即ち、「1−R」、「2−G」、「3−B」からなる画素に対応するステンシルパターンの要素値が「1」で、「1−G」、「2−B」、「4−R」からなる画素に対応するステンシルパターンの要素値が「2」であり、「1−B」、「3−R」、「4−G」に対応する要素値が「3」であり、「2−R」、「3−G」、「4−B」に対応する要素値が「4」となる。なお、図9中の矢印は書き込む順番を示したものである。したがって、ステンシルバッファに格納すべき図7の配置例に対応するステンシルパターンは、図10のようなパターンになる。なお、同図の1〜4の数字は、描画する画素を特定するための要素値であり、便宜的に付された数値である。このように作成したステンシルパターンをステンシルバッファに格納しておく(図3のステップ10)。なお、図10のステンシルパターンと図7の合成画像の配置例との関係がより明確となるように、図11にこれらを重ねた状態の図を示す。
【0026】
したがって、図11を参照しながらステンシル参照値を決定する過程を説明すると、例えば「1−R」を書き込む場合には、ステンシル参照値を「1」にし(図4のステップ201)、カラーマスクをR成分のみを書き込めるように設定すれば良い(図4のステップ202)。その後、ステンシル参照値とステンシル要素値を照合し、カラーマスクを用いて立体モデルをフレームバッファに描画する(図4のステップ203)。そして、次の「1−G」を書き込む場合には、ステンシル参照値を「2」にし、カラーマスクをG成分のみを書き込めるように設定すれば良い。これらを、他の色成分(図4のステップ204)に対して行い、さらに他の視点・色成分(図4のステップ207)に対しても同様に行うことで、図7に示すような合成画像が生成できる。
【0027】
このように、ステンシルバッファとカラーマスクを用いることで、1つの色成分単位でフレームバッファに直接書き込むことが可能となるので、メインメモリ上で複数の画像を生成してフレームバッファに書き込むよりも、より高速な描画が可能となる。視点数が多くなってもステンシルバッファを用いて高速に描画が可能であるため、単に静止画の立体画像用画像データを生成するだけではなく、立体画像用の動画像データを生成することも可能となる。
【0028】
次に、さらに別の合成配置例について、簡単に説明する。図12は、4視点用の裸眼立体視表示装置に表示する各視点の画像の各画素の配置例と、それに用いられる光学フィルタを示す図である。上記の説明と同様に、本発明では、例えば「1−R」、「1−G」、「1−B」、「2−R」・・・の順番にステンシル参照値を変更して書き込むとすれば、図13のようなステンシルパターンをステンシルバッファに格納すれば良い。そして、ステンシル参照値とステンシルパターンの要素値が一致する画素に、各成分のカラーマスクを適用して書き込むことで、図に示すような配置例の画像が生成できる。
【0029】
このように、本発明の立体画像処理方法は、裸眼立体視表示装置のカラーフィルタの配置やスリット等の光学フィルタの構造、それに合わせた立体画像の合成配置に合わせて、所定のステンシルパターンを作成し、フレームバッファに書き込む際に、ステンシルバッファとカラーマスクを用いて書き込むことが可能であるため、如何なる合成配置であっても適用可能である。
【0030】
次に、図14を用いて、本発明の立体画像処理方法を用いて動画像データを生成する方法について説明する。図14は、本発明の動画像データを生成するための立体画像処理方法の流れを説明するためのフローチャートである。図中、図3と同一の符号を付した過程は同一の過程を表わしているため、重複説明は省略する。図示のとおり、本実施例の場合、ステンシルパターンをステンシルバッファに格納するステップ10と、描画処理20の間に、立体モデルの位置や向きを決定する過程30がある点が図3の実施例とは異なる点である。
【0031】
ステンシルパターンを作成してステンシルバッファに格納するステップ10の後、立体モデルの位置や向きを決定する(ステップ30)。ここで決定された位置や向きに対して、描画処理を行い(ステップ20)、多視点の画像を立体画像用の画像データとなるように合成して1つのフレームを作成する。1つのフレームの作成が完了すると、次のフレームに進むべく、再度ステップ30へ戻り(ステップ40)、次のフレームにおける立体モデルの位置や向きを決定し、描画処理を行う。これを繰り返すことで、動画像データが生成される。
【0032】
このように、本発明の立体画像処理方法を用いれば、より高速に合成が可能であるため、予め複数の画像を用意しておいて単にこれを再生するだけでなく、その場で合成するリアルタイムレンダリング等も可能となる。したがって、例えば裸眼立体視表示装置の鑑賞者が、画面上の立体モデルを、マウス等の入力手段を用いて自由に回転、移動させるような場合でも、立体的に表示したままで、入力手段の動きに追従する画像をリアルタイムに生成することも可能となる。なお、フレームレートはレンダリングを行うマシンのスペックに左右されるが、10フレーム/秒程度あれば、ある程度滑らかな動きとなる。
【0033】
なお、本発明の立体画像処理方法は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記の実施例で具体的に例示した視点の数は、あくまでも一例であって、2視点以上のものであれば、種々合成可能である。同様に、ステンシルパターンやステンシル参照値は、裸眼立体視表示装置のカラーフィルタの配置やスリット等の光学フィルタの配置によるものであり、上記の実施例で具体的に例示したものに限定されるものではなく、裸眼立体視表示装置のカラーフィルタの配置やスリット等の光学フィルタの構造によって種々変更可能である。
【0034】
【発明の効果】
以上、説明したように本発明の立体画像表示方法によれば、立体画像用の画像データを高速に生成可能であり、さらに、多くの視点の画像を合成する場合であっても高速に高解像度の立体画像用画像データを生成可能であるという優れた効果を奏し得る。
【図面の簡単な説明】
【図1】図1は、斜めバリア方式の4視点の場合の各視点の画素の配置例を説明するための図である。
【図2】図2は、1画素中に複数の視点の情報を書き込む例を説明するための図である。
【図3】図3は、本発明の立体画像処理方法の流れを説明するためのフローチャートである。
【図4】図4は、図3の描画処理を説明するためのフローチャートである。
【図5】図5は、図2に示す合成画像の配置例に対する、書き込む画素とステンシルパターンの要素値の関係を説明するための図である。
【図6】図6は、図2に示す合成画像の配置例に用いられるステンシルパターンを示す図である。
【図7】図7は、裸眼立体視表示装置に表示する各視点の画像の各画素の一配置例を示す表示画面の一部拡大図である。
【図8】図8は、図7に示す合成画像の配置例に用いられる階段状に配置されるスリットを有する光学フィルタを説明するための図である。
【図9】図9は、図7に示す合成画像の配置例に対する、書き込む画素とステンシルパターンの要素値の関係を説明するための図である。
【図10】図10は、図7に示す合成画像の配置例に用いられるステンシルパターンを示す図である。
【図11】図11は、図7に示す合成画像の配置例と図10に示すステンシルパターンとの関係を説明するための図である。
【図12】図12は、裸眼立体視表示装置に表示する各視点の画像の各画素の他の配置例及びそれに用いられる光学フィルタを示す図である。
【図13】図13は、図12に示す合成画像の配置例に用いられるステンシルパターンを示す図である。
【図14】図14は、本発明の動画像データを生成するための立体画像処理方法の流れを説明するためのフローチャートである。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for generating image data for an autostereoscopic display device, and more particularly to a method for generating image data for stereoscopic images by combining images from a plurality of viewpoints.
[0002]
[Prior art]
As a stereoscopic display device, there is a stereoscopic display device that utilizes different images viewed by the right and left eyes. In this method, the right-eye image and the left-eye image are separately prepared, each image is separately polarized through a vertically polarized light and a horizontally polarized light filter, and then the polarized glasses having the longitudinally polarized light and the horizontally polarized light filter as left and right lenses, respectively. When viewed using, each image is synthesized and looks three-dimensional. Also, various types of naked-eye stereoscopic display devices that can be viewed with the naked eye without using glasses or the like have been developed. Such devices include a barrier parallax system and a lenticular system. In this method, images taken from multiple directions are combined on a stripe, and an opening, a slit, and a lenticular lens in the shape of a semicircle are arranged on the front of the display device, and only the images corresponding to the left and right eyes are left and right. It can be observed with each eye. Further, for example, as in Patent Literature 1, a structure having a bellows-like surface combining wedge-shaped surfaces is arranged on the front surface of a display device.
[0003]
As described above, the image data for a stereoscopic image used in the stereoscopic display device draws the images viewed from the left and right eyes, that is, the two viewpoints, and two images are drawn according to the arrangement of the slits and the lenticular lenses. It is generated by combining viewpoint images. As described above, there are various methods for generating image data by synthesizing images viewed from two viewpoints. For example, a method of synthesizing images on a main memory by using a CPU, and a method of There is a method in which a right-eye image and a left-eye image are separately written into a frame buffer using a stencil buffer, and are combined.
[0004]
Furthermore, in recent years, an autostereoscopic display device has been developed which combines images not only from two viewpoints but also from multiple viewpoints so that a stereoscopic image can be observed in a wide range. In this case, when vertical stripe-shaped slits are used by the barrier parallax method or the like, the resolution in the horizontal direction is deteriorated as the number of viewpoints increases. For this reason, an oblique barrier method and the like having a step-like opening so as to distribute the deterioration of resolution in both the vertical and horizontal directions have been developed. Specifically, as shown in FIG. 1, for example, in the case of image data for a stereoscopic image with four viewpoints, by arranging slits obliquely, the degradation of resolution is dispersed in the horizontal direction and the vertical direction, and as a whole, It is possible to prevent the degradation of the resolution to some extent.
[0005]
Further, as disclosed in Patent Document 3, information of a plurality of viewpoints (up to three viewpoints) is written in one pixel by utilizing the fact that one pixel is composed of three components of RGB. This is intended to obtain a clear stereoscopic image by efficiently arranging the RGB components for each viewpoint as one unit. By combining images for each of the RGB components as in this example, it is possible to reduce apparent degradation in resolution. For example, considering the case of two left and right viewpoints, as shown in FIG. 2, the R component of the left viewpoint, the G component of the right viewpoint, and the B component of the left viewpoint are combined to form one pixel. The pixel on the right side is formed by combining the R component of the right viewpoint, the G component of the left viewpoint, and the B component of the right viewpoint. In this arrangement, the optical filter for the barrier parallax method has a checkered slit as shown in the figure. It can be seen that this configuration makes it possible to reduce the apparent deterioration in resolution as compared to the case of one viewpoint per pixel.
[0006]
[Patent Document 1]
JP 2000-249980 A
[Patent Document 2]
JP 2000-20575 A
[Patent Document 3]
JP 08-331605 A
[0007]
[Problems to be solved by the invention]
When generating the image data for the autostereoscopic display device as described above, if the image data is for the left and right eye viewpoints, that is, image data of about two viewpoints, only two images are combined, and thus the CPU is used. Even in the method of synthesizing on the main memory, synthesis can be performed at a certain speed, and real-time processing can be performed to some extent even when creating moving image data in which a three-dimensional model moves. However, when the number of viewpoints increases, in the method of combining images on the main memory, information transmission between the main memory and the frame buffer increases, and this portion becomes a bottleneck in processing speed. Therefore, real-time processing was difficult because the synthesizing process could not be performed in time and the frame rate could not be increased.
[0008]
A method of combining the right-eye image and the left-eye image by separately writing them in the frame buffer using the stencil buffer is advantageous in terms of speed as compared with the case where the images are combined on the main memory. However, in the case of multiple viewpoints, simply arranging the images from each viewpoint in a striped order greatly reduces the apparent resolution. turn into. Specifically, in the case of an image in which images of each viewpoint are sequentially arranged in a stripe pattern for each pixel for a barrier-parallax type autostereoscopic display device using a vertical slit, a multi-viewpoint can be obtained. The more pixels are seen from one viewpoint, the more apart the neighboring pixels are, so that the resolution in the horizontal direction is degraded.
[0009]
Furthermore, there is a diagonal barrier method for preventing the resolution from being deteriorated, but when the above-described synthesizing method for writing to the frame buffer using the stencil buffer is applied to this, writing using the stencil buffer can be performed on a pixel-by-pixel basis. Therefore, information of only one viewpoint can be combined in one pixel after all. Therefore, when the number of viewpoints is increased, the resolution cannot be further increased. More specifically, as shown in FIG. 1, for example, in the case of image data for a stereoscopic image of four viewpoints, when a stereoscopic model is synthesized with information of one viewpoint per pixel, the pixel next to a certain one pixel in one viewpoint is However, even if a pixel of another viewpoint is interposed between three pixels, it is difficult to increase the resolution even if the oblique barrier method is used.
[0010]
Furthermore, in the case where information of a plurality of viewpoints (for a maximum of three viewpoints) is written in one pixel by utilizing the fact that one pixel is composed of three components of RGB, a method of synthesizing on a main memory is used. In addition, the number of processing steps between the frame buffer and the main memory increases, and it is very difficult to increase the processing speed. Thus, the method cannot be used for real-time rendering. Also, the method of writing to the frame buffer using the stencil buffer cannot be applied because writing can be performed only in units of one pixel as described above, and cannot be written to the frame buffer for each RGB component.
[0011]
In view of such circumstances, the present invention can generate image data for a three-dimensional image at high speed, and can generate high-resolution three-dimensional image image data at high speed even when synthesizing multi-viewpoint images. It is intended to provide a possible stereoscopic image processing method.
[0012]
[Means for Solving the Problems]
In order to achieve the above-described object of the present invention, a stereoscopic image processing method according to the present invention for generating image data for a stereoscopic image by combining RGB images obtained by viewing a stereoscopic model from a plurality of viewpoints stores mask information. A stencil buffer to create and store a predetermined stencil pattern including element values for specifying pixels to be drawn in accordance with the autostereoscopic display device, and a viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn, and a process of determining a stencil reference value. For a pixel corresponding to the determined stencil reference value, The process of determining the color mask so that at least one of the components is drawn in the frame buffer, and comparing the determined stencil reference value with the element value of the stencil pattern Drawing a three-dimensional model on a pixel corresponding to the matched value with at least one component based on the determined color mask, and determining a stencil reference value for the remaining RGB components. A process of determining a color mask and a process of drawing a three-dimensional model, a process of drawing while changing color components, and a stencil reference value for an (m + 1) th (where m <n) viewpoint. The process of deciding, the process of deciding a color mask, the process of drawing a three-dimensional model, and the process of changing color components and performing drawing are repeated until the n-th viewpoint is reached. And a step of drawing, whereby image data for a stereoscopic image is generated.
[0013]
Further, according to the stereoscopic image processing method of the present invention, a predetermined stencil pattern including element values for specifying a pixel to be drawn is created and stored in a stencil buffer storing mask information in accordance with an autostereoscopic display device. And determining a stencil reference value for the three-dimensional model from the viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn. Determining a color mask so that at least one of the RGB components is drawn in the frame buffer for a pixel corresponding to the stencil reference value, and comparing the determined stencil reference value with the element value of the stencil pattern A process of drawing a three-dimensional model with at least one component on the pixel corresponding to the matched value based on the determined color mask; , M <n), a process of determining a stencil reference value and a process of drawing a three-dimensional model, and repeating these processes until the n-th viewpoint is reached. , A stencil reference value determination process, a color mask determination process, a three-dimensional model rendering process, and a viewpoint changing rendering process for the remaining RGB components. And a step of performing drawing by changing a color component, thereby generating image data for a three-dimensional image.
[0014]
Here, when the number of viewpoints is two (n = 2), the process of determining the color mask is such that two predetermined RGB components are drawn in the frame buffer according to the determined stencil reference value. The process of determining the color mask and drawing the three-dimensional model can be omitted by drawing the three-dimensional model with two components based on the determined color mask according to the determined stencil reference value. is there.
[0015]
In the stencil pattern, a common element value is given to a pixel having the same relationship of viewpoint numbers with respect to the RGB components forming one pixel and each component.
[0016]
Further, after the step of storing the predetermined stencil pattern and before the step of determining the stencil reference value, the method further includes a step of determining the position and orientation of the stereo model, and after the image data for the stereo image is generated. Returning to the process of determining the position and orientation of the three-dimensional model, it is also possible to generate a plurality of frames and generate moving image data for a three-dimensional image by repeating these processes.
[0017]
According to the above means, the following effects can be obtained. That is, the stencil buffer is used to determine the stencil reference value, and the color mask is used to draw each of the RGB components. Therefore, a plurality of viewpoints (up to 3 The effect of writing information for the viewpoint can be obtained. Also, instead of performing compositing processing on the main memory, the data is written directly to the frame buffer using a stencil buffer and color mask, eliminating the need for exchanging information with the main memory and increasing the processing speed. And the like.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 3 is a flowchart for explaining the flow of the stereoscopic image processing method of the present invention. In the present invention, the number of viewpoints is not limited, and can be variously changed according to the configuration of a stereoscopic display device and an optical filter. First, a predetermined stencil pattern is stored in a stencil buffer for storing mask information (step 10). The stencil buffer is a buffer used to enable or disable rendering of a target image in units of one pixel. The stencil pattern is made up of element values that specify the pixels to be drawn, and determines the drawing pattern. The stencil pattern is appropriately determined according to the pixel arrangement and the color filter arrangement of the autostereoscopic display device, as described later. As long as the same stereoscopic display device is used, the stencil pattern needs to be created only once. Then, drawing processing is performed using this stencil pattern (step 20). Hereinafter, drawing processing of the stereoscopic image processing method of the present invention will be described in detail with reference to FIG.
[0019]
FIG. 4 is a flowchart for explaining details of the drawing processing step 20 of FIG. First, for the three-dimensional model to be drawn, n (n = 2, 3, 4,...) Viewpoint numbers m (m = 1, 2,... N) of viewpoints and color components to be drawn A stencil reference value is determined from one of the (RGB components) (step 201). Here, the stencil reference value is specified as a value to be compared with the value in the stencil buffer. Next, a color mask is determined so that only one of the RGB components is drawn in the frame buffer (step 202). The color mask, for example, when writing only the R component, masks the other components, the G component, and the B component, and passes only the R component. Then, the stencil reference value determined in step 201 is compared with the element value of the stencil pattern, and the color mask determined in step 202 is applied to the pixel portion corresponding to the matched value, and A three-dimensional model is drawn using only one component (step 203). Then, in step 204, it is determined whether or not all the RGB components have been drawn. If there is any remaining color, the color is changed to the next color (step 205), and the process returns to step 201 where the stencil reference value is determined. This is repeated for all three components, and when all the RGB components have been completed, the process proceeds from step 204 to step 206. At step 206, it is determined whether or not drawing has been performed for all viewpoints. If there is still a viewpoint, the viewpoint is changed to the next viewpoint, that is, the viewpoint number m + 1 (where m <n) (step 207). The process returns to step 201 for determining a stencil reference value. The process of drawing all the RGB components is also performed for the (m + 1) th viewpoint. These steps are repeated until all viewpoints, that is, the n-th viewpoint, are drawn for all viewpoints, so that the drawing process ends and the stereoscopic image processing method of the present invention ends.
[0020]
Hereinafter, a case where the image processing method of the present invention is applied to an autostereoscopic display device of an arrangement example of each RGB component of each viewpoint in the case of two viewpoints illustrated in FIG. 2 will be specifically described. Note that the present invention is not limited to this, and various changes can be made based on the number of viewpoints, the arrangement of phosphors and color filters of the three primary colors of RGB of the display device, and the shape of a slit provided on the front surface of the display device. An example of creating a stencil pattern stored in step 10 of FIG. 3 will be described. The stencil buffer, by its nature, can only write to the frame buffer in pixel units. In the present invention, each RGB element is written for one viewpoint. Referring to the upper left pixel in FIG. 2, the pixel includes an R component (hereinafter referred to as “left-R”) of the left viewpoint, “right-G”, and “left-B”. Since the element value of the stencil pattern is defined in units of one pixel, the element value of the stencil pattern in this portion is set to, for example, "1" for convenience. According to the present invention, for one viewpoint (for example, a left viewpoint), writing is performed for each of the RGB components using a color mask. For example, after “left-R”, “left-G” and “left-R” are used. B ". It is not necessary to write in the order of R, G, and B. The above example is merely an example, and the writing order may be determined arbitrarily. Further, writing may be performed for each viewpoint for one color component. That is, the viewpoint may be changed without changing the color mask. Next, in FIG. 2, the component of “left-G” is, for example, a pixel immediately below the above-mentioned pixel, and thus has an element value different from the above-described stencil pattern element value, for example, “2”. . Next, “right-R” is written. This is to write to a pixel including “left-G”, and this pixel is a pixel whose stencil pattern element value has already been set to “2”. From these, the relationship between the pixel (element) to be written and the element value of the stencil pattern as shown in FIG. 5 can be derived. That is, the element value of the stencil pattern corresponding to the pixel consisting of “left-R”, “right-B”, and “right-G” is “1”, and “left-G”, “right-R”, “right” The element value of the stencil pattern corresponding to the pixel consisting of “−B” is “2”. As described above, in the stencil pattern, a common element value is given to a pixel having the same viewpoint relation with respect to each of the RGB components forming one pixel. The arrows in FIG. 5 indicate the order of writing. Therefore, a stencil pattern to be stored in the stencil buffer corresponding to the arrangement example in FIG. 2 is a pattern as shown in FIG. It should be noted that the numerals 1 and 2 in the figure are element values for specifying the pixel to be drawn, and are numerical values given for convenience. The stencil pattern created in this way is stored in a stencil buffer (step 10 in FIG. 3).
[0021]
Therefore, the process of determining the stencil reference value will be described with reference to FIGS. 2 and 6. For example, when "left-R" is written, the stencil reference value is set to "1" (step 201 in FIG. 4). The color mask may be set so that only the R component can be written (step 202 in FIG. 4). Thereafter, the stencil reference value is compared with the stencil element value, and the three-dimensional model is drawn on the frame buffer using a color mask (step 203 in FIG. 4). Then, when writing the next “left-G”, the stencil reference value may be set to “2” and the color mask may be set so that only the G component can be written. By performing the same for other color components (step 204 in FIG. 4) and the viewpoint / color component on the right side (step 207 in FIG. 4), a composite image as shown in FIG. 2 can be generated.
[0022]
In the case of a stereoscopic image with two viewpoints, two identical viewpoints are included in one pixel. Therefore, by setting a color mask so that two predetermined components of the RGB components can be simultaneously written, Since the step of setting the mask can be partially reduced, further speeding up of the image synthesizing process can be expected.
[0023]
As described above, by using the stencil buffer and the color mask, it is possible to directly write data into the frame buffer in units of one color component, so that there is no bottleneck between the main memory and the frame buffer. This makes it possible to perform drawing at a higher speed than when an image is generated and written into the frame buffer. Therefore, it is possible to synthesize images at high speed, and it is possible not only to generate stereoscopic image image data of a still image but also to generate moving image data for a stereoscopic image.
[0024]
Next, another example of a combined arrangement will be described. FIG. 7 is a partially enlarged view of a display screen showing an example of the arrangement of each pixel of an image of each viewpoint displayed on the autostereoscopic display device for four viewpoints. The figure shows, for example, in an oblique-barrier autostereoscopic display device in which an optical filter having slits arranged in steps as shown in FIG. Of the RGB components are arranged so as to form one image for an autostereoscopic display device and synthesized. Further, the optical filter shown in FIG. 8 has a slit pattern capable of barrier in units of RGB components in one pixel. Although the slit pattern in FIG. 8 is an oblique slit that goes from left to right, the present invention is characterized in that it is possible to draw in the frame buffer in units of RGB components in one pixel. The hardware configuration is not limited, and can be arbitrarily written in any arrangement. For example, if the slit is an oblique slit that goes down from right to left, the arrangement of each pixel of each pixel of the image of each viewpoint may be changed accordingly. Further, instead of a slit, a filter having a hole shape may be used. Further, if it is not considered that the degradation of resolution is dispersed in the horizontal and vertical directions, it is of course possible to apply the present invention to a vertical slit type autostereoscopic display device. As described above, the present invention is not limited to the hardware configuration, and various synthesis processes can be performed in accordance with an autostereoscopic display device to be used.
[0025]
Similar to the stencil pattern for the two viewpoints described with reference to FIGS. 2 and 5, the stencil pattern for the arrangement example of FIG. 7 can be created as follows. Referring to the upper left pixel of the arrangement after the combination in FIG. 7, this pixel is composed of the R component of viewpoint 1 (hereinafter, referred to as “1-R”), “2-G”, and “3-B”. ing. Since the element value of the stencil pattern is defined in units of one pixel, the element value of the stencil pattern in this portion is set to, for example, "1" for convenience. According to the present invention, for each viewpoint (for example, viewpoint 1), writing is performed for each of the RGB components using a color mask, so, for example, after “1-R”, “1-G”, “1-G” B ". Note that it is not necessary to write in the order of R, G, and B, and the above is only an example, and the writing order may be determined arbitrarily. Further, writing may be performed for each viewpoint for one color component. That is, the viewpoint number may be changed without changing the color mask. Next, in FIG. 7, the component of “1-G” is, for example, a pixel immediately below the above-mentioned pixel, and thus has an element value different from the above-mentioned stencil pattern element value, for example, “2”. . Similarly, “1-B” sets the element value to “3”. Next, “2-R” is written for viewpoint 2, and this pixel is a pixel below the pixel containing “1-B”, so that another element value is “4”. Next, “2-G” is written, which is to be written to a pixel including “1-R”, and is a pixel for which the element value of the stencil pattern has already been set to “1”. From these, the relationship between the pixel (element) to be written and the element value of the stencil pattern as shown in FIG. 9 can be derived. That is, the element value of the stencil pattern corresponding to the pixel consisting of “1-R”, “2-G”, and “3-B” is “1”, and “1-G”, “2-B”, “4” The element value of the stencil pattern corresponding to the pixel including “−R” is “2”, and the element value corresponding to “1-B”, “3-R”, and “4-G” is “3”; Element values corresponding to “2-R”, “3-G”, and “4-B” are “4”. Note that the arrows in FIG. 9 indicate the order of writing. Therefore, the stencil pattern to be stored in the stencil buffer corresponding to the arrangement example of FIG. 7 is a pattern as shown in FIG. Note that the numerals 1 to 4 in the drawing are element values for specifying the pixel to be drawn, and are numerical values given for convenience. The stencil pattern created in this way is stored in a stencil buffer (step 10 in FIG. 3). FIG. 11 shows a state in which the stencil patterns in FIG. 10 and the arrangement example of the composite image in FIG. 7 are superimposed so that the relationship becomes clearer.
[0026]
Therefore, the process of determining the stencil reference value will be described with reference to FIG. 11. For example, when "1-R" is written, the stencil reference value is set to "1" (step 201 in FIG. 4), and the color mask is changed. What is necessary is just to set so that only the R component can be written (step 202 in FIG. 4). Thereafter, the stencil reference value is compared with the stencil element value, and the three-dimensional model is drawn on the frame buffer using a color mask (step 203 in FIG. 4). Then, when writing the next “1-G”, the stencil reference value may be set to “2” and the color mask may be set so that only the G component can be written. These operations are performed for another color component (step 204 in FIG. 4), and similarly for another viewpoint / color component (step 207 in FIG. 4). An image can be generated.
[0027]
As described above, by using the stencil buffer and the color mask, it is possible to directly write data to the frame buffer in units of one color component. Higher speed drawing becomes possible. Even when the number of viewpoints increases, high-speed drawing is possible using the stencil buffer, so it is possible not only to generate image data for stereoscopic images of still images, but also to generate moving image data for stereoscopic images. It becomes.
[0028]
Next, yet another example of a combined arrangement will be briefly described. FIG. 12 is a diagram illustrating an arrangement example of each pixel of an image of each viewpoint displayed on the autostereoscopic display device for four viewpoints, and an optical filter used for the pixel. Similarly to the above description, according to the present invention, for example, when the stencil reference value is changed and written in the order of “1-R”, “1-G”, “1-B”, “2-R”,. Then, the stencil pattern as shown in FIG. 13 may be stored in the stencil buffer. Then, by applying a color mask of each component to a pixel where the stencil reference value and the element value of the stencil pattern match, an image of an arrangement example as shown in the figure can be generated.
[0029]
As described above, the stereoscopic image processing method of the present invention creates a predetermined stencil pattern in accordance with the arrangement of the color filters of the autostereoscopic display device, the structure of the optical filters such as the slits, and the combined arrangement of the stereoscopic images according to the arrangement. However, when writing to the frame buffer, writing can be performed using a stencil buffer and a color mask, so that the present invention can be applied to any combination arrangement.
[0030]
Next, a method of generating moving image data using the stereoscopic image processing method of the present invention will be described with reference to FIG. FIG. 14 is a flowchart for explaining the flow of the stereoscopic image processing method for generating moving image data according to the present invention. In the figure, the steps denoted by the same reference numerals as those in FIG. 3 represent the same steps, and therefore, redundant description will be omitted. As shown in the figure, in the case of the present embodiment, a step 30 of determining the position and orientation of the three-dimensional model is provided between the step 10 of storing the stencil pattern in the stencil buffer and the drawing processing 20, unlike the embodiment of FIG. Is a different point.
[0031]
After the step 10 of creating a stencil pattern and storing it in the stencil buffer, the position and orientation of the three-dimensional model are determined (step 30). A rendering process is performed on the position and orientation determined here (step 20), and a multi-view image is synthesized to be image data for a stereoscopic image to create one frame. When the creation of one frame is completed, the process returns to step 30 again to advance to the next frame (step 40), determines the position and orientation of the three-dimensional model in the next frame, and performs drawing processing. By repeating this, moving image data is generated.
[0032]
As described above, since the three-dimensional image processing method of the present invention can be used for synthesizing at higher speed, it is not only necessary to prepare a plurality of images in advance and simply reproduce them, but also to perform real-time synthesizing on the spot. Rendering and the like are also possible. Therefore, for example, even when the viewer of the autostereoscopic display device freely rotates and moves the three-dimensional model on the screen using the input means such as a mouse, the input means of the input means remains displayed in a three-dimensional manner. It is also possible to generate an image that follows the movement in real time. Note that the frame rate depends on the specifications of the rendering machine, but if the frame rate is about 10 frames / sec, the motion is somewhat smooth.
[0033]
It should be noted that the stereoscopic image processing method of the present invention is not limited to the illustrated example described above, and it goes without saying that various changes can be made without departing from the spirit of the present invention. For example, the number of viewpoints specifically exemplified in the above embodiment is merely an example, and various combinations can be made as long as the number of viewpoints is two or more. Similarly, the stencil pattern and the stencil reference value are based on the arrangement of the color filters and the arrangement of the optical filters such as the slits of the autostereoscopic display device, and are limited to those specifically exemplified in the above embodiments. Instead, various changes can be made depending on the arrangement of the color filters of the autostereoscopic display device and the structure of the optical filters such as slits.
[0034]
【The invention's effect】
As described above, according to the three-dimensional image display method of the present invention, image data for a three-dimensional image can be generated at high speed, and even when images of many viewpoints are synthesized, high-resolution An excellent effect of being able to generate the image data for a three-dimensional image can be obtained.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an example of pixel arrangement at each viewpoint in the case of four viewpoints in an oblique barrier method.
FIG. 2 is a diagram for explaining an example in which information of a plurality of viewpoints is written in one pixel.
FIG. 3 is a flowchart for explaining the flow of the stereoscopic image processing method of the present invention.
FIG. 4 is a flowchart for explaining a drawing process in FIG. 3;
FIG. 5 is a diagram for explaining a relationship between a pixel to be written and an element value of a stencil pattern with respect to the arrangement example of the composite image illustrated in FIG. 2;
FIG. 6 is a diagram illustrating a stencil pattern used in the arrangement example of the composite image illustrated in FIG. 2;
FIG. 7 is a partially enlarged view of a display screen showing one arrangement example of each pixel of an image of each viewpoint displayed on the autostereoscopic display device.
FIG. 8 is a diagram for explaining an optical filter having slits arranged in a staircase, which is used in the example of arrangement of the composite image shown in FIG. 7;
FIG. 9 is a diagram for explaining a relationship between a pixel to be written and an element value of a stencil pattern with respect to the arrangement example of the composite image illustrated in FIG. 7;
FIG. 10 is a diagram showing a stencil pattern used in the example of arrangement of the composite image shown in FIG. 7;
FIG. 11 is a diagram for explaining a relationship between an example of arrangement of the combined image shown in FIG. 7 and the stencil pattern shown in FIG. 10;
FIG. 12 is a diagram illustrating another arrangement example of each pixel of an image of each viewpoint displayed on the autostereoscopic display device and an optical filter used for the pixel;
FIG. 13 is a diagram illustrating a stencil pattern used in the example of arrangement of the composite image illustrated in FIG. 12;
FIG. 14 is a flowchart illustrating a flow of a stereoscopic image processing method for generating moving image data according to the present invention.

Claims (5)

裸眼立体視表示装置に立体モデルを立体的に表示するために、n個(n=2,3,4・・・)の視点から立体モデルを見たRGB画像を合成し、立体画像用画像データを生成する立体画像処理方法であって、該方法は、
マスク情報を格納するステンシルバッファに、前記裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、
立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、
前記決定されたステンシル参照値に対応する画素に対して、前記RGB成分のうちの前記少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、
前記決定されたステンシル参照値と前記ステンシルパターンの要素値を照合し、一致した値に対応する画素に、前記決定されたカラーマスクに基づき前記少なくとも1成分で立体モデルを描画する過程と、
RGB成分のうちの残りの他の成分に対して、前記ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程とを行う、色成分を変更して描画する過程と、
m+1番目(但し、m<n)の視点に対して、前記ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、色成分を変更して描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程と、
を具備し、これらにより立体画像用画像データを生成することを特徴とする立体画像処理方法。
In order to stereoscopically display the stereoscopic model on the autostereoscopic display device, RGB images obtained by viewing the stereoscopic model from n (n = 2, 3, 4. A stereoscopic image processing method for generating
In a stencil buffer storing mask information, according to the autostereoscopic display device, a step of creating and storing a predetermined stencil pattern including element values for specifying pixels to be drawn,
Determining a stencil reference value from the viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn for the three-dimensional model;
Determining a color mask for a pixel corresponding to the determined stencil reference value so as to render the at least one of the RGB components in a frame buffer;
Comparing the determined stencil reference value and the element value of the stencil pattern, and rendering a stereo model with the at least one component based on the determined color mask on a pixel corresponding to the matched value;
The process of determining the stencil reference value, the process of determining a color mask, and the process of drawing a three-dimensional model are performed on the remaining RGB components. Process
For the (m + 1) th viewpoint (where m <n), a process of determining the stencil reference value, a process of determining a color mask, a process of drawing a three-dimensional model, and a process of changing color components And repeating these until the n-th viewpoint is reached.
A stereoscopic image processing method comprising generating image data for a stereoscopic image by using these.
裸眼立体視表示装置に立体モデルを立体的に表示するために、n個(n=2,3,4・・・)の視点から立体モデルを見たRGB画像を合成し、立体画像用画像データを生成する立体画像処理方法であって、該方法は、
マスク情報を格納するステンシルバッファに、前記裸眼立体視表示装置に応じて、描画する画素を特定するための要素値からなる所定のステンシルパターンを作成して格納する過程と、
立体モデルに対して、視点番号m(m=1,2,・・・n)と描画するRGB成分のうちの少なくとも1成分とから、ステンシル参照値を決定する過程と、
前記決定されたステンシル参照値に対応する画素に対して、前記RGB成分のうちの前記少なくとも1成分をフレームバッファに描画するようにカラーマスクを決定する過程と、
前記決定されたステンシル参照値と前記ステンシルパターンの要素値を照合し、一致した値に対応する画素に、前記決定されたカラーマスクに基づき前記少なくとも1成分で立体モデルを描画する過程と、
m+1番目(但し、m<n)の視点に対して、前記ステンシル参照値を決定する過程と、立体モデルを描画する過程とを行い、これらをn番目の視点になるまで繰り返す、視点を変更して描画する過程と、
RGB成分のうちの残りの他の成分に対して、前記ステンシル参照値を決定する過程と、カラーマスクを決定する過程と、立体モデルを描画する過程と、視点を変更して描画する過程とを行う、色成分を変更して描画する過程と、
を具備し、これらにより立体画像用画像データを生成することを特徴とする立体画像処理方法。
In order to stereoscopically display the stereoscopic model on the autostereoscopic display device, RGB images obtained by viewing the stereoscopic model from n (n = 2, 3, 4. A stereoscopic image processing method for generating
In a stencil buffer storing mask information, according to the autostereoscopic display device, a step of creating and storing a predetermined stencil pattern including element values for specifying pixels to be drawn,
Determining a stencil reference value from the viewpoint number m (m = 1, 2,... N) and at least one of the RGB components to be drawn for the three-dimensional model;
Determining a color mask for a pixel corresponding to the determined stencil reference value so as to render the at least one of the RGB components in a frame buffer;
Comparing the determined stencil reference value and the element value of the stencil pattern, and rendering a stereo model with the at least one component based on the determined color mask on a pixel corresponding to the matched value;
For the (m + 1) th viewpoint (where m <n), the process of determining the stencil reference value and the process of drawing a stereo model are performed, and these processes are repeated until the viewpoint becomes the nth viewpoint. And drawing process,
The process of determining the stencil reference value, the process of determining a color mask, the process of drawing a stereo model, and the process of changing the viewpoint with respect to the remaining RGB components are described. Performing the process of changing the color components and drawing;
A stereoscopic image processing method comprising generating image data for a stereoscopic image by using these.
請求項1又は請求項2に記載の立体画像処理方法において、前記視点が2個(n=2)の場合、前記カラーマスクを決定する過程は、前記決定されたステンシル参照値に応じて、前記RGB成分のうちの所定の2成分をフレームバッファに描画するようにカラーマスクを決定する過程であり、前記立体モデルを描画する過程は、前記決定されたステンシル参照値に応じて、前記決定されたカラーマスクに基づき前記2成分で立体モデルを描画する過程であることを特徴とする立体画像処理方法。3. The stereoscopic image processing method according to claim 1, wherein, when the number of viewpoints is two (n = 2), the step of determining the color mask is performed in accordance with the determined stencil reference value. 4. Determining a color mask so that two predetermined components of the RGB components are drawn in a frame buffer; and drawing the three-dimensional model, wherein the step of drawing the three-dimensional model is performed according to the determined stencil reference value. A method of drawing a three-dimensional model using the two components based on a color mask. 請求項1乃至請求項3の何れかに記載の立体画像処理方法において、前記ステンシルパターンは、1画素を構成するRGB成分と各成分に対する視点番号の関係が等しい画素に対しては共通の要素値が与えられることを特徴とする立体画像処理方法。4. The stereoscopic image processing method according to claim 1, wherein the stencil pattern has a common element value for pixels having the same relationship between the RGB components forming one pixel and viewpoint numbers for each component. 5. Is provided. 請求項1乃至請求項4の何れかに記載の立体画像処理方法であって、さらに、前記所定のステンシルパターンを格納する過程の後であって前記ステンシル参照値を決定する過程の前に、立体モデルの位置や向きを決定する過程を有し、前記立体画像用画像データが生成された後に、前記立体モデルの位置や向きを決定する過程に戻り、これらを繰り返すことで複数のフレームを作成して立体画像用の動画像データを生成することを特徴とする立体画像処理方法。5. The stereoscopic image processing method according to claim 1, further comprising: storing the predetermined stencil pattern and before determining the stencil reference value. 5. It has a process of determining the position and orientation of the model, and after the image data for the stereoscopic image is generated, returns to the process of determining the position and orientation of the stereoscopic model, and repeats these to create a plurality of frames. A three-dimensional image processing method for generating moving image data for a three-dimensional image.
JP2003129793A 2003-05-08 2003-05-08 Stereoscopic image processing method Expired - Lifetime JP4267364B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003129793A JP4267364B2 (en) 2003-05-08 2003-05-08 Stereoscopic image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003129793A JP4267364B2 (en) 2003-05-08 2003-05-08 Stereoscopic image processing method

Publications (2)

Publication Number Publication Date
JP2004334550A true JP2004334550A (en) 2004-11-25
JP4267364B2 JP4267364B2 (en) 2009-05-27

Family

ID=33505496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003129793A Expired - Lifetime JP4267364B2 (en) 2003-05-08 2003-05-08 Stereoscopic image processing method

Country Status (1)

Country Link
JP (1) JP4267364B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284619A (en) * 2005-03-31 2006-10-19 Sanyo Epson Imaging Devices Corp Image display apparatus
JP2007094027A (en) * 2005-09-29 2007-04-12 Sanyo Epson Imaging Devices Corp Electro-optic device and driving method thereof
JP2007249398A (en) * 2006-03-14 2007-09-27 Seiko Epson Corp Image processing system, display device, and image processing method
JP2012141400A (en) * 2010-12-28 2012-07-26 Sony Corp Driving method of stereoscopic display device, and stereoscopic display device
KR20150027679A (en) * 2013-09-04 2015-03-12 삼성전자주식회사 Method and apparatus for processing image
US9384574B2 (en) 2013-09-04 2016-07-05 Samsung Electronics Co., Ltd. Image processing method and apparatus therefor
CN107464280A (en) * 2017-07-31 2017-12-12 广东欧珀移动通信有限公司 The matching process and device of user's 3D modeling

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284619A (en) * 2005-03-31 2006-10-19 Sanyo Epson Imaging Devices Corp Image display apparatus
JP2007094027A (en) * 2005-09-29 2007-04-12 Sanyo Epson Imaging Devices Corp Electro-optic device and driving method thereof
JP2007249398A (en) * 2006-03-14 2007-09-27 Seiko Epson Corp Image processing system, display device, and image processing method
US8115802B2 (en) 2006-03-14 2012-02-14 Seiko Epson Corporation Image processing system, display apparatus and image processing method
JP2012141400A (en) * 2010-12-28 2012-07-26 Sony Corp Driving method of stereoscopic display device, and stereoscopic display device
KR20150027679A (en) * 2013-09-04 2015-03-12 삼성전자주식회사 Method and apparatus for processing image
KR101579112B1 (en) 2013-09-04 2016-01-04 삼성전자주식회사 Method and apparatus for processing image
US9384574B2 (en) 2013-09-04 2016-07-05 Samsung Electronics Co., Ltd. Image processing method and apparatus therefor
CN107464280A (en) * 2017-07-31 2017-12-12 广东欧珀移动通信有限公司 The matching process and device of user's 3D modeling
CN107464280B (en) * 2017-07-31 2020-08-07 Oppo广东移动通信有限公司 Matching method and device for user 3D modeling

Also Published As

Publication number Publication date
JP4267364B2 (en) 2009-05-27

Similar Documents

Publication Publication Date Title
EP1143747B1 (en) Processing of images for autostereoscopic display
JP3944188B2 (en) Stereo image display method, stereo image imaging method, and stereo image display apparatus
CN1977544B (en) 3D display method and apparatus
JP4489610B2 (en) Stereoscopic display device and method
US20100171811A1 (en) Method and device for the creation of pseudo-holographic images
AU2005331138A1 (en) 3D image generation and display system
US8731279B2 (en) Method and device for generating multi-viewpoint image
JP5107564B2 (en) Image display device
JP6060329B2 (en) Method for visualizing 3D image on 3D display device and 3D display device
JP2008228199A (en) Three-dimensional image display device, method for displaying three-dimensional image, and structure of three-dimensional image data
CN101803393A (en) Method and arrangement for three-dimensional representation
CN101507287A (en) Three-dimensional image display device and three-dimensional image display method
US8723920B1 (en) Encoding process for multidimensional display
US20120069004A1 (en) Image processing device and method, and stereoscopic image display device
CN103745448A (en) Rapid generating method for ultrahigh-resolution composite image in raster 3D displaying
US20180249145A1 (en) Reducing View Transitions Artifacts In Automultiscopic Displays
TWI387934B (en) Method and system for rendering multi-view image
JP4267364B2 (en) Stereoscopic image processing method
JP2006163547A (en) Program, system and apparatus for solid image generation
AU2010294914B2 (en) Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback
JP4119409B2 (en) 3D image display apparatus, 3D image display method, and 3D display image data generation method
WO2008012821A2 (en) Computer graphics imaging
CN108076337A (en) A kind of stereoscopic display screen splicing content mergence method
Makiguchi et al. 21‐1: Reducing Image Quality Variation with Motion Parallax for Glassless 3D Screens using Linear Blending Technology
JP7394691B2 (en) 3D display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090218

R150 Certificate of patent or registration of utility model

Ref document number: 4267364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term