JP2014216719A - 画像処理装置、立体画像表示装置、画像処理方法およびプログラム - Google Patents
画像処理装置、立体画像表示装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2014216719A JP2014216719A JP2013090595A JP2013090595A JP2014216719A JP 2014216719 A JP2014216719 A JP 2014216719A JP 2013090595 A JP2013090595 A JP 2013090595A JP 2013090595 A JP2013090595 A JP 2013090595A JP 2014216719 A JP2014216719 A JP 2014216719A
- Authority
- JP
- Japan
- Prior art keywords
- subpixel
- representative
- sub
- stereoscopic image
- ray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Generation (AREA)
Abstract
【課題】ピクセルマッピングにより発生する多重像や画像ボケなどの発生を防止する。
【解決手段】実施形態にかかる立体画像表示装置は、表示パネルと光学的開口部とを有する表示部と、前記パネルにおける複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化部と、前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択部と、各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出部と、前記代表光線の前記出射方向とモデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出部と、前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定するサブピクセル輝度算出部とを備える。
【選択図】図1
【解決手段】実施形態にかかる立体画像表示装置は、表示パネルと光学的開口部とを有する表示部と、前記パネルにおける複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化部と、前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択部と、各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出部と、前記代表光線の前記出射方向とモデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出部と、前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定するサブピクセル輝度算出部とを備える。
【選択図】図1
Description
本発明の実施形態は、画像処理装置、立体画像表示装置、画像処理方法およびプログラムに関する。
従来、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置などの医用画像診断装置の分野では、3次元の医用画像(ボリュームデータ)を生成可能な装置が実用化されている。また、近年では、ボリュームデータを任意の視点からレンダリングする技術が実用化されており、ボリュームデータを複数の視点からレンダリングして立体画像表示装置に立体的に表示することが検討されている。
立体画像表示装置では、視聴者は特殊なメガネを使用せずに裸眼で立体画像を観察することができる。このような立体画像表示装置は、視点の異なる複数の画像(以下ではそれぞれの画像を視差画像とよぶ)を表示し、これらの視差画像の光線を、光学的開口部(例えばパララックスバリア、レンチキュラレンズなど)によって制御する。この際、表示する画像は、その画素が光学的開口部を通して覗いた場合に意図した方向で意図した画像が観察されるように並びかえられたものである必要がある。このような画素の並べ替え方法は、ピクセルマッピングと呼ばれる。
光学的開口部とそれに合わせたピクセルマッピングによって制御された光線は、視聴者の両眼に導かれる。その際、視聴者の観察位置が適切であれば、視聴者は立体像を認識できる。このように視聴者が立体像を観察可能な領域を視域という。
視差画像を生成する際の視点数はあらかじめ決められており、一般に表示パネルのすべてのピクセルの輝度情報を決定するのに十分ではない。そのため、視差画像から輝度情報が決定されないピクセルについては、最も近い視点の視差画像の輝度情報を利用する、近傍の視点の視差画像の輝度情報をもとに線形補間を行うなどにより輝度値が決定される。
しかしながら、本来存在しない情報を補間処理により求めるため、異なる視点の視差画像がブレンドされてしまう。その結果、本来1つであった画像のエッジ部分が2つ以上に重なって見えたり(以下、多重像という)、画像全体がぼけて見えたり(以下、画像ボケという)などの問題が発生する。
C. V. Berkel, "Image preparation for 3D-LCD," Proc. SPIE, Stereoscopic Displays and Virtual Reality Systems, vol. 3639, pp. 84-91, 1999.
以下の実施形態では、ピクセルマッピングにより発生する多重像や画像ボケなどの発生を防止することが可能な画像処理装置、立体画像表示装置、画像処理方法およびプログラムを提供することを目的とする。
実施形態にかかる立体画像表示装置は、立体物の形状が表現されたモデルデータから生成される立体画像を表示可能な立体画像表示装置であって、複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部と、前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化部と、前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択部と、各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出部と、前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出部と、前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成するサブピクセル輝度算出部と、を備える。
また、実施形態にかかる画像処理方法は、複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部に、立体物の形状が表現されたモデルデータから生成される立体画像を表示する画像処理方法であって、前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画し、前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化し、各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出し、前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出し、前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成することを含む。
また、実施形態にかかるプログラムは、複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部に、立体物の形状が表現されたモデルデータから生成される立体画像を表示可能な立体画像表示装置のコンピュータを動作させるためのプログラムであって、前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化ステップと、前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択ステップと、各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出ステップと、前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出ステップと、前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成するサブピクセル輝度算出ステップと、を前記コンピュータに実行させる。
また、実施形態にかかる画像処理装置は、複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部に、立体物の形状が表現されたモデルデータから生成される立体画像を表示させるための画像処理装置であって、前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化部と、前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択部と、各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出部と、前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出部と、前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成するサブピクセル輝度算出部と、を備える。
以下、添付図面を参照しながら、例示する実施形態にかかる画像処理装置、立体画像表示装置、画像処理方法およびプログラムを詳細に説明する。
(実施形態1)
まず、実施形態1にかかる画像処理装置、立体画像表示装置、画像処理方法およびプログラムを詳細に説明する。図1は、実施形態1にかかる立体画像表示装置の構成例を示すブロック図である。図1に示すように、立体画像表示装置1は、画像処理装置10と、表示装置20とを備える。画像処理装置10は、クラスタリング処理部110と、立体画像生成部120と、モデルデータ取得部130とを備える。
まず、実施形態1にかかる画像処理装置、立体画像表示装置、画像処理方法およびプログラムを詳細に説明する。図1は、実施形態1にかかる立体画像表示装置の構成例を示すブロック図である。図1に示すように、立体画像表示装置1は、画像処理装置10と、表示装置20とを備える。画像処理装置10は、クラスタリング処理部110と、立体画像生成部120と、モデルデータ取得部130とを備える。
モデルデータ取得部130は、通信網を介して他のシステムと直接的または間接的に通信する機能を備える。たとえば、モデルデータ取得部130は、医療システムが保持する医用画像等を、通信網を介して取得する。通信網の種類は任意であり、たとえばLAN(Local Area Network)やインターネットなどを適用することができる。また、立体画像表示装置1は、各部がインターネットなどのネットワーク上に分散配置されたクラウドシステムとして構成されてもよい。
クラスタリング処理部110は、サブピクセルから射出され光学的開口部を通して飛ぶ光線の方向が近いものをグループ化する。より具体的には、クラスタリング処理部110は、分割数によって予め決められるパネル21上のある範囲から出射する光線の方向を同一方向と見なし、この範囲に属するサブピクセルを1つのまとまり(以下、サブピクセルグループという)としてグループ化する処理を行う。
このクラスタリング処理部110は、光線方向量子化部111とサブピクセル選択部112とを備える。光線方向量子化部111は、あらかじめ与えられた分割数に基づいて、表示装置20におけるパネル21(図2参照)上で同一のサブピクセルグルーブを形成する範囲(以下、量子化単位領域という)を定義(区画)し、各量子化単位領域を示すパラメータ(以下、範囲パラメータという)を算出する。なお、光線方向量子化部111には、パネル21および光学的開口部23に関する配置関係や寸法等に関するパラメータ(以下、パネルパラメータという)が入力される。光線方向量子化部111は、このパネルパラメータを用いて、量子化単位領域を示す範囲パラメータを算出する。
サブピクセル選択部112は、光線方向量子化部111が算出した範囲パラメータを元に、各量子化単位領域に対応するサブピクセルを選択し、選択した1つ以上のサブピクセルをサブピクセルグループとしてグループ化する。
立体画像生成部120は、各サブピクセルの光線番号と、サブピクセルグループの情報とから、サブピクセルグループを一まとまりとしたレンダリングを行う際に使用する光線(以下、代表光線という)を算出する。なお、光線番号とは、サブピクセルからの光が光学的開口部23(図2参照)を通してどの方向に射出されるかを表す情報である。
また、立体画像生成部120は、表示装置20で表示する立体画像の視点位置や飛び出し量を規定する基準視点から、各サブピクセルグループに対して算出された代表光線ごとの視点(以下、代表視点という)を算出する。さらに、立体画像生成部120は、代表視点と、立体物の形状が表現されたモデルデータとから、サブピクセルグループごとの輝度値を求め、求めた輝度値を各サブピクセルに割り当てることにより立体画像を生成する。
この立体画像生成部120は、代表光線算出部121と輝度算出部122とサブピクセル輝度算出部123とを備える。代表光線算出部121は、各サブピクセルグループの代表光線の方向(以下、代表光線方向という)を算出する。輝度算出部122は、代表光線方向に基づいて、代表光線の始点位置および終点位置および/またはその方向ベクトルを含む情報(以下、代表光線情報という)を算出し、モデルデータと代表光線情報とから各サブピクセルグループの輝度値を算出する。サブピクセル輝度算出部123は、算出された輝度値を元にサブピクセルグループ内の各サブピクセルの輝度値を算出し、算出された輝度値の配列よりなる立体画像を表示装置20に入力する。
表示装置20は、立体画像を表示するパネル21と光学的開口部23とを備え、立体画像をユーザが立体視可能に表示する。なお、実施形態1で説明の際に用いるモデルデータは、ボリュームデータや境界表現モデルなどの3次元画像データであってよい。このモデルデータには、3次元の医用画像データとして用いることが可能なボリュームデータが含まれる。
つぎに、図1に示す各部(装置)について、より具体的に説明する。
・表示装置
図2は、図1における表示装置の概略構成例を示す正面図である。図3は、図2に示す表示装置の光学的開口と表示素子との関係を示す図である。なお、以下の説明において、ユーザが表示装置20によって表示された立体画像を立体視可能な範囲(領域)を視域という。
図2は、図1における表示装置の概略構成例を示す正面図である。図3は、図2に示す表示装置の光学的開口と表示素子との関係を示す図である。なお、以下の説明において、ユーザが表示装置20によって表示された立体画像を立体視可能な範囲(領域)を視域という。
図2および図3に示すように、表示装置20は、実空間上において、複数の画素22がマトリクス状に2次元配列した表示素子(以下、パネルという)21と、パネル21の前面(ユーザ側)に配置された光学的開口部23とを備える。ユーザは、光学的開口部(開口制御部ともいう)23を介して表示素子(パネル)21を観察することで、表示装置20に表示された立体画像を視認する。以下の説明では、パネル21の水平方向をX軸、鉛直方向下向きをY軸、パネル21前面の法線方向をZ軸とする。ただし、実空間に対して設定された座標系は、これに限定されるものではない。
パネル21は、立体画像を立体視可能に表示する。パネル21としては、直視型2次元ディスプレイ、たとえば有機EL(Organic Electro Luminescence)、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、投影型ディスプレイなどを用いることができる。
画素22は、たとえばRGB各色のサブピクセルを1つずつ含むまとまりを1単位としている。1つの画素22内に含まれるRGB各色のサブピクセルは、たとえばX軸に沿って配列している。ただし、これに限定されるものではなく、たとえば4色のサブピクセルを1画素としたり、RGB各色の内たとえばB成分のサブピクセルを2つ含むまとまりを1画素としたりなど、種々変形することができる。
光学的開口部23は、パネル21の各画素22からその前方(−Z方向)に向けて発散される光線を、開口部を介して所定方向に向けて出射させる。光学的開口部23には、たとえばレンチキュラレンズやパララックスバリアなどの光学素子を適用することができる。たとえばレンチキュラレンズは、微細な細長いシリンドリカルレンズが短手方向に複数配列した構成を備える。
図3に示すように、表示装置20の視域内に存在するユーザは、光学的開口部23を介することで、たとえばパネル21中の画素22の内、G成分のサブピクセルを右目R1で観察し、B成分のサブピクセルを左目L1で観察することになる。そこで、図2に示すように、光学的開口部23は、これを構成する各光学素子の延在方向がパネル21(たとえばY軸方向)に対して所定角度(たとえばθ)傾斜するように構成される。表示装置20は、この傾きによって生じる光線方向の変化に基づいて各サブピクセルの画素値が算出された立体画像を表示することで、ユーザに画像を立体視させることができる。
・モデルデータ取得部
モデルデータ取得部130は、外部からモデルデータを取得する。外部としては、たとえばハードディスクやCD(Compact Disc)などの記憶メディアに限らず、通信網で接続されたサーバなどが含まれてよい。
モデルデータ取得部130は、外部からモデルデータを取得する。外部としては、たとえばハードディスクやCD(Compact Disc)などの記憶メディアに限らず、通信網で接続されたサーバなどが含まれてよい。
また、モデルデータ取得部130と通信網を介して接続されるサーバとしては、たとえば医用画像診断装置などが挙げられる。医用画像診断装置は、3次元の医用画像データ(ボリュームデータ)を生成可能な装置である。医用画像診断装置としては、たとえばX線診断装置、X線CT装置、MRI装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission Computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、またはこれらの装置群等が挙げられる。
医用画像診断装置は、被検体を撮影することによりボリュームデータを生成する。たとえば、医用画像診断装置は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数(例えば300〜500枚)のスライス画像(断面画像)を再構成することで、ボリュームデータを生成する。つまり、被検体の体軸方向に沿って撮影された複数のスライス画像が、ボリュームデータである。また、医用画像診断装置により撮影された被検体の投影データやMR信号等自体をボリュームデータとしてもよい。また、医用画像診断装置により生成されたボリュームデータの中には、骨・血管・神経・腫瘍などといった、医療現場での観察対象となる物体の画像(以下、オブジェクトと呼ぶ)が含まれてもよい。さらに、ボリュームデータは、等値面を多角形のポリゴンや曲面などの幾何的要素の集合で表現したデータを含んでもよい。
・光線方向量子化部
光線方向量子化部111は、あらかじめ与えられた分割数に基づいて、パネル21上で同一のサブピクセルグルーブを形成する量子化単位領域を定義する。具体的には、3Dピクセル領域内を分割数Dnに基づいて分割した領域(量子化単位領域)のX軸方向の幅Tdを算出する。
光線方向量子化部111は、あらかじめ与えられた分割数に基づいて、パネル21上で同一のサブピクセルグルーブを形成する量子化単位領域を定義する。具体的には、3Dピクセル領域内を分割数Dnに基づいて分割した領域(量子化単位領域)のX軸方向の幅Tdを算出する。
ここで、3Dピクセル領域について説明する。図4は、3Dピクセル領域を説明するための図である。図4に示すように、3Dピクセル領域40とは、光学的開口部23の延伸方向に対してX軸を基準とした場合の水平幅Xnおよび垂直幅Ynの領域である。各3Dピクセル領域40は、光学的開口部23の延伸方向と平行な方向に分割線41ができるように、Dn個の領域(量子化単位領域)に分割される。たとえば分割数Dn=8の場合、7本の分割線41が定義される。各分割線41は、3Dピクセル領域40の境界線のうちY軸方向の成分を持った側辺40cおよび40dと平行である。また、隣り合う分割線41は、等間隔となるように配列される。隣り合う分割線41の間隔Tdは、たとえば以下の式(1)で求めることができる。なお、間隔Tdは、X軸と平行な長さである。
ここで、1つの分割線41は、3Dピクセル領域40のX座標が小さい方である側辺40cからの距離が一定である。これは、すべての分割線41に関して同じである。そのため、各分割線41上を介して射出される光の光線は、同一の方向となる。そこで、実施形態1では、3Dピクセル領域40の側辺40cまたは40dと、これに隣接する分割線41と、3Dピクセル領域40のX軸方向に平行な境界線(以下、上辺40aおよび下辺40bという)とで囲まれた領域42、ならびに、隣接する2つ分割線41と3Dピクセル領域40の上辺40aおよび下辺40bとで囲まれた領域42を、それぞれサブピクセルグループを構成する際の単位とし、これを量子化単位領域と称する。
なお、3Dピクセル領域40を区画した結果、パネル21の左端や右端に3Dピクセル領域1つ分を構成するには不十分な大きさの領域が余る場合がある。その場合、この余り部分については、例えば横方向に隣接する3Dピクセル領域40の一部を構成するものとみなし、この拡張された3Dピクセル領域40の拡張部分(余り部分)がパネル21の外側にはみ出るように3Dピクセル領域40を定義して、他の3Dピクセル領域40と同様に処理してもよい。また、その他の方法として、余り部分については黒や白などの単色を設定することにしてもよい。
また、図4中では、水平幅Xnを、光学的開口部23の各光学素子のX軸方向に沿った幅と同じとしたが、必ずしも同じである必要はない。また、上述の式(1)では、間隔Tdを常に一定としたが、必ずしも一定である必要はない。たとえば、3Dピクセル領域40の上辺40aまたは下辺40bに近いほど間隔Tdが大きく、遠ざかるほど、すなわち3Dピクセル領域40の中心に近いほど)、間隔Tdが小さくなるように構成されてもよい。
さらに、図4には、光学的開口部23を構成する個々のレンズ(バリア)の境界とパネル21の左上隅とが一致している場合を例示しているが、これらがずれている場合も考えられる。そのような場合には、各3Dピクセル領域40が定義される位置を同様の量だけずらせばよい。また、3Dピクセル領域40の位置のシフトによって左端や右端に発生する余り領域ついては、前述した処理と同様に、隣接する3Dピクセル領域40を拡張して考える方法や、生じた余り部分に単色を設定する方法などを適用することができる。
・サブピクセル選択部
サブピクセル選択部112は、光線方向量子化部111によって定義された量子化単位領域42に基づいて、それぞれの光線方向を同一方向と見なす1つ以上のサブピクセルを選定し、これらを1つのサブピクセルグループとしてグループ化する。具体的には、図5に示すように、ある量子化単位領域42について、代表点がこの量子化単位領域42に含まれるサブピクセルを全て選択する。代表点とは、たとえば各サブピクセルの左上隅や中心など、予め定められた位置であってよい。なお、図5では、各サブピクセルの左上隅を代表点とした場合を例示している。
サブピクセル選択部112は、光線方向量子化部111によって定義された量子化単位領域42に基づいて、それぞれの光線方向を同一方向と見なす1つ以上のサブピクセルを選定し、これらを1つのサブピクセルグループとしてグループ化する。具体的には、図5に示すように、ある量子化単位領域42について、代表点がこの量子化単位領域42に含まれるサブピクセルを全て選択する。代表点とは、たとえば各サブピクセルの左上隅や中心など、予め定められた位置であってよい。なお、図5では、各サブピクセルの左上隅を代表点とした場合を例示している。
サブピクセルを選択する際、サブピクセル選択部112は、この量子化単位領域42の垂直幅Ynの範囲内に属するY座標Ytそれぞれに関して、量子化単位領域42の側辺40cのX座標Xtを求める。このX座標Xtから間隔Tdの範囲(Xt+Td)内に代表点が含まれている全てのサブピクセルが、グループ化の対象となるサブピクセルである。したがって、たとえばX座標Xtがサブピクセル単位で定義されている場合、Xt+Tdの範囲内に含まれる整数値が、選択されるサブピクセルのX座標となる。たとえば、Xt=1.2、Td=2、Yt=3の場合、選択されるサブピクセルの座標は(2,3)および(3,3)の2つとなる。サブピクセル選択部112は、このような選択を垂直幅Ynの範囲内のすべてのY座標Ytについて行うことで、各量子化単位領域に関して、それぞれに代表点が属する全てのサブピクセルを選定し、これらを量子化単位領域に対応するサブピクセルグループとする。
・代表光線算出部
代表光線算出部121は、各サブピクセルグループに属する各サブピクセルの光線番号を算出する。また、代表光線算出部121は、算出した各サブピクセルの光線番号から量子化単位領域42ごとに1つの代表光線番号を算出し、算出した代表光線番号をもとに代表光線情報を算出する。より具体的には、代表光線算出部121は、パネル21の各サブピクセルから射出される光線が光学的開口部23を通して飛ぶ方向を示す光線番号を算出する。
代表光線算出部121は、各サブピクセルグループに属する各サブピクセルの光線番号を算出する。また、代表光線算出部121は、算出した各サブピクセルの光線番号から量子化単位領域42ごとに1つの代表光線番号を算出し、算出した代表光線番号をもとに代表光線情報を算出する。より具体的には、代表光線算出部121は、パネル21の各サブピクセルから射出される光線が光学的開口部23を通して飛ぶ方向を示す光線番号を算出する。
ここで、光線番号とは、パネル21の各サブピクセルから射出される光線が、光学的開口部23を介して指し示す方向である。この光線番号は、たとえば、基準視点数をNとし、光学的開口部23の延伸方向に対してX軸を基準とした3Dピクセル領域40(水平幅Xnおよび垂直幅Ynの領域)を定義し、その3Dピクセル領域40の負側の側辺40cに対応する位置から射出される光が飛ぶ方向を‘0’とし、その側辺40cからXn/Nだけ離れた位置から射出される光が飛ぶ方向を‘1’というように順に定義することで算出することができる。これには、例えば、非特許文献1に記載の方法を用いることができる。
これにより、各サブピクセルから射出された光の光線に対して、それぞれが光学的開口部23を介して指し示す方向を表す番号が光線番号として与えられる。なお、予め設定される複数の基準視点は、パネル21の中心Oを通る垂線と垂直に交わり、且つ、X軸方向と平行な線上に、たとえば等間隔に配列しているものとする。
光学的開口部23の構成要素である各光学素子のX軸方向に沿った幅と水平幅Xnとが一致していない場合、光線方向を表す光線番号は、同一の3Dピクセル領域40内でのみの通し番号となる。すなわち、ある3Dピクセル領域40の光線番号は、他の3Dピクセル領域40における同じ光線番号とは同一の方向とならない。ただし、同様の光線番号を1つの集合にまとめた場合、各集合に属する光線番号に対応する光線は、集合毎に異なる点(以下、集光点という)で集光することになる。つまり、ある点で集光する光線同士は同じ光線番号を持ち、これとは異なる光線番号の集合に属する光線同士は、上記集光点とは異なる同一の集光点に集光する。
一方、光学的開口部23の構成要素である各光学素子のX軸方向に沿った幅と水平幅Xnとが一致する場合、同じ光線番号を持つ光線同士は平行光線に限りなく近くなる。そのため、全ての3Dピクセル領域40における同一の光線番号の光線が同一の方向を差すことになる。また、このときの各集合に属する光線番号に対応する光線の集光点は、パネル21から無限遠の位置に存在することになる。
また、基準視点とは、レンダリングしたい空間(以下、レンダリング空間という)に対して一定の間隔で定義された複数の視点(コンピュータグラフィクス分野ではカメラと称される場合がある)である。複数の基準視点と光線番号とを対応付ける方法としては、たとえば、パネル21と向かい合わせで考えた場合に最も右にある視点から順に小さい光線番号を対応付ければよい。この場合、最も右に位置する基準視点に光線番号‘0’が対応づけられ、その次に右側に存在する基準視点に光線番号‘1’が対応づけられることになる。
図6は、パネルに対して最も右にある基準視点から順に小さい光線番号を対応付けた場合のパネルと基準視点との関係を示す図である。図6に示すように、パネル21に対して#0〜#3の4つの基準視点30を設定した場合、最も右に位置する基準視点#0から順に、整数の光線番号‘0’〜‘3’を対応付ける。隣接する基準視点30間の間隔を大きくするほど視差が大きくなり、それにより、ユーザに対してより立体感のある立体画像を表示することができる。つまり、基準視点#0〜#3の間隔を調整することで、立体画像の飛び出し量を制御することが可能である。
ここで、サブピクセルグループに含まれるn個のサブピクセルの光線番号をそれぞれv1〜vnとした場合、代表光線番号v’は例えば、以下の式(2)で求めることができる。式(2)において、v1〜vnはサブピクセルグループ内の各サブピクセルの光線番号を示し、nはサブピクセルグループに属するサブピクセルの数を示す。
ただし、各量子化単位領域42の代表光線番号の求め方は、上記式(2)を用いた方法に限定されない。たとえば、上記式(2)を用いる方法のような、光線番号の中央値を代表光線番号とするという単純な平均を用いる代わりに、重み付き平均を用いて決定するなど、種々の方法が考えられる。重み付け平均を用いる場合、その重みは、たとえばサブピクセルの色成分の種類によって予め決定されていてもよい。その際、一般にはG成分の視感度が高いため、G成分を表すサブピクセルの光線番号の重みを大きくしてもよい。
また、代表光線算出部121は、算出した代表光線番号から、代表光線の始点位置および終点位置、および/または、代表光線の方向ベクトルを算出する。
・輝度算出部
また、輝度算出部122は、各量子化単位領域42の代表光線情報とボリュームデータとから、量子化単位領域42ごとの輝度値を算出する。輝度値の算出方法としては、コンピュータグラフィクスの分野で広く知られているレイキャスティングやレイトレーシングなどの手法を用いることができる。レイキャスティングとは、視点から光線を追跡し、光線と物体の交点における色情報を積算することでレンダリングを行う方法である。レイトレーシングとは、レイキャスティングにおいて反射光をさらに考慮するものである。
また、輝度算出部122は、各量子化単位領域42の代表光線情報とボリュームデータとから、量子化単位領域42ごとの輝度値を算出する。輝度値の算出方法としては、コンピュータグラフィクスの分野で広く知られているレイキャスティングやレイトレーシングなどの手法を用いることができる。レイキャスティングとは、視点から光線を追跡し、光線と物体の交点における色情報を積算することでレンダリングを行う方法である。レイトレーシングとは、レイキャスティングにおいて反射光をさらに考慮するものである。
・サブピクセル輝度算出部
サブピクセル輝度算出部123は、輝度算出部122で算出された量子化単位領域42ごとの輝度値に基づいて、この量子化単位領域42に対応するサブピクセルグループ内の各サブピクセルの輝度値を決定する。具体的には、図7に示すように、各量子化単位領域42に対して輝度算出部122が算出した輝度値の色成分41r、41gおよび41bで、サブピクセルグループ内の各サブピクセル43r1、43r2、43g1、43g2および43b1の値を置き換える。たとえば、サブピクセルグループ内のサブピクセル43g1および43g2がG成分を表現するものである場合、輝度算出部122で算出された輝度値のG成分41gをそのサブピクセル43g1および43g2のG成分とする。
サブピクセル輝度算出部123は、輝度算出部122で算出された量子化単位領域42ごとの輝度値に基づいて、この量子化単位領域42に対応するサブピクセルグループ内の各サブピクセルの輝度値を決定する。具体的には、図7に示すように、各量子化単位領域42に対して輝度算出部122が算出した輝度値の色成分41r、41gおよび41bで、サブピクセルグループ内の各サブピクセル43r1、43r2、43g1、43g2および43b1の値を置き換える。たとえば、サブピクセルグループ内のサブピクセル43g1および43g2がG成分を表現するものである場合、輝度算出部122で算出された輝度値のG成分41gをそのサブピクセル43g1および43g2のG成分とする。
立体画像生成部120は、以上のようにして算出された輝度値の配列よりなる立体画像を生成する。生成された立体画像は表示装置20に入力されて、立体視可能に表示される。
つづいて、画像処理装置10の動作について、図面を参照して詳細に説明する。図8は、画像処理装置10の全体動作例を示すフローチャートである。図8に示すように、本動作では、まず、光線方向量子化部111において、あらかじめ決められた分割数に応じて3Dピクセル領域40に対する分割線41が算出され、算出された分割線41に基づいて量子化単位領域42が算出される(ステップS10)。なお、算出の際の基準となる3Dピクセル領域40の定義は前述の通りであってよい。
つぎに、サブピクセル選択部112において、算出された量子化単位領域42の内、未選択の量子化単位領域42が1つ選択される(ステップS20)。量子化単位領域42の選択方法には、たとえばラウンドロビンなど、種々の方法を用いることができる。つづいて、サブピクセル選択部112において、選択された量子化単位領域42に代表点が含まれる全てのサブピクセルが選択され、これらがグループ化されてサブピクセルグループが決定される(ステップS21)。
つぎに、立体画像生成部120において、代表光線情報の算出からサブピクセルの輝度値の算出までを行う立体画像生成プロセスが実行される(ステップS30)。
その後、画像処理装置10は、ステップS10で算出された全ての量子化単位領域42に対してステップS30の立体画像生成プロセスを完了したか否かを判定し(ステップS40)、未処理の量子化単位領域42がある場合(ステップS40;NO)、ステップS10にリターンし、以降の動作を全ての量子化単位領域42に対する処理が完了するまで実行する。一方、全ての量子化単位領域42に対して処理が完了している場合(ステップS40;YES)、画像処理装置10は、算出された画素値を用いて立体画像を生成し(ステップS50)、この生成した立体画像を表示装置20へ入力し(ステップS60)、その後、処理を終了する。
ここで、図8のステップS30に示す立体画像生成プロセスについて、以下に図面を参照して説明する。図9は、立体画像生成プロセスの一例を示すフローチャートである。
立体画像生成プロセスでは、まず、代表光線算出部121において、複数の量子化単位領域42の内から未選択の量子化単位領域42が1つ選択される(ステップS301)。量子化単位領域42の選択方法には、たとえばラウンドロビンなど、種々の方法を用いることができる。つづいて、代表光線算出部121において、選択した量子化単位領域42の代表光線番号が算出される(ステップS302)。この代表光線番号の算出方法は、前述の通りであってよい。
つぎに、代表光線算出部121において、算出した代表光線番号から代表光線に関する代表光線情報が算出される。具体的には、まず、算出された代表光線番号と、予め設定されている基準視点30の位置とから、選択中の量子化単位領域42に対する代表光線の始点位置(視点位置)が算出される(ステップS303)。
ここで、図10に、レンダリング空間と代表光線の始点位置および終点位置との水平方向(レンダリング空間の幅方向)における位置関係を示す。また、図11に、レンダリング空間と代表光線の始点位置および終点位置との垂直方向(レンダリング空間の高さ方向)における位置関係を示す。なお、以下の説明では、簡略化のため、レンダリング空間24の幅Wwとパネル21の幅と、および、レンダリング空間24の高さWhとパネル21の高さとが、それぞれ一致する場合を例に挙げる。その場合、パネル21の中心Oと、レンダリング空間24の中心Oとは、一致する。
ステップS302で算出された代表光線番号が整数である場合、ステップS303では、代表光線の水平方向(パネル21の幅方向)の始点位置として、代表光線番号と対応する基準視点の位置をそのまま採用することができる。一方、算出された代表光線番号が少数値を持つ場合、ステップS303では、代表光線番号に対応する視点位置が、近傍の基準視点の位置から線形補間により算出される。図10に示すような、代表光線番号として‘2.5’が算出された例では、光線番号‘2’に対応する基準視点#2の位置と光線番号‘3’に対応する基準視点#3の位置とから、線形補間によって代表光線番号‘2.5’に対応する視点31(代表視点#2.5)の位置を特定し、この位置を代表光線の始点位置とする。なお、基準視点30は、パネル21の中心Oを通る垂線と垂直に交わり、且つ、X軸方向と平行な線上に、たとえば等間隔に配列しているため、代表光線の垂直方向(パネル21の高さ方向)の始点位置は、図11に示すように、変動しない。
つぎに、代表光線算出部121において、パネル21の中心Oから各3Dピクセル領域40に予め設定しておいた基準点25までのベクトルDv=(Dx,Dy)が求められる(ステップS304)。図12は、パネルの中心と3Dピクセル領域の基準点との位置関係を示す図である。図12に示す例では、3Dピクセル領域40の基準点25が、たとえば3Dピクセル領域40の左上隅に設定されているものとする。
つぎに、代表光線算出部121において、パネル21に対して算出されたベクトルDvを、レンダリング空間24でのベクトルDv’=(Dx’,Dy’)に変換する(ステップS305)。すなわち、3Dピクセル領域40の左上隅がレンダリング空間24のどの位置にあるかを表すベクトルDv’=(Dx’,Dy’)を求める。ここで、上述したように、レンダリング空間24の幅Wwとパネル21の幅と、および、レンダリング空間24の高さWhとパネル21の高さとが、それぞれ一致し、パネル21の中心Oとレンダリング空間24の中心Oとが一致する。そのため、ベクトルDv’は、ベクトルDvのX座標をパネル21の横幅で正規化するとともに、ベクトルDvのY座標をパネル21の縦幅で正規化し、その後、レンダリング空間24の横幅Wwと縦幅Whとを正規化後のX座標およびY座標にそれぞれ乗算することで求めることができる。
つぎに、代表光線算出部121において、変換後のベクトルDv’から、代表光線の終点位置を算出し、算出した終点位置と、ステップS303で算出した始点位置とから、代表光線のベクトルを取得する。これにより、代表光線算出部121において、選択中の量子化単位領域42の代表光線番号に対応する代表光線情報が生成される(ステップS306)。なお、この代表光線情報には、代表光線の始点位置と終点位置とが含まれていてもよい。また、この始点位置と終点位置とは、レンダリング空間24における座標であってもよい。
なお、ステップS306の処理は透視投影に相当するが、それに限るものではなく、たとえば平行投影を用いることも可能である。その場合、代表光線の始点位置にベクトルDv’が加算される。また、平行投影と透視投影を組み合わせることも可能である。その場合、ベクトルDv’の成分のうち透視投影とする成分のみを代表光線の始点位置に加算すればよい。
このように、代表校線情報を算出すると、つぎに、輝度算出部122において、代表光線情報とボリュームデータとから量子化単位領域42ごとの輝度値が算出される(ステップS307)。輝度値の算出方法は、上述したレイキャスティングやレイトレーシングなどの手法を用いてよい。
つぎに、サブピクセル輝度算出部123において、輝度算出部122で算出された量子化単位領域42ごとの輝度値に基づいて、選択中の量子化単位領域42に対応するサブピクセルグループ内の各サブピクセルの輝度値が決定される(ステップS308)。各サブピクセルに対する輝度値の決定方法は、上述において図7を用いて説明した方法と同様であってよい。
その後、立体画像生成部120は、全ての量子化単位領域42に対して上述の処理を完了したか否かを判定し(ステップS309)、完了していない場合(ステップS309;NO)、ステップS301へリターンし、以降の動作を全ての量子化単位領域42に対する処理が完了するまで実行する。一方、全ての量子化単位領域42に対する処理が完了している場合(ステップS309;YES)、図8に示す動作へリターンする。
以上のように、実施形態1によれば、視差画像を補間しながら立体画像を生成する方法に比べて、ユーザに高品質な立体像を提供することが可能となる。また、サブピクセル単位で処理しないため、高速に処理可能である。さらに、実施形態1によれば、デバイスの計算能力に応じて画質と処理速度のバランスを調整することも可能である。
ここで、実施形態1における計算量と分割数との関係について説明する。上述したように、3Dピクセル領域40は複数存在する。また、各3Dピクセル領域40は、所定の分割数でさらに分割される。そのため、実際の処理の単位である量子化単位領域42は複数存在することになる。例えば、3Dピクセル領域40が100個、分割数が8である場合、100×8=800セットの量子化単位領域42が存在することになる。その場合、図8のステップS10〜S30は、800回繰り返されることになる。このように、実施形態1における計算量は、表示装置20のサブピクセル数ではなく、3Dピクセル領域40とその分割数によって決定されるため、任意に調整することが可能である。たとえば、表示装置20が10000個のサブピクセルを備える場合、一般的にはレンダリング回数がサブピクセル数と同様の10000回となる。一方、実施形態1によれば、レンダリング回数は1つの量子化単位領域42に対して1回であるため、800セットの量子化単位領域42に対しては800回のレンダリングで立体像を表示することが可能である。
また、実施形態1では、表示装置20のサブピクセル数が増加した場合でも1つの量子化単位領域42に含まれるサブピクセル数が増加するだけであり、レンダリング回数は変化しない。このことは、ハードウェアの設計にあたって行われる処理コストの見積もりに要する作業量を低減できるという効果を奏し得る。さらに、レンダリング等の処理が量子化単位領域42を単位として独立して実行されるため、各量子化単位領域42に対する処理を並列して実行することが可能であるとともに、並列処理とした場合の速度面での効果が大きいという効果も奏し得る。
なお、3Dピクセル領域40は、通常、光学的開口部23の設計によってあらかじめ決定されるため、実際には分割数を調整する必要がある。ここで、分割数を小さくすれば間隔Tdが大きくなり、結果として量子化単位領域42のセット数が減少するため、処理が高速になるが、個々の量子化単位領域42が大きくなるため、より広い範囲の光線番号を1つのグループとしてしまい、視域内で視点を移動した場合の画質が低下する可能性がある。つまり、実施形態1では、分割数を調整することで処理速度と視点移動時の画質との関係を調整することが可能である。そこで、計算能力が比較的低いデバイスでは処理速度が上がるように分割数を調整し、計算能力が比較的高いデバイスでは高画質となるように分割数を調整するなど、使用デバイスに応じて処理速度と画質との関係を柔軟に調整することが可能である。
また、実施形態1では、分割数を調整することで、視点を静止させている場合の画質を調整することも可能である。従来では、3Dディスプレイにおいてある視点での画質を考えた場合、クロストークと呼ばれる、本来見せたい光線以外の光線の漏れ込みにより映像がボケる場合がある。クロストークの程度はハードウェアの設計によって決定され、完全になくすことは困難であるが、実施形態1によれば、分割数を小さくすることで近傍に射出される光線が同じ情報を持つようになるため、光線の漏れ込みが映像のボケとして視認されず、結果として静止している場合の画質を向上させることが可能である。このように、実施形態1では、計算能力が比較的高いデバイスにおいて分割数を少なくすることも有効である。
なお、実施形態1では、モデルデータとしてボリュームデータを用いたが、これに限定されるものではない。たとえば境界表現モデルなど、コンピュータグラフィクス分野で一般的なその他のモデルも同様に用いることが可能である。その場合にも、輝度値算出においては、同様にレイキャスティングやレイトレーシングを用いることが可能である。
また、実施形態1では、レンズやバリアなどの光学素子1つ1つの幅を基準として3Dピクセル領域40を設定したが、それに限定されるものではなく、たとえば複数の光学素子をまとめて1つの仮想的な光学素子(レンズやバリアなど)として3Dピクセル領域40を設定してもよい。この場合も、上述した方法と同様に処理を行うことが可能である。また、ステップS304において3Dピクセル領域40の左上隅を基準点25としたが、それに限定されるものではなく、3Dピクセル領域40の左上隅と右下隅との位置座標の平均により求められる中心など、3Dピクセル領域を代表する点であればどの位置に基準点25が設定されてもよい。
さらに、実施形態1では、パネル21の中心Oとレンダリング空間24の中心O(0,0,0)とが一致する場合を例に説明したが、パネル21の中心Oとレンダリング空間24の中心Oとがずれていてもよい。その場合、パネル21を基準とした座標系からレンダリング空間24の座標系へ適切な座標変換を行うことで、同様の処理を適用することが可能である。さらにまた、実施形態1では、パネル21の横幅とレンダリング空間24の幅Ww、パネル21の縦幅(高さ)とレンダリング空間24の高さ(Wh)とを一致する場合を例に説明したが、それぞれ、もしくは、それらの内の一方が異なっていてもよい。その場合、パネル21の縦横のサイズと、レンダリング空間24の縦横のサイズとを一致させるように両者の座標系を変換することで、同様の処理を適用することが可能である。さらにまた、光線番号が少数値を持つ場合には線形補間によって代表光線の始点位置を求めたが、補間方法はこれに限るものではなく、他の関数が用いられてもよい。たとえば、シグモイド関数のように線形ではない関数を用いた補間によって代表光線の始点位置を求めてもよい。
(実施形態1の変形例)
実施形態1において処理対象とするモデルデータは、上述したように、ボリュームデータに限るものではない。本変形例では、モデルデータが、1視点の画像(以下、参照画像という)とそれに対応するデプスデータとの組み合わせである場合について説明する。
実施形態1において処理対象とするモデルデータは、上述したように、ボリュームデータに限るものではない。本変形例では、モデルデータが、1視点の画像(以下、参照画像という)とそれに対応するデプスデータとの組み合わせである場合について説明する。
本変形例にかかる立体画像表示装置は、図1に示す立体画像表示装置1と同様の構成を備えてよい。ただし、本変形例では、代表光線算出部121と輝度算出部122とが、それぞれ以下のような動作を実行する。
・代表光線算出部
本変形例において、代表光線算出部121は、実施形態1における図9のステップS301〜S306に示した動作と同様の動作を実行する。ただし、代表光線算出部121は、基準視点30の代わりにカメラ位置を用いる。すなわち、代表光線算出部121は、量子化単位領域ごとのカメラ位置を用いて代表光線のカメラ位置(始点位置)を算出するとともに、このカメラ位置とパネル21の中心Oとの距離を算出する。
本変形例において、代表光線算出部121は、実施形態1における図9のステップS301〜S306に示した動作と同様の動作を実行する。ただし、代表光線算出部121は、基準視点30の代わりにカメラ位置を用いる。すなわち、代表光線算出部121は、量子化単位領域ごとのカメラ位置を用いて代表光線のカメラ位置(始点位置)を算出するとともに、このカメラ位置とパネル21の中心Oとの距離を算出する。
・輝度算出部
また、輝度算出部122は、代表光線算出部121で求めたカメラ位置とパネル21の中心Oからの距離とに基づいて、参照画像と参照画像の各ピクセルに対応するデプスデータとから各サブピクセルの輝度値を算出する。以下に、本変形例における輝度算出部122の動作を説明する。なお、以下の説明では、簡略化のため、参照画像が光線番号‘0’に対応する画像であり、レンダリング空間24の幅Wwに参照画像の横幅が一致し、レンダリング空間24の高さWhに参照画像の縦幅が一致し、さらに、参照画像の中心がレンダリング空間24の中心Oと一致する場合、つまり、パネル21と参照画像とが同じスケールでレンダリング空間24に配置された場合を例に挙げる。
また、輝度算出部122は、代表光線算出部121で求めたカメラ位置とパネル21の中心Oからの距離とに基づいて、参照画像と参照画像の各ピクセルに対応するデプスデータとから各サブピクセルの輝度値を算出する。以下に、本変形例における輝度算出部122の動作を説明する。なお、以下の説明では、簡略化のため、参照画像が光線番号‘0’に対応する画像であり、レンダリング空間24の幅Wwに参照画像の横幅が一致し、レンダリング空間24の高さWhに参照画像の縦幅が一致し、さらに、参照画像の中心がレンダリング空間24の中心Oと一致する場合、つまり、パネル21と参照画像とが同じスケールでレンダリング空間24に配置された場合を例に挙げる。
図13は、本変形例における輝度算出部の処理を説明するための図である。図13に示すように、本変形例1では、輝度算出部122は、まず、参照画像の各ピクセル(以下、参照ピクセル群)における視差ベクトルdを求める。視差ベクトルdとは、所望の飛び出し量を得るためにピクセルをどちらの方向にどの程度平行移動させる必要があるかを示すベクトルである。あるピクセルに対する視差ベクトルdは、以下の式(3)で求めることができる。
式(3)において、Lzはレンダリング空間24の奥行きサイズ、zmaxはデプスデータの取り得る最大値、zdはデプスデータ、z0はレンダリング空間24での飛び出し距離、bは隣接するカメラ位置間のベクトル、zsはレンダリング空間24におけるカメラ位置から参照画像(パネル21)までの距離をそれぞれ表す。また、図13において、F0はデプスデータの取り得る最大値に対応する面の位置、F1はデプスデータにおける対象物Bの位置、F2はパネル21の位置、F3はデプスデータの取り得る最小値に対応する面の位置、F4は基準視点(v+1,v,…)が配列される面の位置をそれぞれ表す。
つぎに、輝度算出部122は、参照画像をデプスデータに応じて平行移動した後の各ピクセルのレンダリング空間24における位置ベクトルp’(x,y)を求める。位置ベクトルP’は、たとえば下記の式(4)を用いて求めることができる。
式(4)において、x,yはそれぞれ参照画像のピクセル単位のX座標およびY座標であり、nvは輝度値を求めたいサブピクセルの光線番号であり、p(x,y)はシフト前の各ピクセルのレンダリング空間24における位置ベクトルであり、d(x,y)は座標(x,y)のピクセルに対応するデプスデータから算出された視差ベクトルdを示す。
その後、輝度算出部122は、求めた位置ベクトルp’(x,y)のうち、位置座標がDx’に最も近くなる位置ベクトルP’を特定し、それに対応するピクセルを決定する。そのピクセルのサブピクセルに対応する色成分が、求める輝度値である。ここで、最も近くなるピクセルが複数存在する場合、飛び出し量が最も大きなものを採用するとよい。
なお、本変形例では、参照画像の全てのピクセルに対して視差ベクトルdを求めたが、必ずしもこれに限るものではなく、たとえばカメラ位置がX軸に沿って配列している場合は、代表光線算出部121が求めたベクトルDv’におけるX成分Dx’を含むピクセルを求め、画像の座標系においてそのピクセルと同様のY座標を持つピクセルを用いて視差ベクトルdを求めてもよい。一方、カメラ位置がY軸に沿って配列している場合は、X成分Dx’を含むピクセルを求め、画像の座標系においてそのピクセルと同様のX座標を持つピクセルを用いて視差ベクトルdを求めてもよい。
また、参照画像中で最大となる視差ベクトルdの絶対値|d|が分かっている場合、X成分Dx’から±|d|の領域に含まれるピクセルを用いて視差ベクトルdを求めてもよい。さらに、上記の方法を組み合わせることで、視差ベクトルを算出する領域を限定してもよい。
以上のように、本変形例によれば、モデルデータが1視点の画像とそれに対応するデプスデータとの組み合わせであって、正確な三次元データでない場合でも、最小限の補間処理で立体画像を生成することが可能となる。それにより、ユーザに高品質な立体像を提供することが可能となる。
(実施形態2)
つぎに、実施形態2にかかる画像処理装置、立体画像表示装置、画像処理方法およびプログラムを詳細に説明する。なお、以下の説明において、上述した実施形態1またはその変形例と同様の構成については、同一の符号を付し、その重複する説明を省略する。
つぎに、実施形態2にかかる画像処理装置、立体画像表示装置、画像処理方法およびプログラムを詳細に説明する。なお、以下の説明において、上述した実施形態1またはその変形例と同様の構成については、同一の符号を付し、その重複する説明を省略する。
実施形態2では、ユーザの視聴位置を取得し、それに基づいて常にユーザが視域内に含まれるようにパネル21のパラメータを補正する。
図15は、本実施形態におけるパネルと光学的開口部における光学素子との位置関係を示す図である。パネル21および光学的開口部23における光学素子23aが図15(A)に示す状態にあるとき、パネル21と光学的開口部23とを水平方向(X方向)にずらすと、図15(B)に示すように、ずらした方向に視域が移動する。図15(B)に示す例では、光学的開口部23を紙面に沿って左にシフトしたことで、光線がηだけ、図15(A)の場合よりも左に寄り、これによって視域も左にシフトしている。つまり、パネル21と光学素子23aとが物理的にずれている場合、視域が正面に構成されず、いずれかの方向にシフトしてしまう。そのため例えば非特許文献1のピクセルマッピングは、ずれ量koffsetを考慮に入れることで、両者が相対的にずれた場合でも、パネル21の正面に視域が構成されるようになっている。本実施形態では、物理的なずれ量koffsetをさらに補正することでユーザの視聴位置に視域をシフトする。これには、前述したパネル21と光学素子23aの位置関係のずれによる視域のシフトを利用する。前述したパネル21と光学素子23aとの位置関係による視域のシフトは、レンズの位置をもとの位置で固定して考えた場合、視域が逆方向にシフトするのと等価と考えることが可能である。そのため、koffsetを補正して意図的に視域をシフトさせ、ユーザの視聴位置に合わせる。
また、パネル21および光学的開口部23が図15(A)に示す状態にあるときに、図15(C)に示すように、1つの光学的開口部23に対応するパネル21上での幅Xnを広げると、視域はパネル21に近くなる(つまり、図15(C)では図15(A)よりも要素画像幅が大きくなる)。したがって、幅Xnの値を実際の値よりも増減させるように補正することで、ピクセルマッピングによる視域の垂直方向(Z軸方向)の位置補正の程度を連続的に(細かく)できる。これにより、従来技術では視差画像の入れ替えにより離散的にしか変化させることができなかった垂直方向(Z軸方向)における視域の位置を、連続的に変化させることが可能となる。よって、視聴者が任意の垂直位置(Z軸方向の位置)にいる場合に、適切に視域を合わせることが可能となる。
以上より、ずれ量koffsetと幅Xnとを適切に補正することで、水平方向および垂直方向のいずれにも視域の位置を連続的に変化させることができる。よって、観察者の任意の位置にいる場合でも、その位置に合わせた視域を設定することが可能となる。
図14は、実施形態2にかかる立体画像表示装置の構成例を示すブロック図である。図14に示すように、実施形態2にかかる立体画像表示装置2は、図1に示す立体画像表示装置1と同様の構成に加え、視聴位置取得部211と、光線方向算出部212とをさらに備える。
・視聴位置取得部
視聴位置取得部211は、視聴領域内の実空間におけるユーザの位置を3次元座標値として取得する。視聴者の位置の取得には、例えば、可視カメラ、赤外線カメラ等の撮像機器の他、レーダやセンサ等の機器を用いることができる。視聴位置取得部211は、これらの機器で得られた情報(カメラの場合には撮影画像)から、公知の技術を用いて、視聴者の位置を取得する。
視聴位置取得部211は、視聴領域内の実空間におけるユーザの位置を3次元座標値として取得する。視聴者の位置の取得には、例えば、可視カメラ、赤外線カメラ等の撮像機器の他、レーダやセンサ等の機器を用いることができる。視聴位置取得部211は、これらの機器で得られた情報(カメラの場合には撮影画像)から、公知の技術を用いて、視聴者の位置を取得する。
例えば、可視カメラを用いた場合には、撮像によって得た画像を画像解析することで、視聴者の検出および視聴者の位置の算出を行う。また、レーダを用いた場合には、得られたレーダ信号を信号処理することで、視聴者の検出及び視聴者の位置の算出を行う。
人物検出・位置算出における視聴者の検出においては、顔、頭、人物全体、マーカーなど、人であると判定可能な任意の対象を検出してもよい。視聴者の目の位置を検出してもよい。なお、視聴者の位置の取得方法は、上記の方法に限定されるものではない。
・マッピングパラメータ補正部
マッピングパラメータ補正部212には、視聴位置取得部211が取得したユーザの視聴位置に関する情報と、パネルパラメータとが入力される。マッピングパラメータ補正部212は、入力された視聴位置に関する情報に基づいてパネルパラメータを補正する。
マッピングパラメータ補正部212には、視聴位置取得部211が取得したユーザの視聴位置に関する情報と、パネルパラメータとが入力される。マッピングパラメータ補正部212は、入力された視聴位置に関する情報に基づいてパネルパラメータを補正する。
ここで、パネルパラメータを視聴位置に関する情報に基づいて補正する方法について説明する。パネルパラメータの補正では、視聴位置をもとにパネル21と光学的開口部23とのX軸方向のずれ量koffsetと、光学的開口部23を構成する1つの光学素子(レンチキュラレンズやパララックスバリア等)のパネル21上での水平幅Xnとが補正される。このような補正によって、立体画像表示装置1による視域を移動することが可能となる。
式(5)において、r_koffsetは、ずれ量koffsetに対する補正量を表す。r_Xnは、水平幅Xnに対する補正量を表す。これらの補正量の算出方法については、後述する。
上記の式(5)では、ずれ量koffsetを光学的開口部23に対するパネル21のずれ量と定義した場合を示しているが、パネル21に対する光学的開口部23のずれ量と定義した場合は、以下の式(6)のようになる。なお、式(6)において、Xnに対する補正は、上記式(5)と同様である。
補正量r_koffsetおよび補正量r_Xn(以下、マッピング制御パラメータ)は、以下のようにして算出される。
補正量r_koffsetは、視聴位置のX座標から算出する。具体的には、現在の視聴位置のX座標と、視聴位置からパネル21(またはレンズ)までの距離である視距離Lと、光学的開口部23(レンズの場合は主点P)からパネル21までの距離であるギャップgとを用いて、以下の式(7)で補正量r_koffsetが算出される。なお、現在の視聴位置は、たとえばCCDカメラや対物センサなどや、重力方向を検出する加速度センサなどで得られた情報に基づいて取得することができる。
・立体画像生成部
立体画像生成部120は、光線方向算出部212によって算出された各サブピクセルの光線番号と、サブピクセルグループの情報とから、補正後のパネルパラメータを用いて、各サブピクセルグループの代表光線を算出し、以降、実施形態1と同様の動作を実行する。
立体画像生成部120は、光線方向算出部212によって算出された各サブピクセルの光線番号と、サブピクセルグループの情報とから、補正後のパネルパラメータを用いて、各サブピクセルグループの代表光線を算出し、以降、実施形態1と同様の動作を実行する。
ただし、実施形態1の変形例のように、モデルデータが参照画像というデプスデータとの組み合わせである場合、輝度算出部122は、デプスデータと代表光線番号とに基づいて、参照画像をシフトし、シフト後の参照画像から各サブピクセルグループの輝度値を算出する。
以上のように、実施形態2では、ユーザのパネル21に対する視聴位置に基づいて光線番号が補正されるため、ユーザがどの位置から視聴しても高品質な立体画像を提供することが可能となる。
また、上記実施形態およびその変形例は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、仕様等に応じて種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施形態が可能であることは上記記載から自明である。例えば実施形態に対して適宜例示した変形例は、他の実施形態と組み合わせることも可能であることは言うまでもない。
1、2…立体画像表示装置、10…画像処理装置、20…表示装置、21…パネル、22…画素、23…光学的開口部、24…レンダリング空間、25…基準点、30…基準視点、31…代表視点、40…3Dピクセル領域、40a…上辺、40b…下辺、40c,40d…側辺、41…分割線、41r,41g,41b…画素値、42…量子化単位領域、43r1,43r2,43g1,43g2,43b1…サブピクセル、110…クラスタリング処理部、111…光線方向量子化部、112…サブピクセルグループ選択部、120…立体画像生成部、121…代表光線算出部、122…輝度算出部、123…サブピクセル輝度算出部、130…モデルデータ取得部、211…視聴位置取得部、212…光線方向算出部
Claims (13)
- 立体物の形状が表現されたモデルデータから生成される立体画像を表示可能な立体画像表示装置であって、
複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部と、
前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化部と、
前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択部と、
各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出部と、
前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出部と、
前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成するサブピクセル輝度算出部と、
を備える立体画像表示装置。 - 前記光学的開口部は、所定方向に沿って配列する複数の光学素子を含み、
前記光線方向量子化部は、前記複数の光学素子の配列に基づいて前記パネルにおける前記複数のサブピクセルが配列する面を前記複数の領域に区画する
請求項1に記載の立体画像表示装置。 - 前記代表光線算出部は、各サブピクセルグループに含まれる1つ以上のサブピクセルの光線番号の平均を前記代表光線番号として算出する請求項1または2に記載の立体画像表示装置。
- 前記モデルデータは、空間分割モデルである請求項1〜3のいずれか一つに記載の立体画像表示装置。
- 前記モデルデータは、境界表現モデルである請求項1〜3のいずれか一つに記載の立体画像表示装置。
- 前記モデルデータは、前記モデルデータに含まれるオブジェクトの奥行き情報と、少なくとも1つの視点に対して生成された参照画像との組み合わせである請求項1〜3のいずれか一つに記載の立体画像表示装置。
- 前記輝度算出部は、前記モデルデータと前記代表光線とが交差する部分の色情報に基づいて前記サブピクセルグループの輝度値を算出する請求項1〜6のいずれか一つに記載の立体画像表示装置。
- 前記代表光線算出部は、前記モデルデータの定義される座標系に応じて前記代表光線番号を補正する請求項1〜7のいずれか一つに記載の立体画像表示装置。
- 前記輝度算出部は、前記モデルデータの前記奥行き情報と、前記代表光線番号とに基づいて、前記参照画像をシフトし、シフト後の参照画像から各サブピクセルグループの輝度値を算出する請求項6に記載の立体画像表示装置。
- 観察者の視聴位置に応じて前記代表光線番号を補正する光線方向算出部をさらに備える請求項1〜9のいずれか一つに記載の立体画像表示装置。
- 複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部に、立体物の形状が表現されたモデルデータから生成される立体画像を表示する画像処理方法であって、
前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画し、
前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化し、
各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出し、
前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出し、
前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成すること
を含む画像処理方法。 - 複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部に、立体物の形状が表現されたモデルデータから生成される立体画像を表示可能な立体画像表示装置のコンピュータを動作させるためのプログラムであって、
前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化ステップと、
前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択ステップと、
各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出ステップと、
前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出ステップと、
前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成するサブピクセル輝度算出ステップと、
を前記コンピュータに実行させるためのプログラム。 - 複数のサブピクセルを含む表示パネルと、前記表示パネルと対向して設けられる光学的開口部とを有する表示部に、立体物の形状が表現されたモデルデータから生成される立体画像を表示させるための画像処理装置であって、
前記パネルにおける前記複数のサブピクセルが配列する面を複数の領域に区画する光線方向量子化部と、
前記複数の領域それぞれに対応する1つ以上のサブピクセルをサブピクセルグループにグループ化するサブピクセル選択部と、
各サブピクセルグループに含まれるサブピクセルを代表する代表光線の出射方向を示す代表光線番号を算出する代表光線算出部と、
前記代表光線の前記出射方向と前記モデルデータとに基づいて、前記代表光線番号に対応する輝度値を前記サブピクセルグループごとに算出する輝度算出部と、
前記輝度値に基づいて前記サブピクセルグループに含まれるサブピクセルの輝度値を決定することで前記立体画像を生成するサブピクセル輝度算出部と、
を備える画像処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013090595A JP2014216719A (ja) | 2013-04-23 | 2013-04-23 | 画像処理装置、立体画像表示装置、画像処理方法およびプログラム |
US14/184,617 US20140313199A1 (en) | 2013-04-23 | 2014-02-19 | Image processing device, 3d image display apparatus, method of image processing and computer-readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013090595A JP2014216719A (ja) | 2013-04-23 | 2013-04-23 | 画像処理装置、立体画像表示装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014216719A true JP2014216719A (ja) | 2014-11-17 |
Family
ID=51728655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013090595A Pending JP2014216719A (ja) | 2013-04-23 | 2013-04-23 | 画像処理装置、立体画像表示装置、画像処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140313199A1 (ja) |
JP (1) | JP2014216719A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110946597B (zh) * | 2018-09-27 | 2023-09-26 | 上海西门子医疗器械有限公司 | X射线摄影设备和方法 |
CN114079765B (zh) * | 2021-11-17 | 2024-05-28 | 京东方科技集团股份有限公司 | 图像显示方法、装置及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5752638B2 (ja) * | 2012-04-26 | 2015-07-22 | 株式会社東芝 | 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 |
-
2013
- 2013-04-23 JP JP2013090595A patent/JP2014216719A/ja active Pending
-
2014
- 2014-02-19 US US14/184,617 patent/US20140313199A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20140313199A1 (en) | 2014-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101675961B1 (ko) | 적응적 부화소 렌더링 장치 및 방법 | |
JP5881732B2 (ja) | 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム | |
US9544580B2 (en) | Image processing method and image processing apparatus | |
KR101289544B1 (ko) | 3차원 이미지 디스플레이 장치, 방법 및 컴퓨터 판독가능 매체 | |
JP2013005052A (ja) | 画像処理システム、装置、方法及びプログラム | |
US20120327198A1 (en) | Image processing system, apparatus, and method | |
KR20170044953A (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
WO2013161590A1 (ja) | 画像表示装置、方法及びプログラム | |
JP2015119203A (ja) | 画像処理装置、立体画像表示装置および画像処理方法 | |
US9760263B2 (en) | Image processing device, image processing method, and stereoscopic image display device | |
JP2008085503A (ja) | 三次元画像処理装置、方法、プログラム及び三次元画像表示装置 | |
TW201624058A (zh) | 廣視角裸眼立體圖像顯示方法、裸眼立體顯示設備以及其操作方法 | |
JP6585938B2 (ja) | 立体像奥行き変換装置およびそのプログラム | |
JP5752638B2 (ja) | 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 | |
Zinger et al. | View interpolation for medical images on autostereoscopic displays | |
JP2012186653A (ja) | 画像表示装置、方法およびプログラム | |
JP2015050482A (ja) | 画像処理装置、立体画像表示装置、画像処理方法およびプログラム | |
JP5802767B2 (ja) | 画像処理装置、立体画像表示装置、および、画像処理方法 | |
JP5763208B2 (ja) | 立体画像表示装置、画像処理装置および画像処理方法 | |
US20130257870A1 (en) | Image processing apparatus, stereoscopic image display apparatus, image processing method and computer program product | |
JP2014216719A (ja) | 画像処理装置、立体画像表示装置、画像処理方法およびプログラム | |
KR102006079B1 (ko) | 육각 렌즈를 이용한 집적영상 시스템의 시점영상 매핑 방법 | |
US20140354774A1 (en) | Image processing device, image processing method, stereoscopic image display device, and assistant system | |
JP6846165B2 (ja) | 画像生成装置、画像表示システム及びプログラム | |
US20140362197A1 (en) | Image processing device, image processing method, and stereoscopic image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20151102 |