JP2015119203A - 画像処理装置、立体画像表示装置および画像処理方法 - Google Patents

画像処理装置、立体画像表示装置および画像処理方法 Download PDF

Info

Publication number
JP2015119203A
JP2015119203A JP2013259297A JP2013259297A JP2015119203A JP 2015119203 A JP2015119203 A JP 2015119203A JP 2013259297 A JP2013259297 A JP 2013259297A JP 2013259297 A JP2013259297 A JP 2013259297A JP 2015119203 A JP2015119203 A JP 2015119203A
Authority
JP
Japan
Prior art keywords
value
image
pixel
map information
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013259297A
Other languages
English (en)
Inventor
徳裕 中村
Tokuhiro Nakamura
徳裕 中村
安則 田口
Yasunori Taguchi
安則 田口
三田 雄志
Takeshi Mita
雄志 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013259297A priority Critical patent/JP2015119203A/ja
Priority to US14/569,882 priority patent/US20150172641A1/en
Publication of JP2015119203A publication Critical patent/JP2015119203A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Abstract

【課題】表示素子の積層数を抑制しつつ高画質の立体画像を表示可能とする。【解決手段】取得部101は複数の視差画像を取得する。第1算出部102は、重ねて配置される複数の表示素子の各々に含まれる画素の組み合わせに応じて規定される複数の光線ごとに、当該光線に対応する視差画像の輝度値を対応付けた第1マップ情報を算出する。第1生成部103は、複数の視差画像ごとに当該視差画像の特徴量に応じた第1の値を画素値とする特徴データを生成する。第2算出部104は、複数の視差画像と1対1に対応する複数の特徴データに基づいて、光線ごとに、当該光線に対応する特徴データの第1の値を対応付けた第2マップ情報を算出する。第2生成部106は、第1マップ情報と第2マップ情報とに基づいて、複数の表示素子の各々に含まれる画素の輝度値を決定することで、複数の表示素子の各々に表示する画像を生成する。【選択図】図3

Description

本発明の実施形態は、画像処理装置、立体画像表示装置および画像処理方法に関する。
近年、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置などの医用画像診断装置の分野では、3次元の医用画像(ボリュームデータ)を生成可能な装置が実用化されている。また、ボリュームデータを任意の視点からレンダリングする技術が実用化されており、近年、ボリュームデータを複数の視点からレンダリングして、立体画像表示装置に立体的に表示することが検討されている。
立体画像表示装置では、視聴者は特殊なメガネを使用せずに裸眼で立体画像を観察することができる。このような立体画像表示装置として一般的な方式は、視点の異なる複数の画像(以下ではそれぞれの画像を視差画像とよぶ)を表示し、これらの視差画像の光線を、光学的開口部(例えばパララックスバリア、レンチキュラレンズなど)によって制御するものである。この際、表示する画像は、光学的開口部を通して覗いた場合に、意図した方向で意図した画像が観察されるように並び替えられたものである。光学的開口部とそれに合わせた画像の並べ替えによって制御された光線は、視聴者の両眼に導かれ、視聴者の観察位置が適切であれば、視聴者は立体画像を認識できる。このように視聴者が立体画像を観察可能な領域を視域という。
以上の方式では、与えられた視差画像の解像度を全て足し合わせた解像度を表示可能な表示パネル(表示素子)が必要となるため、視差画像の数を増加させると視差画像1枚あたりに許される解像度が低下して画質が低下し、その逆の場合には視域が狭くなる。このような3D画質と視域との間のトレードオフの関係を緩和する方式として、複数枚の表示パネルを積層し、それぞれの画素の輝度値の組み合わせが視差画像を表現するように最適化された画像を表示することで立体視を可能とする方式が提案されている。この方式では各ピクセル(画素)が複数の視差画像を表現するのに再利用されるため、従来の裸眼3D表示方式に比べて高解像度の立体画像を表示できる可能性がある。
米国特許出願公開第2012/0140131号明細書
Tensor Displays: Compressive Light Field Synthesis using Multilayer Displays with Directional Backlighting
複数の表示パネルを積層する方式で立体画像を表示する方式の場合、視域を広く設定するほど、必要となる視差画像が増加するとともに、各ピクセルが再利用される可能性が増加する。この方式は、各ピクセルを複数の視差画像の表現のために再利用することで表示パネルの表現能力以上の視差画像を表現可能な方式であるが、再利用の可能性が過剰に増大すると、全てを満たす解が存在しなくなるため、画質や立体感の低下が著しくなるという問題がある。
特許文献1、および、非特許文献1に開示された技術では、視域内の見え方に影響のない部分(視域を通過しない光線に対応する画素の組み合わせ)については最適化時に考慮しない、あるいは、光学的開口部と組み合わせることにより必要となる視差数の増加を抑制するなどの方法により再利用の可能性を低下させているが、それでも、実用的な画質と視差数を担保しようとすると積層数を増加する必要がある。積層数の増加はコストの増加や表示輝度の低下に繋がるため、積層数を可能な限り少なくすることが求められている。
本発明が解決しようとする課題は、表示素子の積層数を抑制しつつ、高画質の立体画像を表示可能な画像処理装置、立体画像表示装置および画像処理方法を提供することである。
実施形態の画像処理装置は、取得部と第1算出部と第1生成部と第2算出部と第2生成部とを備える。取得部は、複数の視差画像を取得する。第1算出部は、重ねて配置される複数の表示素子の各々に含まれる画素の組み合わせに応じて規定される複数の光線ごとに、当該光線に対応する視差画像の輝度値を対応付けた第1マップ情報を算出する。第1生成部は、複数の視差画像ごとに、当該視差画像の特徴量に応じた第1の値を画素値とする特徴データを生成する。第2算出部は、複数の視差画像と1対1に対応する複数の特徴データに基づいて、光線ごとに、当該光線に対応する特徴データの第1の値を対応付けた第2マップ情報を算出する。第2生成部は、第1マップ情報と、第2マップ情報とに基づいて、複数の表示素子の各々に含まれる画素の輝度値を決定することで、複数の表示素子の各々に表示する画像を生成する。
実施形態の画像表示システムの構成の一例を示す図。 実施形態のボリュームデータの一例を説明するための図。 実施形態の立体画像表示装置の構成の一例を示す図。 実施形態の第1マップ情報を説明するための図。 実施形態の第2マップ情報を説明するための図。 実施形態の第3マップ情報を説明するための図。 実施形態の立体画像表示装置の動作例を示すフローチャート。
以下、添付図面を参照しながら、本発明に係る画像処理装置、立体画像表示装置および画像処理方法の実施形態を詳細に説明する。
図1は、本実施形態の画像表示システム1の構成の一例を示すブロック図である。図1に示すように、画像表示システム1は、医用画像診断装置10と、画像保管装置20と、立体画像表示装置30とを備える。図1に例示する各装置は、通信網2を介して、直接的、又は間接的に通信可能な状態となっており、各装置は、医用画像等を相互に送受信することが可能である。通信網2の種類は任意であり、例えば各装置は、病院内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、例えば各装置は、インターネット等のネットワーク(クラウド)を介して、相互に通信可能な形態であってもよい。
画像表示システム1は、立体画像表示装置30が、医用画像診断装置10により生成された3次元の医用画像のボリュームデータの立体画像を表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。立体画像とは、互いに視差を有する複数の視差画像を含む画像であり、視差とは、異なる方向から見ることによる見え方の差をいう。画像とは、静止画像又は動画像のいずれであってもよい。以下、各装置を順に説明する。
医用画像診断装置10は、3次元の医用画像のボリュームデータを生成可能な装置である。医用画像診断装置10としては、例えば、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等が挙げられる。
医用画像診断装置10は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置10は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数(例えば300〜500枚)のスライス画像(断面画像)を再構成することで、ボリュームデータを生成する。つまり、図2に示すように、被検体の体軸方向に沿って撮影された複数のスライス画像が、ボリュームデータである。図2の例では、被検体の「脳」のボリュームデータが生成されている。なお、医用画像診断装置10により撮影された被検体の投影データやMR信号等自体をボリュームデータとしてもよい。また、医用画像診断装置10により生成されたボリュームデータの中には、骨・血管・神経・腫瘍などといった、医療現場での観察対象となる物体の画像が含まれる。また、ボリュームデータの等値面を多角形のポリゴンや曲面などの幾何的要素の集合で表現したデータを含んでもよい。
画像保管装置20は、医用画像を保管するデータベースである。具体的には、画像保管装置20は、医用画像診断装置10から送信されたボリュームデータを格納し、これを保管する。
立体画像表示装置30は、医用画像診断装置10により生成されたボリュームデータの立体画像を表示する装置である。本実施形態の立体画像表示装置30は、複数の画素がそれぞれに配列された複数(少なくとも2つ)の表示素子を積層し、各表示素子に2次元画像を表示することで、立体画像を表示する方式の立体画像表示装置である。
なお、以下では、立体画像表示装置30は、医用画像診断装置10により生成されたボリュームデータの立体画像を表示する場合を例に挙げて説明するが、これに限らず、立体画像表示装置30が表示する立体画像の元となる3次元データの種類は任意である。3次元データとは、立体物の形状を表現可能なデータであり、ボリュームデータなどの空間分割モデルや境界表現モデルなどが含まれ得る。空間分割モデルとは、例えば空間を格子状に分割し、分割した格子を用いて、立体物を表現するモデルを指す。境界表現モデルとは、例えば空間において立体物の占める領域の境界を表現することで、当該立体物を表現するモデルを指す。
図3は、立体画像表示装置30の構成の一例を示すブロック図である。図3に示すように、立体画像表示装置30は、画像処理部100と表示部200とを備える。表示部200は、積層された(重ね合わされた)複数の表示素子を含み、画像処理部100により生成された2次元画像を各表示素子に表示することで、立体画像を表示する。以下では、表示部200は、重ねて配置される2つの表示素子(210、220)を含んで構成される場合を例に挙げて説明する。また、以下では、表示部200に含まれる2つの表示素子(210、220)の各々は、互いに対向する2つの透明基板と、2つの透明基板間に挟持された液晶層とを含む液晶型ディスプレイ(液晶パネル)で構成される場合を例に挙げて説明する。なお、液晶型ディスプレイの構造は、アクティブマトリクス型であってもよいし、パッシブマトリクス型であってもよい。
図3に示すように、表示部200は、第1表示素子210と、第2表示素子220と、光源230とを含む。図3の例では、観察者201に近い方から、第1表示素子210、第2表示素子220、光源230の順番で配置される。この例では、第1表示素子210、および、第2表示素子220の各々を構成する液晶型ディスプレイは透過型の液晶型ディスプレイであり、光源230として、冷陰極管、熱陰極蛍光灯、エレクトロルミネセンスパネル、発光ダイオード、電球等を使用することができる。また、例えば液晶型ディスプレイは、反射型の液晶型ディスプレイで構成されてもよい。この場合、光源230として、太陽光や室内の電灯光などの外光を反射する反射層を使用することができる。さらに、例えば液晶型ディスプレイは、透過型と反射型を兼ね備えた半透過型の液晶型ディスプレイで構成されてもよい。
画像処理部100は、各表示素子(210、220)に2次元画像を表示することで、立体画像を表示する制御を行う。本実施形態では、画像処理部100は、表示したい立体画像のうち特徴量が大きい部分については高い画質を保証するよう、各表示素子(210、220)の画素の輝度値を最適化する。以下、画像処理部100の具体的な内容を説明する。なお、本明細書において、「特徴量」とは、画質に対して影響を与える可能性が高いほど大きい値を示す指標である。
図3に示すように、画像処理部100は、取得部101と、第1算出部102と、第1生成部103と、第2算出部104と、第3算出部105と、第2生成部106とを備える。
取得部101は、複数の視差画像を取得する。本実施形態では、取得部101は、画像保管装置20にアクセスして、医用画像診断装置10によって生成されたボリュームデータを取得する。なお、例えば画像保管装置20が設けられずに、医用画像診断装置10内に、生成したボリュームデータを格納するメモリが設けられていてもよい。この場合は、取得部101は、医用画像診断装置10にアクセスしてボリュームデータを取得する。
そして、取得部101は、複数の視点位置(仮想カメラが配置される位置)の各々から、取得したボリュームデータをレンダリングすることにより、複数の視差画像を生成する。ボリュームデータをレンダリングする際には、例えばレイキャスティング法などといった公知の様々なボリュームレンダリング技術を利用することができる。ここでは、取得部101は、複数の視点位置でボリュームデータをレンダリングすることにより複数の視差画像を生成する機能を有する場合を例に挙げて説明するが、これに限らず、例えば取得部101が、ボリュームレンダリング機能を有していない形態であってもよい。このような形態においては、取得部101は、医用画像診断装置10により生成されたボリュームデータを複数の視点位置でレンダリングした結果を示す複数の視差画像を、外部装置から取得すればよい。要するに、取得部101は、複数の視差画像を取得する機能を有する形態であればよい。
第1算出部102は、重ねて配置される複数の表示素子(210、220)の各々に含まれる画素の組み合わせに応じて規定される複数の光線ごとに、当該光線に対応する視差画像の輝度値を対応付けた第1マップ情報Lを算出する。第1マップ情報Lは、特許文献1において4D Light Fieldsとして定義されているものと同様のものである。図4においては、第1表示素子210、および、第2表示素子220の各々の画素構造は、便宜的に1次元に展開していることを想定している。例えば行列状に並べられた画素構造の行方向を基準とし、行の終端と次の行の先頭をつなげて並べ替えていると考えればよい。
以下では、第1表示素子210に配列される画素の集合を「G」と表記し、第2表示素子220に配列される画素の集合を「F」と表記する場合がある。図4の例では、第1表示素子210に含まれる画素の数をn+1個とし、第1表示素子210に含まれる複数の画素の各々をg(x=0〜n)と表記している。また、第2表示素子220に含まれる画素の数をn+1個とし、第2表示素子220に含まれる複数の画素の各々をf(x=0〜n)と表記している。
いま、第1表示素子210および第2表示素子220の各々から1画素ずつ選択する場合を想定すると、その2画素を代表する点(例えば画素の中心)を結ぶベクトルを定義することができる。このベクトルを、以下では、モデル光線ベクトルと称し、このモデル光線ベクトルで表現される光線を「モデル光線」と称する場合がある。この例では、「モデル光線」は、請求項の「光線」に対応していると考えることができる。モデル光線ベクトルは、光源230から射出された光線のうち、選択された2画素を通過する光線の方向を表しており、この光線の輝度が、当該光線の方向に対応する視差画像の輝度値と一致すれば、それぞれの視点で当該視点に対応する視差画像を観察できるということであり、観察者は立体画像を観察することが可能になる。このモデル光線と視差画像との関係性をテンソル(多次元配列)の形で表現したものが第1マップ情報Lである。
以下、第1マップ情報Lの具体的な作成方法を説明する。まず第1の手順として、第1算出部102は、第1表示素子210および第2表示素子220の各々から1画素ずつを選択する。
第2の手順として、第1算出部102は、第1の手順で選択した2画素の組み合わせにより定義されるモデル光線ベクトル(モデル光線)に対応する視差画像の輝度値(真値となる輝度値)を決定する。ここでは、パネル(表示部200)とカメラで決定される角度を元に、モデル光線ベクトルに対応する1つの視点が選択され、選択された視点に対応する視差画像が特定される。より具体的には、予め設定された複数のカメラごとに、当該カメラからパネル中心へ至るベクトル(以下の説明では、「カメラベクトル」と称する場合がある)を定義し、第1算出部102は、複数のカメラと1対1に対応する複数のカメラベクトルのうち、モデル光線ベクトルと最も向きが近いカメラベクトルを選択し、その選択したカメラベクトルの視点位置(カメラの位置)に対応する視差画像を、当該モデル光線ベクトルに対応する視差画像として特定するという具合である。
図4の(a)の例では、第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトルに対応する視差画像として、視点i1に対応する視差画像が特定される。また、第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m−1番目の画素fm−1との組み合わせにより定義されるモデル光線ベクトルに対応する視差画像として、視点i2に対応する視差画像が特定される。さらに、第1表示素子210から選択された第m+1番目の画素gm+1と、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトルに対応する視差画像として、視点i2に対応する視差画像が特定されるといった具合である。
そして、第1算出部102は、モデル光線ベクトルに対応する視差画像内の空間的な位置を決定し、その決定した位置での輝度値を、真値となる輝度値として決定する。例えば第1表示素子210および第2表示素子220のうちの何れかを基準とし、基準とした側で選択されている画素の位置に対応する視差画像上での位置を、モデル光線ベクトルに対応する視差画像内の位置として決定することもできる。また、これに限る必要は無く、例えば第1表示素子210と第2表示素子220との中間位置を通る平面を基準とした場合は、モデル光線ベクトルが、基準となる平面のどの位置と交差するかを計算し、その交差位置に対応する視差画像上での位置を、モデル光線ベクトルに対応する視差画像内の位置として決定することもできる。
図4の(a)の例では、第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトルに対応する視差画像(視点i1に対応する視差画像)内の位置の輝度値(真値となる輝度値)として、i1が決定されるものとする。また、第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m−1番目の画素fm−1との組み合わせにより定義されるモデル光線ベクトルに対応する視差画像(視点i2に対応する視差画像)内の位置の輝度値として、i2が決定されるものとする。さらに、第1表示素子210から選択された第m+1番目の画素gm+1と、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトルに対応する視差画像(視点i2に対応する視差画像)内の位置の輝度値として、i2m+1が決定されるものとする。
第3の手順として、第1の手順で第2表示素子220から選択した画素に対応する行を選択する。図4の(b)の例では、画素構造を1次元に展開した第1表示素子210を行とし、画素構造を1次元に展開した第2表示素子220を列としているので、例えば第1の手順で、列方向に並べられた第2表示素子220の画素Fのうちの第m番目の画素fが選択された場合、当該第m番目の画素fmの位置において、列方向と直交する行Xmが選択される。
第4の手順として、第1の手順で第1表示素子210から選択した画素に対応する列を選択する。上述したように、図4の(b)の例では、画素構造を1次元に展開した第1表示素子210を行とし、画素構造を1次元に展開した第2表示素子220を列としているので、例えば第1の手順で、行方向に並べられた第1表示素子210の画素Gのうちの第m番目の画素gが選択された場合、当該第m番目の画素gmの位置において、行方向と直交する列Ymが選択される。
第5の手順として、第3の手順で選択された行と、第4の手順で選択した列との交差に対応する要素に対して、第2の手順で決定した輝度値を代入する。例えば第3の手順で、列方向に並べられた第2表示素子220の画素Fのうちの第m番目の画素fmと直交する行Xmが選択され、第4の手順で、行方向に並べられた第1表示素子210の画素Gのうちの第m番目の画素gmと直交する列Ymが選択された場合、行Xmと列Ymとの交差に対応する要素として、第2の手順で決定された輝度値i1(第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトルに対応する視差画像内の位置の輝度値として決定されたi1)が代入されるという具合である。これにより、第1表示素子210の第m番目の画素gと、第2表示素子220の第m番目の画素fとの組み合わせに応じて規定されるモデル光線に対して、当該モデル光線に対応する視差画像の輝度値i1が対応付けられると考えることができる。
第1算出部102は、第1表示素子210および第2表示素子220の各々に含まれる画素の組み合わせを全て処理するまで、上述の第1の手順〜第5の手順を繰り返すことで、第1マップ情報Lを算出することができる。
本実施形態では、積層される表示素子の数が2つである場合を例に挙げているが、これに限らず、3つ以上の表示素子を積層することも当然に可能である。例えば3つの表示素子を積層する場合には、第1表示素子210に配列される画素の集合G、および、第2表示素子220に配列される画素の集合Fに加えて、第3表示素子に配列される画素の集合Hが追加され、それに伴ってテンソルも3階のテンソルとなるが、F、Gの場合と同様の処理をHについても行って、モデル光線に対応する要素の位置と真値となる輝度値とを決定すればよい。要するに、第1算出部102は、重ねて配置される複数の表示素子の各々に含まれる画素の組み合わせに応じて規定される複数の光線ごとに、当該光線に対応する視差画像の輝度値を対応付けた第1マップ情報を算出する形態であればよい。
次に、図3に示す第1生成部103について説明する。第1生成部103は、取得部101により取得された複数の視差画像ごとに、当該視差画像の特徴量に応じた第1の値を画素値とする特徴データを生成する。本実施形態では、特徴量として、視差画像の輝度勾配、奥行き情報(デプス)の勾配、飛び出し側になるほど大きな値を示すように奥行き情報を変換した奥行き位置、および、認識されたオブジェクトに対応する画素が、オブジェクトに対応しない画素に比べて大きな値を示すように定義されたオブジェクト認識結果の4種類を用いる。
この例では、複数の視差画像と1対1に対応する複数の特徴データの各々は、視差画像と同様の解像度の画像情報であり、特徴データの各画素値(第1の値)は、対応する視差画像から抽出された4つの特徴量(視差画像の輝度勾配、奥行き情報の勾配、奥行き位置、オブジェクト認識結果)の線形和により定義される。これらの特徴量は、画像と同様に2次元配列(行列)として定義される。第1生成部103は、複数の視差画像ごとに、当該視差画像に基づいて、輝度勾配を画素値とする画像情報I、奥行き情報の輝度勾配を画素値とする画像情報Ide、奥行き位置を画素値とする画像情報I、および、オブジェクト認識結果を画素値とする画像情報Iobjを生成し、これらの重み付き線形和を求めることで、当該視差画像に対応する特徴データIallを生成する。以下、具体的な内容を説明する。
まず、画像情報Iの生成方法について説明する。画像情報Iは、視差画像と同様の解像度の画像情報であって、当該視差画像の輝度勾配の最大値に応じた値が各画素値として定義される。第1生成部103は、一の視差画像に対応する画像情報Iを生成する場合、当該一の視差画像の各画素の輝度値を参照して、処理対象とする画素の8近傍の画素それぞれに対して、処理対象画素との輝度差の絶対値を算出した場合の最大値を求め、その求めた最大値を、処理対象の画素の画素値として設定する。この場合、画素値は、エッジ境界付近で大きな値を示す傾向がある。なお、この例では、画像情報Iの各画素値は、0〜1に正規化され、画像情報Iの各画素値は、輝度勾配の最大値に応じて、0〜1の範囲内の値に設定されるという具合である。以上のようにして、第1生成部103は、視差画像と同様の解像度の画像情報Iを生成する。
次に、画像情報Ideの生成方法について説明する。画像情報Ideは、視差画像と同様の解像度の画像情報であって、当該視差画像の奥行き情報の勾配の最大値に応じた値が各画素値として定義される。本実施形態では、第1生成部103は、取得部101により取得された複数の視差画像に基づいて(視差画像間のシフト量に基づいて)、視差画像ごとに、当該視差画像に含まれる複数の画素ごとの奥行き情報を示すデプスマップを生成するが、これに限らず、例えば取得部101が、各視差画像のデプスマップを生成して第1生成部103へ供給する形態であってもよいし、外部装置から各視差画像のデプスマップを取得する形態であってもよい。なお、例えば取得部101において視差画像を生成する際にレイトレーシングやレイキャスティングを用いる場合、レイ(光線)とオブジェクトが最初に交差したと判定された点までの距離に基づいて、デプスマップを生成する方法などが考えられる。
第1生成部103は、一の視差画像に対応する画像情報Ideを生成する場合、当該一の視差画像のデプスマップを参照して、処理対象とする画素の8近傍の画素それぞれに対して、処理対象画素との奥行き情報差の絶対値を算出した場合の最大値を求め、その求めた最大値を、処理対象の画素の画素値として設定する。この場合、画素値は、オブジェクト境界で大きな値を示す傾向がある。なお、この例では、画像情報Ideの各画素値は0〜1に正規化され、画像情報Ideの各画素値は、奥行き情報の勾配の最大値に応じて、0〜1の範囲内の値に設定されるという具合である。以上のようにして、第1生成部103は、視差画像と同様の解像度の画像情報Ideを生成する。
次に、画像情報Iの生成方法について説明する。画像情報Iは、視差画像と同様の解像度の画像情報であって、飛び出し側になるほど大きな値を示すように奥行き情報を変換した奥行き位置に応じた値が各画素値として定義される。第1生成部103は、一の視差画像に対応する画像情報Iを生成する場合、当該一の視差画像のデプスマップを参照して、処理対象となる画素ごとに、飛び出し側になるほど大きな値を示すように当該画素の奥行き情報を変換した奥行き位置を求め、その求めた奥行き値を、当該処理対象の画素の画素値として設定する。なお、この例では、画像情報Iの各画素値は0〜1に正規化され、画像情報Iの各画素値は、奥行き位置に応じて、0〜1の範囲内の値に設定されるという具合である。以上のようにして、第1生成部103は、視差画像と同様の解像度の画像情報Iを生成する。
次に、画像情報Iobjの生成方法について説明する。画像情報Iobjは、視差画像と同様の解像度の画像情報であって、オブジェクト認識結果に応じた値が各画素値として定義される。オブジェクトの例としては、顔や文字などが挙げられ、オブジェクト認識結果とは、顔認識や文字認識により、顔もしくは文字と認識された画素が、顔もしくは文字と認識されない画素に比べて大きな値となるように定義された特徴量である。顔認識や文字認識の手法としては、一般的な画像処理で用いられる公知の様々な技術を利用可能である。第1生成部103は、一の視差画像に対応する画像情報Iobjを生成する場合、当該一の視差画像に対するオブジェクト認識処理を行い、その結果に基づいて各画素値を設定する。なお、この例では、画像情報Iobjの各画素値は0〜1に正規化され、画像情報Iobjの各画素値は、オブジェクト認識結果に応じて、0〜1の範囲内の値に設定されるという具合である。以上のようにして、第1生成部103は、視差画像と同様の解像度の画像情報Iobjを生成する。
そして、第1生成部103は、重みの合計が1.0になるような重みを用いて、上述の画像情報I、画像情報Ide、画像情報I、画像情報Iobjの重み付き線形和を求めることで、最終的な特徴データIallを算出する。特徴データIallは、例えば以下の式1で表すことができる。式1におけるa、b、c、dはそれぞれ重みを表す。重みa〜dを調整することで、前述した特徴量のうちのどの特徴量を主として考慮するかを可変に設定することが可能である。この例では、特徴データIallの各画素値(第1の値)は、0以上、かつ、1以下に正規化され、特徴量に応じた値を示すことになる。
Figure 2015119203
なお、本実施形態では、輝度勾配や奥行き情報の勾配の絶対値の最大値を特徴量として抽出しているが、そのほかの方法で輝度勾配や奥行き情報の勾配を評価した結果を用いてもよい。例えば、8近傍の画素との差の絶対値の合計を用いる方法や、8近傍よりさらに広範囲で評価するなどの方法が考えられる。そのほかにも、輝度勾配や奥行き情報の勾配を評価する方法として画像処理の分野で一般的な種々の方法を用いることが可能である。
また、本実施形態では、特徴量として、視差画像の輝度勾配、奥行き情報の勾配、奥行き位置およびオブジェクト認識結果の全てを用いたが、必ずしも全てを用いる必要はない。例えば、特徴量として、視差画像の輝度勾配、奥行き情報の勾配、奥行き位置およびオブジェクト認識結果のうちの何れか1つのみを用いる形態であってもよい。
また、例えば特徴量として、視差画像の輝度勾配、奥行き情報の勾配、奥行き位置およびオブジェクト認識結果のうちの任意の2つの組み合わせ、または、任意の3つの組み合わせを用いる形態であってもよい。つまり、特徴量は、視差画像の輝度勾配、奥行き情報の勾配、奥行き位置、および、オブジェクト認識結果のうちの少なくとも2つであり、視差画像に対応する特徴データの画素値(第1の値)は、視差画像の輝度勾配、奥行き情報の勾配、奥行き位置、および、オブジェクト認識結果のうちの少なくとも2つの重み付き線形和に基づいて得られる形態であってもよい。
次に、図3に示す第2算出部104について説明する。第2算出部104は、取得部101により取得された複数の視差画像と1対1に対応する複数の特徴データに基づいて、モデル光線ごとに、当該モデル光線に対応する特徴データの画素値(第1の値)を対応付けた第2マップ情報Wallを算出する。第2マップ情報Wallは、モデル光線と特徴データとの関係性をテンソル(多次元配列)の形で表現したものであり、第2マップ情報Wallの算出手順は、視差画像の代わりに、当該視差画像に対応する特徴データを用いる点を除いて、第1マップ情報Lの算出手順と同様である。図5の例では、第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトル(モデル光線)に対応する特徴データの画素値(第1の値)として、当該特徴データのうち、当該モデル光線ベクトルに対応する視差画像内の位置(輝度値i1を示す位置)に対応する位置の画素値wxが決定されている。つまり、テンソル上の、行Xmと列Ymとの交差に対応する要素として、画素値wxが代入されるという具合である。
次に、図3に示す第3算出部105について説明する。第3算出部105は、モデル光線ごとに、当該モデル光線が、予め指定される視域を通過するか否かに応じた第2の値を対応付けた第3マップ情報Wを算出する。第3マップ情報Wは、特許文献1に記載されたWと同様のものであり、特許文献1と同様の方法で決定することができる。第3マップ情報Wは、モデル光線と、視域通過の可否との関係性をテンソル(多次元配列)の形で表現したものであり、例えば第1マップ情報Lと同様の手順で、モデル光線ごとにテンソル上の対応する要素を特定し、図6に示すように、予め指定される視域内を通過するモデル光線に対しては、第2の値として「1.0」を設定し、視域を通過しないモデル光線に対しては、第2の値として「0.0」を設定することもできる。
図6の(a)の例では、第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトル(モデル光線)は視域内を通過するので、図6の(b)に示すように、列方向に並べられた第2表示素子220の画素Fのうちの第m番目の画素fmと直交する行Xmと、行方向に並べられた第1表示素子210の画素Gのうちの第m番目の画素gと直交する列Ymとの交差に対応する要素として、「1.0」を示す第2の値が代入される。
また、図6の(a)の例では、第1表示素子210から選択された第m番目の画素gと、第2表示素子220から選択された第m−1番目の画素fm−1との組み合わせにより定義されるモデル光線ベクトル(モデル光線)は視域内を通過しないので、図6の(b)に示すように、列方向に並べられた第2表示素子220の画素Fのうちの第m−1番目の画素fm−1と直交する行Xm−1と、行方向に並べられた第1表示素子210の画素Gのうちの第m番目の画素gと直交する列Ymとの交差に対応する要素として、「0.0」を示す第2の値が代入される。同様に、図6の(a)の例では、第1表示素子210から選択された第m+1番目の画素gm+1と、第2表示素子220から選択された第m番目の画素fとの組み合わせにより定義されるモデル光線ベクトル(モデル光線)は視域内を通過しないので、図6の(b)に示すように、列方向に並べられた第2表示素子220の画素Fのうちの第m番目の画素fと直交する行Xmと、行方向に並べられた第1表示素子210の画素Gのうちの第m+1番目の画素gm+1と直交する列Ym+1との交差に対応する要素として、「0.0」を示す第2の値が代入される。
次に、図3に示す第2生成部106について説明する。本実施形態では、第2生成部106は、上述の第1マップ情報Lと、上述の第2マップ情報Wallと、上述の第3マップ情報Wとに基づいて、第1表示素子210および第2表示素子220の各々に含まれる画素の輝度値を決定する。より具体的には、第2生成部106は、モデル光線に対応する特徴データの画素値(第1の値)および当該モデル光線に対応する第2の値(「1.0」または「0.0」)の乗算結果が大きいほど、当該モデル光線に対応する視差画像の輝度値が優先的に得られるよう、第1表示素子210および第2表示素子220の各々に含まれる画素の輝度値を決定する。さらに詳述すれば、第2生成部106は、以下の式2を最適化することで、第1表示素子210および第2表示素子220の各々に含まれる画素の輝度値を決定する。なお、以下の式2では、FはI×1のベクトルであり、IはFの画素数を表す。また、以下の式2では、Gは1×Jのベクトルであり、JはGの画素数を表す。
Figure 2015119203
前述したように、F、Gは画像を1次元に展開したものであるため、上記の式2を最適化した後に、そのルールを逆に適用して2次元にすることで、FとGに表示すべき画像を得ることができる。このような、FおよびGがそれぞれ未知であり、かつ、L,F,Gが正の値しかとらないという制約の下でF,Gを最適化する方法は、一般にNTF(2階のテンソルの場合はNMF)として知られており、収束計算により求めることができる。
例えば、図4に示すように、第1表示素子210の第m番目の画素gと、第2表示素子220の第m番目の画素fとの組み合わせにより規定されるモデル光線に対応する視差画像の輝度値がi1mであり、図5において、当該モデル光線に対応する特徴データの画素値wxが上限値を示す「1.0」であり、図6に示すように、当該モデル光線に対応する第2の値が「1.0」である場合を想定する。この場合、第1表示素子210の第m番目の画素gと、第2表示素子220の第m番目の画素fとの組み合わせにより規定されるモデル光線に対応する特徴データの画素値(第1の値)および第2の値の乗算結果は、優先度としての上限値を示す「1.0」となり、当該モデル光線に対応する視差画像の輝度値i1mの優先度は最も高くなるので、その輝度値i1mが保証されるよう、第1表示素子210の第m番目の画素g、および、第2表示素子220の第m番目の画素fの各々の輝度値が決定されるといった具合である。
なお、上記式2においては、F、およびGはベクトルだが、これに限らず、例えば特許文献1と同様に、F、およびGを行列として最適化することも可能である。つまり、FはI×T、GはT×Jの行列として解ける。この場合、Fは列ベクトルFtを1まとまりの画像、Gは行ベクトルGtを1まとまりの画像として考え、時間的に切り替えて表示することで、上記式2のFGに対応する表示を得ることが可能となる。なお、この場合は、Tに対応するインデックスが同じベクトルを1つの組として切り替えることに注意する。例えば、T=2の場合、FとGで1つの組、FとGで1つの組となり、組単位で時間的に切り替える。
以上に説明した画像処理部100は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部の機能(取得部101、第1算出部102、第1生成部103、第2算出部104、第3算出部105、および、第2生成部106)は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、上述した各部の機能のうちの少なくとも一部を専用のハードウェア回路(例えば半導体集積回路等)で実現することもできる。本実施形態の画像処理部100は、請求項の「画像処理装置」に対応する。
また、上述の画像処理部100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の画像処理部100で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の画像処理部100で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
次に、図7を参照しながら、本実施形態の立体画像表示装置30の動作例を説明する。図7は、立体画像表示装置30の動作例を示すフローチャートである。
図7に示すように、まず取得部101は、複数の視差画像を取得する(ステップS1)。次に、第1算出部102は、ステップS1で取得した複数の視差画像を用いて、上述の第1マップ情報Lを算出する(ステップS2)。次に、第1生成部103は、ステップS1で取得した複数の視差画像ごとに、当該視差画像に基づいて、上述した4つの画像情報(I、Ide、I、Iobj)を生成し、これらの重み付き線形和を求めることで特徴データIallを生成する(ステップS3)。次に、第2算出部104は、ステップS1で取得した複数の視差画像と1対1に対応する複数の特徴データIallに基づいて、上述のモデル光線ごとに、当該モデル光線に対応する特徴データの画素値(第1の値)を対応付けた第2マップ情報Wallを算出する(ステップS4)。次に、第3算出部105は、予め指定された視域を示す視域情報を用いて、上述のモデル光線ごとに、当該モデル光線が、予め指定される視域を通過するか否かに応じた第2の値を対応付けた第3マップ情報Wを算出する(ステップS5)。次に、第2生成部106は、ステップS2で算出した第1マップ情報Lと、ステップS4で算出した第2マップ情報Wallと、ステップS5で算出した第3マップ情報Wとに基づいて、各表示素子(210、220)に含まれる画素の輝度値を決定することで、各表示素子に表示する画像を生成する(ステップS6)。次に、第2生成部106は、ステップS7で生成した画像を各表示素子(210、220)に表示する制御を行う(ステップS7)。例えば第2生成部106は、各表示素子(210、220)の画素の輝度値が、ステップS6で決定した輝度値になるよう、液晶型ディスプレイの電極の電位や光源230の駆動を制御する。
なお、複数の視差画像が時分割に生成される場合においては、取得部101が、複数の視差画像を取得するたびに、上述のステップS2以降の処理が実行される。
以上に説明したように、視差画像のうち特徴量が大きくなる部分は、画質に対して影響を与える可能性が高い部分である。本実施形態では、特徴量として、視差画像の輝度勾配、奥行き情報の勾配、奥行き位置、および、オブジェクト認識結果を用いており、視差画像の輝度勾配を画素値とする画像情報I、奥行き情報の輝度勾配を画素値とする画像情報Ide、奥行き位置を画素値とする画像情報I、オブジェクト認識結果を画素値とする画像情報Iobjの重み付き線形和で得られる特徴データIallについても、画素値(第1の値)が大きい部分は、画質に対して影響を与える可能性が高い部分であると考えることができる。
そして、以上に説明したように、本実施形態では、第1表示素子210および第2表示素子220に含まれる画素の組み合わせに応じて規定される複数のモデル光線ごとに、当該モデル光線に対応する特徴データIallの画素値(第1の値)を優先度として用いて最適化を行う。より具体的には、上述の第1マップ情報Lと、上述の第2マップ情報Wallとを用いて、モデル光線に対応する特徴データの画素値(第1の値)が大きいほど、当該モデル光線に対応する視差画像の輝度値(真値となる輝度値)が優先的に得られるよう、第1表示素子210および第2表示素子220の各々に含まれる画素の輝度値を決定する。すなわち、画質に対して影響を与える可能性が高い部分については高い画質が得られるよう、各表示素子(210、220)の画素の輝度値を最適化する制御を行うことにより、表示素子の積層数を抑制しつつ、高画質の立体画像を表示することが可能になるという有利な効果を達成できる。
以上、本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
(変形例)
以下、変形例を説明する。
(1)変形例1
例えば、第2生成部106は、上述の第3マップ情報Wを考慮せずに、第1表示素子210および第2表示素子220の各々に含まれる画素の輝度値を決定する形態(つまり、上述の第3算出部105が設けられない形態)であってもよい。要するに、第2生成部106は、上述の第1マップ情報と、上述の第2マップ情報とに基づいて、複数の表示素子の各々に含まれる画素の輝度値を決定することで、複数の表示素子の各々に表示する画像を生成する形態であればよい。より具体的には、第2生成部106は、上述のモデル光線に対応する特徴データの画素値(第1の値)が大きいほど、当該モデル光線に対応する視差画像の輝度値(真値となる輝度値)が優先的に得られるよう、複数の表示素子の各々に含まれる画素の輝度値を決定する形態であればよい。
(2)変形例2
表示部200に含まれる第1表示素子210および第2表示素子220としては、液晶型ディスプレイに限られず、例えばプラズマ型ディスプレイ、電界放出型ディスプレイ、有機EL型ディスプレイを使用することができる。例えば第1表示素子210および第2表示素子220のうち観察者201から最も離間した第2表示素子220を、有機EL型ディスプレイなどの自発光ディスプレイで構成した場合は、光源230を省略することができる。ただし、半透過型の自発光ディスプレイで構成した場合は、光源230を併用することもできる。
(3)変形例3
上述の実施形態では、表示部200は、重ねて配置される2つの表示素子(210、220)を含んで構成される場合を例に挙げて説明したが、これに限らず、重ねて配置される(積層される)表示素子の数は3つ以上であってもよい。
以上の実施形態および変形例は任意に組み合わせることが可能である。
1 画像表示システム
10 医用画像診断装置
20 画像保管装置
30 立体画像表示装置
100 画像処理部
101 取得部
102 第1算出部
103 第1生成部
104 第2算出部
105 第3算出部
106 第2生成部
200 表示部
201 観察者
210 第1表示素子
220 第2表示素子
230 光源

Claims (10)

  1. 複数の視差画像を取得する取得部と、
    重ねて配置される複数の表示素子の各々に含まれる画素の組み合わせに応じて規定される複数の光線ごとに、当該光線に対応する前記視差画像の輝度値を対応付けた第1マップ情報を算出する第1算出部と、
    前記複数の視差画像ごとに、当該視差画像の特徴量に応じた第1の値を画素値とする特徴データを生成する第1生成部と、
    前記複数の視差画像と1対1に対応する複数の前記特徴データに基づいて、前記光線ごとに、当該光線に対応する前記特徴データの前記第1の値を対応付けた第2マップ情報を算出する第2算出部と、
    前記第1マップ情報と、前記第2マップ情報とに基づいて、前記複数の表示素子の各々に含まれる画素の輝度値を決定することで、前記複数の表示素子の各々に表示する画像を生成する第2生成部と、を備える、
    画像処理装置。
  2. 前記第2生成部は、前記光線に対応する前記特徴データの前記第1の値が大きいほど、当該光線に対応する前記視差画像の輝度値が優先的に得られるよう、前記複数の表示素子の各々に含まれる画素の輝度値を決定する、
    請求項1に記載の画像処理装置。
  3. 前記特徴量は、画質に対して影響を与える可能性が高いほど大きい値を示し、
    前記第1の値は、前記特徴量が大きいほど大きい値を示す、
    請求項1に記載の画像処理装置。
  4. 前記光線ごとに、当該光線が、観察者が前記立体画像を観察可能な領域を示す視域を通過するか否かに応じた第2の値を対応付けた第3マップ情報を算出する第3算出部をさらに備え、
    前記第2生成部は、前記第1マップ情報と、前記第2マップ情報と、前記第3マップ情報とに基づいて、前記複数の表示素子の各々に含まれる画素の輝度値を決定する、
    請求項1に記載の画像処理装置。
  5. 前記光線が前記視域を通過しない場合に対応する前記第2の値は、前記光線が前記視域を通過する場合に対応する前記第2の値よりも小さい値を示し、
    前記第2生成部は、前記光線に対応する前記特徴データの前記第1の値および前記第2の値の乗算結果が大きいほど、当該光線に対応する前記視差画像の輝度値が優先的に得られるよう、前記複数の表示素子の各々に含まれる画素の輝度値を決定する、
    請求項4に記載の画像処理装置。
  6. 前記特徴量は、
    前記視差画像の輝度勾配、奥行き情報の勾配、飛び出し側になるほど大きな値を示すように前記奥行き情報を変換した奥行き位置、および、認識されたオブジェクトに対応する画素が、前記オブジェクトに対応しない画素に比べて大きな値を示すように定義されたオブジェクト認識結果のうちの何れかである、
    請求項1に記載の画像処理装置。
  7. 前記特徴量は、
    記視差画像の輝度勾配、奥行き情報の勾配、飛び出し側になるほど大きな値を示すように前記奥行き情報を変換した奥行き位置、および、認識されたオブジェクトに対応する画素が、前記オブジェクトに対応しない画素に比べて大きな値を示すように定義されたオブジェクト認識結果のうちの少なくとも2つであり、
    前記第1の値は、前記視差画像の輝度勾配、前記奥行き情報の勾配、前記奥行き位置、および、前記オブジェクト認識結果のうちの少なくとも2つの重み付き線形和に基づいて得られる、
    請求項1に記載の画像処理装置。
  8. 前記第1の値は、0以上、かつ、1以下に正規化される、
    請求項1に記載の画像処理装置。
  9. 重ねて配置される複数の表示素子と、
    複数の視差画像を取得する取得部と、
    前記複数の表示素子の各々に含まれる画素の組み合わせに応じて規定される複数の光線ごとに、当該光線に対応する前記視差画像の輝度値を対応付けた第1マップ情報を算出する第1算出部と、
    前記複数の視差画像ごとに、当該視差画像の特徴量に応じた第1の値を画素値とする特徴データを生成する第1生成部と、
    前記複数の視差画像と1対1に対応する複数の前記特徴データに基づいて、前記光線ごとに、当該光線に対応する前記特徴データの前記第1の値を対応付けた第2マップ情報を算出する第2算出部と、
    前記第1マップ情報と、前記第2マップ情報とに基づいて、前記複数の表示素子の各々に含まれる画素の輝度値を決定することで、前記複数の表示素子の各々に表示する画像を生成する第2生成部と、を備える、
    立体画像表示装置。
  10. 複数の視差画像を取得する取得ステップと、
    重ねて配置される複数の表示素子の各々に含まれる画素の組み合わせに応じて規定される複数の光線ごとに、当該光線に対応する前記視差画像の輝度値を対応付けた第1マップ情報を算出する第1算出ステップと、
    前記複数の視差画像ごとに、当該視差画像の特徴量に応じた第1の値を画素値とする特徴データを生成する第1生成ステップと、
    前記複数の視差画像と1対1に対応する複数の前記特徴データに基づいて、前記光線ごとに、当該光線に対応する前記特徴データの前記第1の値を対応付けた第2マップ情報を算出する第2算出ステップと、
    前記第1マップ情報と、前記第2マップ情報とに基づいて、前記複数の表示素子の各々に含まれる画素の輝度値を決定することで、前記複数の表示素子の各々に表示する画像を生成する第2生成ステップとを含む、
    画像処理方法。
JP2013259297A 2013-12-16 2013-12-16 画像処理装置、立体画像表示装置および画像処理方法 Pending JP2015119203A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013259297A JP2015119203A (ja) 2013-12-16 2013-12-16 画像処理装置、立体画像表示装置および画像処理方法
US14/569,882 US20150172641A1 (en) 2013-12-16 2014-12-15 Image processing device, stereoscopic image display device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013259297A JP2015119203A (ja) 2013-12-16 2013-12-16 画像処理装置、立体画像表示装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2015119203A true JP2015119203A (ja) 2015-06-25

Family

ID=53370065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013259297A Pending JP2015119203A (ja) 2013-12-16 2013-12-16 画像処理装置、立体画像表示装置および画像処理方法

Country Status (2)

Country Link
US (1) US20150172641A1 (ja)
JP (1) JP2015119203A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080133A (ja) * 2017-10-23 2019-05-23 凸版印刷株式会社 多視点質感シミュレーションシステム及び多視点質感シミュレーション方法
WO2021133139A1 (en) * 2019-12-27 2021-07-01 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2023096303A1 (ko) * 2021-11-29 2023-06-01 삼성전자 주식회사 라이트 필드 영상을 렌더링하기 위한 방법 및 장치

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297068B2 (en) 2017-06-06 2019-05-21 Adshir Ltd. Method for ray tracing augmented objects
US10614614B2 (en) 2015-09-29 2020-04-07 Adshir Ltd. Path tracing system employing distributed accelerating structures
US10565776B2 (en) 2015-12-12 2020-02-18 Adshir Ltd. Method for fast generation of path traced reflections on a semi-reflective surface
US10614612B2 (en) 2018-06-09 2020-04-07 Adshir Ltd. Fast path traced reflections for augmented reality
US10699468B2 (en) 2018-06-09 2020-06-30 Adshir Ltd. Method for non-planar specular reflections in hybrid ray tracing
US11017581B1 (en) 2020-01-04 2021-05-25 Adshir Ltd. Method for constructing and traversing accelerating structures
EP4184916A4 (en) 2020-12-28 2023-08-16 Samsung Electronics Co., Ltd. STACKED DISPLAY DEVICE AND CONTROL METHOD THEREOF

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080133A (ja) * 2017-10-23 2019-05-23 凸版印刷株式会社 多視点質感シミュレーションシステム及び多視点質感シミュレーション方法
JP7067016B2 (ja) 2017-10-23 2022-05-16 凸版印刷株式会社 多視点質感シミュレーションシステム及び多視点質感シミュレーション方法
WO2021133139A1 (en) * 2019-12-27 2021-07-01 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11575882B2 (en) 2019-12-27 2023-02-07 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2023096303A1 (ko) * 2021-11-29 2023-06-01 삼성전자 주식회사 라이트 필드 영상을 렌더링하기 위한 방법 및 장치

Also Published As

Publication number Publication date
US20150172641A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
JP2015119203A (ja) 画像処理装置、立体画像表示装置および画像処理方法
JP5909055B2 (ja) 画像処理システム、装置、方法及びプログラム
JP5818531B2 (ja) 画像処理システム、装置及び方法
JP6058290B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP6211764B2 (ja) 画像処理システム及び方法
JP5306422B2 (ja) 画像表示システム、装置、方法及び医用画像診断装置
JP6005905B2 (ja) 画像処理システム、画像処理装置及び画像処理方法
WO2012157493A1 (ja) 画像処理システム、装置及び方法
US9746989B2 (en) Three-dimensional image processing apparatus
JP5972533B2 (ja) 画像処理システム及び方法
JP6430149B2 (ja) 医用画像処理装置
JP6245840B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US9202305B2 (en) Image processing device, three-dimensional image display device, image processing method and computer program product
US9445082B2 (en) System, apparatus, and method for image processing
JP5921102B2 (ja) 画像処理システム、装置、方法及びプログラム
JP5784379B2 (ja) 画像処理システム、装置及び方法
JP2015050482A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
US20130257860A1 (en) System and method for processing medical images and computer-readable medium
JP5846791B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP2013009864A (ja) 3次元画像処理装置
JP2014236340A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP5832990B2 (ja) 画像表示システム
US20140313199A1 (en) Image processing device, 3d image display apparatus, method of image processing and computer-readable medium
JP5813986B2 (ja) 画像処理システム、装置、方法及びプログラム
JP6087618B2 (ja) 画像処理システムおよび画像処理方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102