JP2015504641A - サブピクセルをレンダリングする映像処理装置及び方法 - Google Patents

サブピクセルをレンダリングする映像処理装置及び方法 Download PDF

Info

Publication number
JP2015504641A
JP2015504641A JP2014544677A JP2014544677A JP2015504641A JP 2015504641 A JP2015504641 A JP 2015504641A JP 2014544677 A JP2014544677 A JP 2014544677A JP 2014544677 A JP2014544677 A JP 2014544677A JP 2015504641 A JP2015504641 A JP 2015504641A
Authority
JP
Japan
Prior art keywords
sub
pixel
viewer
video processing
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014544677A
Other languages
English (en)
Other versions
JP6050373B2 (ja
Inventor
ヨン パク,ジュ
ヨン パク,ジュ
ギョン ナム,ドン
ギョン ナム,ドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015504641A publication Critical patent/JP2015504641A/ja
Application granted granted Critical
Publication of JP6050373B2 publication Critical patent/JP6050373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Abstract

【課題】サブピクセルをレンダリングする映像処理装置及び方法を開示する。【解決手段】映像処理装置は、ユーザの目の位置とサブピクセルの位置に基づいてサブピクセルの画素値を調整する。そして、調整されたサブピクセルの画素値に基づいて立体映像をライトフィールドディスプレイに表示する。【選択図】 図1

Description

下記の実施形態は映像処理装置及び方法に関し、視聴者(viewer)の視聴位置を考慮してサブピクセルをレンダリングする映像処理装置及び方法に関する。
人の両眼に互いに異なる映像を表示する3D(3−dimensional)ディスプレイは、メガネ式方式(stereoscopic)と無メガネ式方式(autostereoscopic)が存在する。メガネ式方式は、偏光を利用した映像分割、時分割、原色(primary color)の波長を相異にする波長分割などを用いて所望する映像をフィルタリングする方式である。この場合、視聴者がそれぞれの目に相異に分割された映像が類似にフィルタリングできるよう適切にデザインされたメガネを着用した場合、視聴者に3次元効果を提供することができる。そして、無メガネ式方式は、パララックスバリア(parallax barrier)またはレンチキュラーレンズ(Lenticular Lens)などを用いて各映像を特定の空間だけで見るえるようにする方式である。無メガネ式方式は、メガネ式方式で必要なメガネが使用されないため、視聴者に便利さを提供することができる。
特に、無メガネ式ディスプレイは、3D効果などを再生するために、他の方向から観察される他の映像を選択的に再生する複数のライトフィールドを表す一般的なライトフィールドを再生することのできるディスプレイを含んでもよい。
本発明の目的は、多視点ディスプレイ装置と光線再生(Integral Imaging)装置などを含むライトフィールド方式のディスプレイ装置に対して、視聴者の目の位置に応じてサブピクセルを調整する過程を提供する。また、ライトフィールド方式のディスプレイ装置は、メイン視聴領域の光線が隣接する領域に一定に繰り返される特徴を有するレンチキュラーレンズ、マイクロレンズアレイまたはバリアーアレイのような光学フィルタを用いたり、画素またはサブピクセルから出た光が一定の進行方向を有するプロジェクターのような装置を用いる。
一実施形態に係る映像処理装置は、ディスプレイに表現されるコンテンツを視聴しようとする視聴者の決定された位置に基づいて前記視聴者に表現する第1ライトフィールドを決定するライトフィールド決定部と、前記視聴者の決定された位置に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツに関連する第2ライトフィールドに変換するライトフィールド変換部とを備える。
他の実施形態に係る映像処理装置は、視聴者の決定された位置に基づいてディスプレイに含まれたサブピクセルの代表光線を決定する代表光線決定部と、前記視聴者の決定された位置と前記サブピクセルの位置に基づいて基準情報を決定する基準情報決定部と、前記代表光線と基準情報に基づいて前記サブピクセルの信号レベルを調整するサブピクセルレンダリング部とを備える。
一実施形態に係る映像処理方法は、ディスプレイに表現されるコンテンツを視聴しようとする視聴者の決定された位置に基づいて前記視聴者に表現する第1ライトフィールドを決定するステップと、前記視聴者の決定された位置に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツと関連する第2ライトフィールドに変換するステップとを含む。
他の実施形態に係る映像処理方法は、視聴者の決定された位置に基づいてディスプレイに含まれたサブピクセルの代表光線を決定するステップと、前記視聴者の決定された位置と前記サブピクセルの位置に基づいて基準情報を決定するステップと、前記代表光線と基準情報に基づいて前記サブピクセルの信号レベルを調整するステップとを含む。
本発明によると、レンチキュラーレンズ、マイクロレンズアレイまたはバリアーアレイのような光学フィルタを用いるライトフィールド方式のディスプレイ装置の場合、前述した視聴領域が繰り返される特徴を利用すれば、メイン視聴領域を狭くしてもサブ視聴領域の反復特性を用いることができる。このような過程によって、視聴者追跡を介して光線数リソースを節約しながら広い視聴領域を確保することができる。また、このような光学フィルタを用いて観測しようとする光線に隣接する光線が起こし得る光線間のクロストークも防止することができる。
また、視聴者の目の位置を検出して適応的にサブピクセルをレンダリングすることによって、視聴者の位置に応じる最適の視聴距離を設定することを必要とせず、視聴者はいかなる位置に存在するかに関係なく一定の品質以上の3D映像を視聴することができる。
ディスプレイ装置を示す図である。 一実施形態に係る映像処理装置の細部構成を示す図である。 他の実施形態に係る映像処理装置の細部構成を示す図である。 複数の方向に光線を出力するライトフィールドディスプレイを示す図である。 水平方向のディスプレイに含まれた2つの3D画素で出力された光線が視聴者の左眼及び右眼によって観察される例示を示す図である。 水平方向のディスプレイに含まれた一個の3D画素で出力された光線が視聴者の左眼及び右眼によって観察される例示を示す図である。 水平方向のディスプレイの3D画素を用いてサブピクセルの信号レベルを調整する過程を説明する図である。 サブピクセルから出力された中心光線が光学フィルタを通過した結果を示す図である。 サブピクセルから出力された中心光線で代表光線を決定する過程を示す図である。 水平方向のディスプレイのサブピクセルを用いてサブピクセルの信号レベルを調整する過程を説明する図である。 サブピクセルの応答特性を示す可視性グラフを示す図である。 サブピクセルの応答特性を示す可視性グラフを示す図である。 サブピクセルの応答特性を示す可視性グラフを示す図である。 サブピクセルの応答特性を示す可視性グラフを示す図である。 図11A〜Dの可視性グラフにおいて色別に同じ色を表示するサブピクセルのうち最大値を示す可視性グラフである。 図11A〜Dの可視性グラフにおいて同じ色を表示するサブピクセルのうち隣接するサブピクセル同士の和の最大値を示す図である。 図12及び図13の可視性グラフにおいてグリーンのサブピクセルをモデリングする結果を示す図である。 図14に示されたグラフによってサブピクセルの信号レベルを調整する過程を説明する図である。 一実施形態に係る映像処理方法を示す図である。 他の実施形態に係る映像処理方法を示す図である。
以下、実施形態を添付する図面を参照しながら詳細に説明する。
参照情報は図面に基づいて説明される1つ以上の実施形態を具体化してもよい。参照番号は構成要素を参照する。一実施形態は異なる形態で実施されてもよく、以下にて説明する実施形態によって限定解釈されてはならない。したがって、以下の図面に基づいて説明される実施形態は本発明の様々な側面を説明する。
上記で説明したように、無メガネ式ディスプレイはメガネ式ディスプレイに比べて様々な長所を提供する。具体的に、無メガネ式ディスプレイは、解像度の低下を軽減しながらも視聴領域を広げたり、前方、後方、上下左右のような全ての方向に自然なディスパリティ(disparity)を提供しようとする要求を選択的に提供することができる。一方、無メガネ式ディスプレイは多くの短所がある。具体的に、視聴領域を広げるために複数の視点(views)が求められ、決定された最適の視聴距離から離れた位置では映像の品質が急激に落ちるという問題がある。
ここで、一実施形態によると、無メガネ式ディスプレイは、一般的なライトフィールドを再生できる必須イメージディスプレイ(integral imaging display)に追加的に少なくとも3つの視点映像を表示できる多重視点ディスプレイ(multiview display)を含んでもよい。オブジェクトの表面上のいずれか一点から様々な方向に生成されたり反射される光を生成する実際のオブジェクトに類似するよう、必須イメージディスプレイは、パララックス再生映像と共に様々な方向に出力される光線またはライトフィールドを再生することができる。そして、必須イメージディスプレイは視聴距離が制限されることなく、視聴しようとする自然な映像を提供することができる。しかし、様々な方向への光の量が十分保障されることができない場合、必須イメージディスプレイはソリッド(solid)を表示することができない短所がある。また、様々な方向への間隔が十分狭くない場合、必須イメージディスプレイは自然な動きディスパリティを提供することが困難である。
それだけではなく、必須イメージディスプレイは視聴領域の保障も困難である。一実施形態によると、光線間の間隔、光線のフィールド間の間隔は必須イメージディスプレイに自然な場面を表示するための予め設定されたレベルよりも小さいか同一であってもよい。しかし、視聴領域を広げて光線間の間隔または光線のフィールド間の間隔を保持するために光線の個数が増加される場合、解像度が減少することがある。そして、多重視点ディスプレイは、異なる方向ごとに異なる視点を表示する光線が最適の視聴距離から離れた地点で視聴者によって視聴されるため、映像の表示が困難である。そして、光線の個数に応じて、多重視点ディスプレイはスムーズな映像変換のために要求される光線の狭い間隔及び視聴領域の拡張のために要求される光線の個数に応じて解像度が減少するという問題がある。
図1は、一実施形態に係るディスプレイ装置を示す図である。ディスプレイ装置は、センサ101、映像処理装置102、及びライトフィールドディスプレイ103を備える。ここで、装置という用語は、システムという用語に変更可能であり、説明される構成要素は実施形態によって1つまたは複数含んでもよい。例えば、センサ101は映像処理装置の内部または外部に存在してもよく、類似に、映像処理装置102はライトフィールドディスプレイ103を含むディスプレイ装置の内部または外部に存在してもよい。
ライトフィールドディスプレイ103は図4を参照して説明する。図4は、一実施形態によって複数の方向に光線を出力するライトフィールドディスプレイについて説明している。下記の図6〜8、図8〜9は追加的な用語説明を提供するために、図1に示す説明範囲内で説明されてもよい。
図4を参考すると、ライトフィールドディスプレイは、複数のサブピクセルを含むパネル401を含んでもよい。それぞれのサブピクセルからの光の光線は光学フィルタ402を介して通過してもよい。ここで、光学フィルタ402は、レンチキュラーレンズ、パララックスバリア、マイクロレンズアレイなどを含んでもよい。しかし、一実施形態は光学フィルタ402に限定されることなく、ライトフィールドディスプレイの前方または後方に配置されるいずれのタイプの光学フィルタを全て含んでもよい。ここで、光学フィルタ402は、複数のサブピクセルそれぞれから出力される光線403が通過する3D画素を含んでもよい。光学フィルタ402がライトフィールドディスプレイの前方に配置する場合、複数のサブピクセルそれぞれから出力された少なくとも1つの光線403は1つの3D画素に入力されてもよい。一実施形態によると、図8に示すように、1つの3D画素を通過する光線を有する複数のサブピクセルが存在してもよい。複数のサブピクセルそれぞれから出力された光線403は3D画素によって放出されてもよい。光学フィルタ402がライトフィールドディスプレイの後方に配置する場合、1つの3D画素から出力された光線は少なくとも1つのサブピクセルに入力されてもよい。少なくとも1つのサブピクセルそれぞれを通過する光線は、予め設定された方向に応じて外部に放出されてもよい。以上で説明した過程によってライトフィールドディスプレイは3次元映像を表現することができる。
例えば、光線403は15×4方向により光学フィルタ402に含まれた1つの3D画素から出力されてもよい。ここで、1つの3D画素は、複数の方向により互いに異なる情報を有する光線403を出力してもよい。そして、複数の3D画素は3D空間で複数のポイントを表現してもよい。一実施形態において、15個の横方向は横方向に15個の潜在的なパララックス(potential parallaxes)を表し、4個の縦方向は縦方向に4個の潜在的なパララックスを表してもよい。そして、4×15方向のように同一に代替されてもよい。潜在的に、一実施形態によると、他のパララックス映像は、1つの3D画素のために光線403それぞれによって照射されてもよい。
図4を参照して説明すると、ディスプレイの前方空間に位置する特定のポイントにあらわれる1つ以上の光線403は、観察する位置に応じて互いに異なる潜在的な強度として観察されるため、光線403は横切る(traversal)間に広さが拡張される効果を有する。例えば、光学フィルタ402がレンチキュラーレンズアレイである場合、もし、サブピクセルが生成した特定の明度(luminance)を有する光の光線がレンチキュラーレンズアレイの特定レンズの中心位置と一致する場合、光の光線は最小の反射及び明度を最大保持しながら特定レンズを通過することができる。そして、サブピクセルによって生成された光の光線がレンチキュラーレンズアレイの周辺部分(periphery portion)と一致する場合、光線は実質的に多く反射されてより少ない明度を有しながら特定レンズを通過することができる。一実施形態によると、光学フィルタ402がレンチキュラーレンズである場合、光学フィルタ402を通過しながら最小限の明度の損失と最小限の反射を有する光の光線はサブピクセルから出力される光の最大強度を表す光の光線を意味する中心光線として説明され得る。
再び図8を参考すると、光学フィルタ802がレンチキュラーレンズアレイである場合、サブピクセルそれぞれから進行する複数の中心光線が光学フィルタ802のレンズそれぞれを通過する過程を説明している。一実施形態によると、図8は、1つのレンズを通過する中心光線を生成するものとして考慮される12個のサブピクセルのグループが説明される。図8は、図15を参照して説明するように、それぞれの明度レベルに依存して同じ色を有しながら、視聴者の目によって潜在的に観察され得る互いに異なるレンズまたは3D画素から出力される中心光線を説明する。
再び図4を参照して説明すると、ライトフィールドディスプレイのパネル401に含まれたサブピクセルから出力される中心光線の方向は、光学フィルタ402に基づいて決定されてもよい。予め設定された方向を有する複数の中心光線のうち、サブピクセルの位置及び中心光線を観察する視聴者の目の位置に依存する基準情報と同一であるか、またはほとんど類似の中心光線が決定されてもよい。図4を参照すると、ライトフィールドディスプレイのパネル401に含まれたサブピクセルから出力される中心光線が光学フィルタ402の3D画素を通過する場合、中心光線のいずれか1つの光線は基準光線または代表光線として決定されてもよい。ここで、図4において、3D画素を通過する光線403は中心光線として定義され、いずれか1つの光線403から観察される光の究極的な近接性(proximity)及び視聴者の目の位置に基づいて中心光線のいずれか1つが代表光線として決定されてもよい。決定された代表光線に基づいてサブピクセルをレンダリングする過程が行われてもよい。
追加的な例示として、図5は、ライトフィールドディスプレイの2つの3D画素から横方向により光線が出力された後、視聴者の左眼及び右眼に観察されることについて説明する。
図5を参考すると、視聴者が3D空間で左眼502及び右眼503を用いてオブジェクト501を視聴する場合、3D画素504と3D画素505は複数の方向に光線を生成してもよい。3D画素504と3D画素505から出力された光線は左眼502と右眼503に見られる。
実際に、3D画素504と3D画素505から出力された光線のうち左眼502に直接的に到達したり、または左眼502にほとんど隣接する位置に到達する光線は、左眼502に対する代表光線として決定されてもよい。3D画素504と3D画素505から出力された光線のうち右眼503に直接的に到達したり、または右眼503にほとんど隣接する位置に到達する光線は右眼503に対する代表光線として決定されてもよい。
追加的に、図8は、サブピクセルから出力された複数の中心光線が光学フィルタを通過することを説明する。図8を参考すると、中心光線は、ライトフィールドディスプレイに含まれたサブピクセル801から出力されてもよい。中心光線は、サブピクセル801から出力された光線のうち視聴者によって観察され、明度の最大レベルを有する方向に出力される光線を意味する。ここで、中心光線が光学フィルタ802を通過する方向は、サブピクセル801に対する最適な視聴方向に定義されてもよい。ここで、少なくとも1つの中心光線はサブピクセル801から出力されてもよい。
サブピクセル801から出力された中心光線は、パララックスバリアまたはレンチキュラーレンズのような光学フィルタ802を通過してもよい。光学フィルタ802を通過する中心光線は、視聴者の目803に窮極的に認知されてもよい。上記で説明した3D画素は、中心光線が光学フィルタ802を通過する位置に対応する。
ここで、映像処理装置は、視聴者の目の位置に基づいてライトフィールドディスプレイに含まれたサブピクセル801から出力される中心光線のうち視聴者が認知できる中心光線に対応する代表光線を決定してもよい。ここで、代表光線は、光学フィルタ820によって予め設定された中心光線の方向に基づいて中心光線から決定されてもよい。光学フィルタ820が提供されない場合、代表光線はサブピクセル801から出力された中心光線から決定されてもよい。代表光線は、それぞれのサブピクセルごとに独立的に決定されてもよい。
追加的に図9は、サブピクセルから出力された複数の中心光線のうち代表光線を決定する過程を説明する。図9を参考すると、複数の中心光線は、複数のサブピクセルセットのうちレッドサブピクセル901から出力されてもよい。ここで、中心光線がライトフィールドディスプレイの光学フィルタ802を通過するとき、中心光線が進行する各方向を決定してもよい。例えば、3つの中心光線a、a、及びaがレッドサブピクセル901から出力されると仮定する。すると、視聴者によって認知されることにより決定された中心光線は中心光線aである。ここで、サブピクセルから出力された特定中心光線は、視聴者の目903によって観察されてもよい。一方、同一のサブピクセルから出力された異なる中心光線は、視聴者の目903によって観察されない場合もある。
たとえ、中心光線aが視聴者の目903に直接的に到達できなくても、視聴者は中心光線aの幅(width)のために中心光線aを認知することができる。再び説明するが、中心光線は、視聴者によって認知されて明度の最大レベルを示す光線を意味する。たとえ、中心光線が視聴者の目903に直接的に到達できなくても、中心光線の幅のために減少した明度のレベルを有する中心光線の光の一部が視聴者の目903に実質的に到達し得る。
したがって、映像処理装置は、中心光線aをレッドサブピクセル901に対する代表光線として識別してもよい。ここで、視聴者が動きにより視聴者の目903の位置が変更されると、レッドサブピクセル901の代表光線も再度変更されてもよい。上記で説明した処理過程にもかかわらず、映像処理装置はリアルタイムに視聴者の目903の位置を追跡することができ、追跡した視聴者の目903の位置に基づいてライトフィールドディスプレイに含まれた全てのサブピクセルに対する代表光線を決定することができる。
再度図1を参照して説明すると、センサ101は、ライトフィールドディスプレイ103によってコンテンツを視聴する視聴者の目の位置を測定する。ここで、センサ101は、視聴者の目を撮影して3次元の空間座標x、y、zを算出することのできるカメラを含んでもよい。一例として、カメラは、1つ以上の可視帯域カメラ、1つ以上の赤外線カメラ、および1つ以上の深度カメラのうち少なくとも1つを含んでもよい。ここで、カメラは、ライトフィールドディスプレイ103に挿入されたり、または取り付けられてもよい。一実施形態において、目の3次元位置を探知した結果のように、目が探知可能な空間にあると判断される場合、最適の視聴距離とは関係なく、3次元位置で視聴されるサブピクセルを適応的にレンダリングすることによって3D映像は自由に視聴され得る。また、所望する光線に隣接する光線により発生する光線間のクロストークも防止できる。
映像処理装置102は、3D効果のために視聴者に同時的に表示される他のイメージを示す複数の画素信号/画素値を生成してもよい。ここで、生成された複数の画素信号/画素値は、視聴者の目の位置に適するライトフィールドに対応する視点イメージを表示してもよい。
再び図9を参考すると、映像処理装置は視聴者の目903とレッドサブピクセル901を連結する仮想線に対応する基準情報904と代表光線a間の差に基づいてレッドサブピクセル901をレンダリングしてもよい。特に、代表光線aの角度と視聴者の目903とレッドサブピクセル901を連結する仮想線の角度の差に基づいてレッドサブピクセル901の画素値が調整されてもよい。
図6は、ライトフィールドディスプレイの1つの3D画素から水平方向により出力される光線と前記光線が視聴者の左眼及び右眼を介して観察される過程を説明する。図6に示すように、1つの3D画素601から光線が出力されるとき、パララックスメイン領域に対応する光線部分が視聴者の左眼602に到達してもよい。ここで、パララックスサブ領域に対応する光線部分が視聴者の右眼603に到達してもよい。これによって、図6は、パララックスメイン領域に隣接して形成され得るパララックスサブ領域に対応する光線を用いてライトフィールドを構成することで、実際の視聴角度を拡張できるよう狭いパララックスメイン領域を有するディスプレイ装置を示す。また、図6は、1つの3D画素601から出力された光線のうち視聴者の左眼602及び右眼603に見られる光線を説明する。ライトフィールドディスプレイに含まれた全ての3D画素に対して、視聴者の2つの目に見られる光線が決定されるとき、映像処理装置は視聴者の2つの目に見られる映像を決定してもよい。
言い換えれば、視聴者の目の位置が決定されるとき、映像処理装置は視聴者の目に見えられる光線を識別することができる。映像処理装置は視聴者が自然な3D映像を見ることができるよう、視聴者の目の位置に基づいて視聴者の目に見えられる光線に適切な画素値を割り当ててもよい。
再度、図1に基づいて説明すると、映像処理装置102は、視点映像が視聴者によって視聴される場合に視聴者の目の位置に対応するライトフィールドを決定する。そして、映像処理装置102は、決定したライトフィールドをライトフィールドディスプレイ103が表現することのできるライトフィールドに変換されてもよい。ここで、ライトフィールドの変換過程は、ライトフィールドディスプレイ103に表示され得るより少ない数のライトフィールドよりも多いライトフィールドを表現するためのサンプリング過程を意味する。ここで、複数の画素信号/画素値を調整する過程は、複数の画素信号/画素値を生成することに含まれたり、または、3D効果を生成するためにライトフィールドディスプレイに表示される他のイメージを考慮する前、または考慮した後に実行されてもよい。
最終的に、変換されたライトフィールドは、ライトフィールドディスプレイ103に表現されてもよい。それで、視聴者は、視聴位置と関係がなくライトフィールドディスプレイ103によって所望する3次元映像を視聴することができる。すなわち、視聴者が位置を移動してコンテンツを視聴しても、映像処理装置102は変更された視聴者の位置に適切な視点映像を表現することができる。
図2は、一実施形態に係る映像処理装置の細部構成を示す図である。図2を参考すると、映像処理装置200は、ライトフィールド決定部201及びライトフィールド変換部202を備える。
ライトフィールド決定部201は、ディスプレイに表現されるコンテンツを視聴しようとする視聴者の目の位置に対応するライトフィールドを決定する。一例として、ライトフィールド決定部201は、視聴者の目の位置に基づいてディスプレイに含まれたサブピクセルから出力される中心光線のうち、視聴者が認識することのできる中心光線の代表光線を用いて第1ライトフィールドを決定する。視聴者の目の位置は、図1に示すセンサによって持続的に追跡され得る。
ここで、中心光線は、サブピクセルから出力された複数の光線のうち最適の視聴方向の光線を意味し、代表光線は視聴者が他の位置に移動するとしても、サブピクセルの中心光線のうち視聴者の変更された位置に基づいて視聴者の目に最も容易に観察され得る中心光線を意味する。
すなわち、中心光線はサブピクセルから出力される少なくとも1つの中心光線は、視聴者の目の位置に応じて決定される代表光線の候補群を意味する。もし、サブピクセルから出力される中心光線の方向がディスプレイの前面に配置された光学フィルタによって予め決定される場合、代表光線はサブピクセルから出力される複数の中心光線のうち予め決定された方向から選択されてもよい。もし、サブピクセルから出力される中心光線がディスプレイの後面に配置された光学フィルタから発生した光の方向によって少なくとも1つの方向に決定される場合、代表光線はサブピクセルから出力される複数の中心光線のうち少なくとも1つの方向から選択されてもよい。
したがって、ライトフィールド変換部202は、視聴者の目の位置に基づいて決定されたライトフィールドをディスプレイで表現しようとするコンテンツに関連するライトフィールドに変換してもよい。一例として、ライトフィールド変換部202は、ディスプレイに含まれたサブピクセルの位置と視聴者の目の位置を用いてサブピクセルの基準情報を生成する。その後、ライトフィールド変換部202は、基準情報と代表光線を用いて決定されたライトフィールドをディスプレイで表現しようとするコンテンツと関連するライトフィールドに変換してもよい。ライトフィールドディスプレイが物理的に表現できるライトフィールドは制限的であるため、視聴者が認知することのできるライトフィールドがディスプレイで表現しようとするコンテンツと関連するライトフィールドに変換する必要がある。ここで、表示されるライトフィールドは、複数の視点映像に表現されるコンテンツから選択され得る。
具体的に、ライトフィールド変換部202は、サブピクセルの位置と視聴者の目の位置とを連結した仮想線の基準情報の角度と代表光線の角度との間の差を用いて決定されたライトフィールドをディスプレイで表現しようとするコンテンツと関連するライトフィールドに変換してもよい。ここで、サブピクセルの基準情報は、サブピクセルの水平方向の位置と視聴者の目の水平方向の位置とを連結する基準情報を含んでもよい。または、サブピクセルの基準情報は、サブピクセルの垂直方向の位置と視聴者の目の垂直方向の位置とを連結する基準情報を含んでもよい。
ここで、ライトフィールドの変換過程は、サブピクセルのレンダリングによって行われてもよい。具体的に、ライトフィールドの変換過程は、基準情報の角度と代表光線の角度との間の差に基づいて行われてもよい。ライトフィールド変換部202は、仮想線の角度と代表光線の角度との間の差をサブピクセルごとに設定された可視性情報に適用することによって、サブピクセルごとに明度値を調整する。このようなライトフィールドの変換過程は、視聴者の左眼と右眼に対してリアルタイムで行われてもよい。
具体的に、代表光線は、サブピクセルから最適の明度を示す中心光線のうち1つを意味する。視聴者の目の位置とサブピクセルの位置とを連結した基準情報が代表光線と一致しなければ、ライトフィールド変換部202は、サブピクセルごとに設定された最大の明度値である可視性情報を増加させることによってサブピクセルをレンダリングする。すなわち、ライトフィールド変換部202は、基準情報と代表光線との間の差が増加するほど、サブピクセルの明度値を増加させる。ここで、実際信号値はその範囲があることから増加にはその限界があるため、サブピクセルの明度値が最大に増加した場合について元の明度値に表現され、明度値が最大ではない程度で増加した場合は最大に増加した場合と比例して減少させる。
実施形態に係る映像処理装置200は、前述した決定されたライトフィールドをライトフィールドディスプレイに表現されるコンテンツと関連する有限な数のライトフィールドに変換する場合に発生し得る色の歪曲を補正する。一方、映像処理装置200は、前述した決定されたライトフィールドをライトフィールドディスプレイに表現されるコンテンツと関連する有限な数のライトフィールドに変換する場合に発生し得る画面内の輝度の不均一(モアレ)などを補正する。
図3は、他の実施形態に係る映像処理装置の細部構成を示す図である。図3を参考すると、映像処理装置300は、代表光線決定部301、基準情報決定部302及びサブピクセルレンダリング部303を備える。
代表光線決定部301は、視聴者の目の位置を用いてディスプレイに含まれたサブピクセルの代表光線を決定する。一例として、代表光線決定部301は、視聴者の目の位置を用いてサブピクセルで光学フィルタによって出力される中心光線のうち視聴者が認識することのできる中心光線をサブピクセルの代表光線に決定する。
ここで、中心光線は、サブピクセルの中心点から最大の明度を示す方向に出力されてもよい。そして、代表光線は、サブピクセルの位置から視聴者の目の位置への方向に一致したり、または、サブピクセルの位置から視聴者の目の位置への方向に最も隣接する中心光線を含んでもよい。サブピクセルの中心光線は、視聴者の目に直接的に一致しなくても、視聴者の目に最も容易に測定され得る。
基準情報決定部302は、視聴者の目の位置とサブピクセルの位置を用いて基準情報を決定する。一例として、基準情報決定部302は、視聴者の目の位置とサブピクセルの位置とを連結した仮想線を基準情報として決定する。ここで、一例として、基準情報決定部302は、サブピクセルの水平方向の位置と視聴者の目の水平方向の位置とを連結した仮想線、または、サブピクセルの垂直方向の位置と視聴者の目の垂直方向の位置とを連結した仮想線のうち少なくとも1つを用いて基準情報を決定してもよい。
サブピクセルレンダリング部303は、代表光線と基準情報を用いてサブピクセルの信号レベルを調整する。一例として、サブピクセルレンダリング部303は、代表光線と基準情報とを比較した角度差を用いてサブピクセルの信号レベルを調整してもよい。サブピクセルレンダリング部303は、基準情報の仮想線と代表光線との間の角度差をサブピクセルごとに設定された可視性情報に適用することでサブピクセルごとに明度値を調整してもよい。このようなサブピクセルのレンダリング過程は、視聴者の左眼と右眼の全てに対してリアルタイムで行われてもよい。
そして、サブピクセルレンダリング部303は、サブピクセルによって表現されるコンテンツが視聴者の左眼または右眼のうち少なくとも1つに見えるかの有無に応じて、視聴者の左眼に関連してサブピクセルの信号レベルを調整したり、または、視聴者の右眼に関連してサブピクセルの信号レベルを調整する。
図7は、水平方向のディスプレイの3D画素を用いてサブピクセルの信号レベルを調整する過程を説明する図である。図7は、視聴者の目の位置を考慮してサブピクセルをレンダリングする過程を3D画素を基準として説明する。ここで、サブピクセルをレンダリングする過程はサブピクセルの信号レベルを調整することを意味する。
図7において、3D画素701の座標をa、o、視聴者の右眼702の座標をx、zとする。ここで、3D画素701から右眼702に向かう直線の傾きは下記の数式(1)によって決定される。
ここで、αは3D画素701から右眼702に向かう直線の傾きを意味する。映像処理装置はαを用いて3D画素701から出力された光線のうち視聴者の右眼702に見える光線を決定する。そして、映像処理装置は、視聴者の右眼702に見える光線を表現するサブピクセルを決定する。それだけではなく、映像処理装置は視聴者の右眼702に見える光線の傾きがαといかなる差があるかに応じてサブピクセルにどの値を割り当てるかを決定する。ここで、3D画素701から出力された光線は3D画素701で最大の明度(Max Brightness)を維持する中心光線を意味し、視聴者の右眼702に見える光線は3D画素701の代表光線であり得る。
映像処理装置はαと最も類似の光線を出力するサブピクセルpは下記の数式(2)によって決定される。
ここで、
はサブピクセルpを決定する関数を意味する。
それで、a、oに位置する3D画素から出力された光線の傾きとαの差によって発生するサブピクセルpの信号レベルの調整程度rは下記の数式(3)によって決定される。
そして、αによりディスプレイに表現されるコンテンツcは下記の数式(4)によって決定される。
実際、ディスプレイに含まれたサブピクセルpは、数式(5)によってコンテンツcのp位置に対応する値と信号レベルの調整程度rを用いて決定される。
前述した事項はディスプレイが水平方向の視差だけを実現する場合を仮定したものであり、ディスプレイが水平方向と垂直方向の視差を全て実現する場合も類似に適用され得る。
垂直方向に配置されたディスプレイの3D画素0、bで視聴者の右眼に向かう直線の傾きβは下記の数式(6)によって決定される。
もし、映像処理装置が数式(1)によって導き出されたαと数式(6)によって導き出されたβに対して、最も類似の光線を出力するサブピクセルpは下記の数式(7)によって決定される。
ここで、
はサブピクセルpiを決定する関数を意味する。これによって、a、bに位置する3D画素を通過する光線の傾きと傾きα及びβの差によって発生するサブピクセルpの信号レベルの調整程度rは下記の数式(8)によって決定される。
そして、α及びβによってディスプレイに表現されるコンテンツcは下記の数式(9)によって決定される。
実際、ディスプレイに含まれたサブピクセルpは、数式(10)によりコンテンツcのp位置に対応する値と信号レベルの調整程度rに決定される。
前述した演算過程は視聴者の目の位置が決定されれば、ディスプレイを構成している全ての3D画素で独立的に算出されるため、演算過程の並列化によって処理速度を向上させることができる。
図8を参照すると、映像処理装置は、視聴者の目の位置に基づいてディスプレイに含まれたサブピクセル801から出力される中心光線のうち、視聴者が認識することのできる中心光線の代表光線を決定する。ここで、代表光線は、光学フィルタ820によって進行方向が決定された中心光線から決定されてもよい。もし、光学フィルタ820が存在しなければ、代表光線はサブピクセル801から出力された中心光線から決定してもよい。代表光線は、サブピクセル801ごとに独立的に決定されてもよい。ここで、サブピクセル801から出力された中心光線が光学フィルタ802のどのような位置を通過するか否かに応じて視聴者が認識することのできる領域に到達することが変わる。
再び図9に示すように、サブピクセル901の集合のうち、レッド(Red)サブピクセルから複数の中心光線が出力されてもよい。ここで、出力された中心光線の進行方向は、ディスプレイの光学フィルタ902を通過しながら決定される。レッドサブピクセルから3つの中心光線a〜aが出力されると仮定すれば、視聴者が認識することのできる中心光線はaとなる。すなわち、サブピクセルから出力された中心光線は視聴者の目903に到達したり、または、視聴者の目903に遠く離れる。
ここで、中心光線aは視聴者の目903に直接到達しないものの、中心光線aが有している光線幅に応じて視聴者は中心光線aを認識することができる。中心光線は、視聴者が認識することのできる最大の明度を示す光線である。すなわち、中心光線が視聴者の目903に直接到達しなくても中心光線の光線幅によって視聴者の目903に一定レベルの明度を有する中心光線から光の量が到達し得る。
それで、映像処理装置は、視聴者の目903とレッドを示すサブピクセル901を連結する仮想線の基準情報904と代表光線aとの差を用いてレッドサブピクセルをレンダリングしてもよい。具体的に、視聴者の目903とレッドを示すサブピクセル901を連結する仮想線と代表光線aとの間の角度差を用いてレッドサブピクセルの画素値を調整する。サブピクセルの画素値を調整する過程は、図11A〜D〜図15を参照して具体的に説明する。
図10は、水平方向のディスプレイのサブピクセルを用いてサブピクセルの信号レベルを調整する過程を説明する図である。図10は、視聴者の目の位置を考慮してサブピクセルをレンダリングする過程をサブピクセルを基準にして説明する。ここで、サブピクセルをレンダリングする過程はサブピクセルの信号レベルを調整することを意味する。
図10において、サブピクセル1001の座標をm、o、視聴者の右眼1002の座標をx、zとする。ここで、サブピクセル1001から右眼1002に向かう直線の傾きは下記の数式(11)によって決定される。
ここで、μはサブピクセル1001から右眼1002に向かう直線の傾きを意味する。もし、サブピクセル1001から出力された光線が最も近い光学フィルタを通過した後の直線の傾きをμ0と仮定してもよい。すると、サブピクセル1001から出力された光線が光学フィルタを通過するためには傾きμ0+kδuと表現される。ここで、kは整数である。
映像処理装置は、μを用いてサブピクセル1001から出力された光線のうち視聴者の右眼1002に見える光線を決定する。ここで、サブピクセル1001から出力された光線はサブピクセル1001において最大の明度(Max Brightness)を示す中心光線を意味し、視聴者の右眼1002に見える光線はサブピクセル1001の代表光線uであってもよい。代表光線uは下記の数式(12)によって決定される。
すると、傾きμとm、oに位置するサブピクセル1001から出力された代表光線uの差によって、サブピクセル1001の信号レベルの調整程度rは下記の数式(13)によって決定される。
そして、μによりディスプレイに表現されるコンテンツcは下記の数式(14)によって決定される。
実際、ディスプレイに含まれたサブピクセル1001は数式(15)によってコンテンツcを表現する。
前述した事項は、ディスプレイが水平方向の視差だけを実現する場合を仮定したものであり、ディスプレイが水平方向と垂直方向の視差を全て実現する場合も類似に適用され得る。
垂直方向に配置されたディスプレイのサブピクセル0、nから視聴者の右眼に向かう直線の傾きνは下記の数式(16)によって決定される。
サブピクセル1001から出力された光線が最も近い光学フィルタを通過した後の水平方向の傾きμi0であり、垂直方向の傾きνi0である。そして、サブピクセル1001から出力された光線が光学フィルタを通過することのできる水平方向の傾きμi0+kδuであり、垂直方向の傾きνi0+lδuという。ここで、kとlは整数である。ここで、映像処理装置はμとνに類似するuとvが下記の数式(17)によって導き出される。
映像処理装置は数式(18)によってμとνに類似するuとvの差を用いてサブピクセル1001の信号レベルの調整程度rを決定する。
サブピクセル1001によって表現されるコンテンツは下記の数式(19)によって決定される。
映像処理装置は数式(18)で導き出されたrと数式(19)によって導き出されたcを用いて数式(20)によってサブピクセル1001が表示しなければならない信号
を決定する。
前述した演算過程は視聴者の目の位置が決定されれば、ディスプレイを構成している全てのサブピクセルで独立的に算出されるため、演算過程の並列化によって処理速度を向上させることができる。
映像処理装置は視聴者の目の位置が決定されたとき、前記過程によってそれぞれのサブピクセルが表現しなければならない信号を決定する。ここで、サブピクセルが表現しなければならない信号は視聴者の両眼に対して独立的に決定される。
ただし、1つのサブピクセルが視聴者の両眼に全て見られれば、それぞれの目に対応する信号を最大値、最小値、または、平均値などを出力する演算過程によって最終的にサブピクセルが表現しなければならない信号を決定する。このような過程は下記の数式(21)によって決定される。
ここで、viLは左眼に対してサブピクセルが表現しなければならない信号の画素値を意味し、viRは右眼に対してサブピクセルが表現しなければならない信号の画素値を意味する。そして、fstereoはviLとviRの最大値、最小値、または平均値を導き出すための関数を意味する。Vは両眼に対してサブピクセルが表現しなければならない最終的な信号を意味する。
一例として、視聴者の両眼で同一のサブピクセルが画素値を調整すべきものと決定された場合、映像処理装置はサブピクセルの画素値wiLとサブピクセルの画素値wiRのうち大きい側の画素値にサブピクセルの画素値を調整する。例えば、wiL<wiRの場合、映像処理装置はサブピクセルの画素値をwiRに基づいて調整してもよい。
他の例として、映像処理装置は、サブピクセルの画素値wiLとサブピクセルの画素値wiRのうち小さい側の画素値にサブピクセルの画素値を調整してもよい。例えば、wiL<wiRの場合、映像処理装置はサブピクセルの画素値をwiLに基づいて調整してもよい。
更なる例として、映像処理装置は、サブピクセルの画素値wiLとサブピクセルの画素値wiRの平均値を算出し、算出された平均値に基づいてサブピクセルの画素値を調整してもよい。例えば、映像処理装置はサブピクセルの画素値を
に基づいて調整してもよい。
図11A〜図11Dは、サブピクセルの応答特性を示す可視性グラフを示す図である。
サブピクセルのレンダリングにおいて、サブピクセルの信号レベルの調整程度は、ディスプレイの特性のライトフィールドの分布モデルによって決定され、サブピクセルによって表現される色を均一にするためにサブピクセルの信号レベルの調整程度は図11A〜D〜図15によって決定される。
図11A〜図11Dに示されたグラフは、12個のサブピクセルからなるサブピクセルグループでサブピクセルそれぞれに対する視聴者の視聴角度別の応答特性を示す。図11A〜図11Dに示されたグラフは、サブピクセルそれぞれの輝度を同じ色同士にグループ化して最大値に正規化することによって導き出された視認性情報を示す。図11A〜図11Dにおいて、12個のサブピクセルはグリーン色のサブピクセルG1、G4、G7、G10、レッド色のサブピクセルR2、R5、R8、R11、およびブルー色のサブピクセルB3、B6、B9、B12のようにそれぞれ分類され得る。
図11A〜Dを参考すると、視聴者の視聴方向がディスプレイ面に垂直な方向からの角度が大きくなるほど輝度値が小さくなる。言い換えれば、視聴者の視聴方向がサブピクセルの含まれたディスプレイ面の法線方向から角度が大きくなるほど、視聴者はサブピクセルによって出力された信号の輝度が小さくなることを認知することができる。
特に、図11A〜Dに示されたサブピクセルの応答特性は約15度の周期で最大値を示す。最大値を示す角度は、ディスプレイ装置の特性に応じて変わり得る。ここで、各サブピクセルに対して応答特性が最大値を示す方向がサブピクセルの最適な視聴方向である。そして、サブピクセルの応答特性が最大値を示す方向に出力された光線は中心光線を意味する。すなわち、図11A〜Dにおいて、視認性情報がピークをなす方向に出力された光線が中心光線を意味する。また、各サブピクセルごとに少なくとも1つの中心光線が存在してもよい。
図12は、図11A〜Dの可視性グラフで色ごとに同じ色を表示するサブピクセルのうち最大値を示す可視性グラフである。図12に示すように、同じ色を表示するサブピクセルの最大値は、特定の方向に対して1つのサブピクセルをターンさせたとき最大に示す正規化された輝度値を意味する。ここで、特定方向は視聴者がサブピクセルをみる視聴方向を意味する。最適な視聴方向は、サブピクセルが最大である明度を示す視聴方向を意味する。すなわち、特定方向と一致したり最も類似の最適な視聴方向を有するサブピクセルが選択される。
図12に示すように、同じ色を表示するサブピクセルの最大値は方向によって異なるため、サブピクセルの輝度に対する補正が必要である。すなわち、補正過程がなければ、視聴者はサブピクセルの位置に応じて各色の明度は相異に見え、ディスプレイによって表現された映像では色が不均一になる。
すなわち、視聴者が動いて視聴者の目の位置が変更されてもサブピクセルの出力信号が変更されなれば、視聴者が視聴する映像の色は不均一である。したがって、視聴者の目の位置に応じてサブピクセルが表現する信号を調整する必要がある。
図13は、図11A〜Dに示す可視性グラフで同じ色を表示するサブピクセルのうち隣接するサブピクセル同士の和の最大値を示す図である。図13に示された輝度値は、特定方向と最適な視聴方向が最も近い2つのサブピクセルをターンさせたときに示される値を意味する。図13のグラフは、図11A〜Dに示すグラフより振幅が相当減少したことが分かる。
図12および図13に示された可視性情報の特性を用いてサブピクセルが均一に表現する色の表現特性を導き出すためには、信号の変化を補償するための信号調整の比率を用いてもよい。信号調整の比率はディスプレイの特性に応じて決定されてもよく、図12および図13の可視性情報をモデリングすることによって決定されてもよい。
図14は、図12及び図13の可視性グラフにおいて、グリーン(Green)のサブピクセルをモデリングする結果を示す図である。図14において、Gmaxは、図12に示された可視性情報のうちグリーンに関連する可視性情報を意味する。G2maxは、図13に示された可視性情報のうちグリーンに関連する可視性情報を意味する。
そして、GmodelはGmaxにコサイン関数を適用した可視性情報を意味し、G2modelは、G2maxにコサイン関数を適用した可視性情報を意味する。映像処理装置は、GmaxとGmodel間の類似性、およびG2maxとG2model間の類似性に基づいてサブピクセルの輝度値に関連される信号調整の比率を決定する。
この結果、ディスプレイに含まれた各サブピクセルの信号レベルを均一することがでいる。すなわち、各サブピクセルの信号レベルが全体的に均一になりつつ、コンテンツの元の輝度及び色の表現を可能にする。
図15は、図14に示されたグラフによってサブピクセルの信号レベルを調整する過程を説明する図である。
映像処理装置は、特定方向と最適の視聴方向が近い4個のサブピクセルを選択するとき、R、G、Bのうち少なくとも1つのサブピクセルを2つ選択してもよい。ここで、選択されたサブピクセルは、他の種類のサブピクセルに比べて最適な視聴方向とサブピクセルの表現方向の差が大きい。例えば、レッド2つ、グリーン1つ、ブルー1つが選択されたり、レッド1つ、グリーン2つ、ブルー1つが選択されたり、または、レッド1つ、グリーン1つ、ブルー2つが選択されてもよい。
例えば、視聴者の視聴方向が(2)、(3)領域にあれば、グリーンサブピクセルは1つが選択されてGmaxのような応答特性を導出する。そして、視聴者の視聴方向が(1)、(4)領域にある場合にグリーンサブピクセルは2つが選択され、G2maxのような応答特性を導出する。すなわち、1つの放物線が1つのサブピクセルと対応するとするとき、(2)、(3)領域は1つのサブピクセルだけが選択される。しかし、(1)、(4)領域は2つの放物線が含まれるため、(1)、(4)領域は隣接する同じ色の2つのサブピクセルが選択される。
このような応答特性を用いてサブピクセルの信号レベルを補償するために、モデリングする結果に基づいてG model inv、G 2model invを決定する。決定されたG model invは領域(2)、(3)領域に視聴者の視聴方向が位置する場合に対してサブピクセルの信号レベルを補償するための信号調整の比率に用いられてもよい。そして、G2 model invは(1)、(4)領域に視聴者の視聴方向が位置する場合に対してサブピクセルの信号レベルを補償するための信号調整の比率に用いられてもよい。
ここで、映像処理装置は1つの信号調整関数を用いてもよい。この信号調整関数は、(1)、(4)領域でG 2model inv関数値を信号調整の比率にし、(2)、(3)領域でG model inv値を信号調整の比率にする関数に決定されてもよい。ここで、サブピクセルの信号レベルを1よりも大きく調整することができないため、決定された信号調整関数で信号調整の比率の最大値が1になるように正規化して用いることができる。すなわち、視聴者の目の位置に応じて、視聴者の視聴方向が(1)、(2)、(3)、(4)の領域のいずれかの領域に属するかの有無が決定される。そして、決定された領域に基づいて該当の領域に関連するサブピクセルの最大輝度値はG model inv、G 2model invのいずれか1つによって決定された比率だけ減少する。
図16は一実施形態に係る映像方法を示す図である。図16に示すように、ステップS1601において、映像処理装置はディスプレイに表現されたコンテンツを視聴する視聴者の目の位置に対応するライトフィールド(light field)を決定する。一例として、映像処理装置は、視聴者の目の位置に基づいてディスプレイに含まれたサブピクセルから出力される中心光線のうち、視聴者が認識することのできる中心光線の代表光線を用いて第1ライトフィールドを決定する。
ステップS1602において、映像処理装置は視聴者の目の位置に基づいて決定されたライトフィールドをディスプレイで表現するコンテンツに関連するライトフィールドに変換してもよい。一例として、映像処理装置は、ディスプレイに含まれたサブピクセルの位置と視聴者の目の位置を用いてサブピクセルの基準情報を生成する。その後、映像処理装置は、基準情報と代表光線を用いて決定されたライトフィールドをディスプレイで表現するコンテンツと関連するライトフィールドに変換してもよい。
具体的に、映像処理装置は、サブピクセルの位置と視聴者の目の位置とを連結した仮想線と代表光線との間の角度差を用いて決定されたライトフィールドをディスプレイで表現するコンテンツと関連するライトフィールドに変換してもよい。ここで、仮想線はサブピクセルの基準情報を意味する。ここで、サブピクセルの基準情報は、サブピクセルの水平方向の位置と視聴者の目の水平方向の位置を連結する基準情報を含んでもよい。または、サブピクセルの基準情報は、サブピクセルの垂直方向の位置と視聴者の目の垂直方向の位置を連結する基準情報を含んでもよい。
ここで、ライトフィールドの変換過程は、サブピクセルのレンダリングによって行われてもよい。具体的に、ライトフィールドの変換過程は、仮想線と代表光線との間の角度に基づいて行われてもよい。映像処理装置は、仮想線と代表光線との間の角度差をサブピクセルごとに設定された可視性情報に適用することで、サブピクセルごとに明度値を調整することができる。このようなライトフィールドの変換過程は視聴者の左眼と右眼の全てに対してリアルタイムで行われる。
図17は、他の実施形態に係る映像方法を示す図である。ステップS1701において、映像処理装置は、視聴者の目の位置を用いてディスプレイに含まれたサブピクセルの代表光線を決定する。一例として、映像処理装置は、視聴者の目の位置を用いてサブピクセルで光学フィルタによって出力される中心光線のうち、視聴者が認識することのできる中心光線をサブピクセルの代表光線として決定する。
ここで、中心光線は、サブピクセルから最大の明度を示す方向に光学フィルタの中心点を介して出力されてもよい。そして、代表光線はサブピクセルの位置から視聴者の目の位置への方向に一致したり、または、サブピクセルの位置から視聴者の目の位置への方向に最も隣接する中心光線を含んでもよい。
ステップS1702において、映像処理装置は、視聴者の目の位置とサブピクセルの位置を用いて基準情報を決定する。一例として、映像処理装置は、視聴者の目の位置とサブピクセルの位置とを連結した仮想線を基準情報として決定する。ここで、一例として、映像処理装置は、サブピクセルの水平方向の位置と視聴者の目の水平方向の位置とを連結した仮想線、または、サブピクセルの垂直方向の位置と視聴者の目の垂直方向の位置とを連結した仮想線のうち少なくとも1つを用いて基準情報を決定する。
ステップS1703において、映像処理装置は、代表光線と基準情報を用いてサブピクセルの信号レベルを調整する。一例として、映像処理装置は、代表光線と基準情報とを比較した角度差を用いてサブピクセルの信号レベルを調整してもよい。映像処理装置は、基準情報の仮想線と代表光線との間の角度差をサブピクセルごとに設定された可視性情報に適用することで、サブピクセルごとに明度値を調整してもよい。このようなサブピクセルのレンダリング過程は、視聴者の左眼と右眼の全てに対してリアルタイムで行われてもよい。
そして、映像処理装置は、サブピクセルによって表現されるコンテンツが視聴者の左眼または右眼のうち少なくとも1つに見えるかの有無に応じて視聴者の左眼に関連してサブピクセルの信号レベルを調整したり、または、視聴者の右眼に関連してサブピクセルの信号レベルを調整する。
実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうち1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。そして、コンピュータ読取可能な記録媒体は、ASIC(Application Specific Integrated Circuit)またはFPGA(Field Programmable Gate Array)のようにプログラム命令を実行できるプロセッサによって実現されてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
101 センサ
102 映像処理装置
103 ライトフィールドディスプレイ

Claims (44)

  1. ディスプレイに表現されるコンテンツを視聴しようとする視聴者の決定された位置に基づいて前記視聴者に表現する第1ライトフィールドを決定するライトフィールド決定部と、
    前記視聴者の決定された位置に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツに関連する第2ライトフィールドに変換するライトフィールド変換部と、
    を備えることを特徴とする映像処理装置。
  2. 前記ライトフィールド決定部は、前記ディスプレイに含まれたサブピクセルから出力される中心光線のうち、前記視聴者の決定された位置に応じて視聴者が認識することのできる中心光線に対応する代表光線に基づいて前記第1ライトフィールドを決定することを特徴とする請求項1に記載の映像処理装置。
  3. 前記中心光線は、前記サブピクセルから明度の出力最大レベル(output maximum levels)それぞれの方向に出力される光線であり、
    前記代表光線は、前記中心光線のうち前記視聴者の決定された位置とほとんど一致する中心光線であることを特徴とする請求項2に記載の映像処理装置。
  4. 前記ライトフィールド変換部は、前記ディスプレイに含まれたサブピクセルの位置と前記視聴者の決定された位置を用いて前記サブピクセルの基準情報を生成し、
    前記基準情報と前記代表光線に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツと関連する第2ライトフィールドに変換することを特徴とする請求項1に記載の映像処理装置。
  5. 前記サブピクセルの基準情報は、前記サブピクセルの水平方向の位置と前記視聴者の目の水平方向の位置を連結する基準情報、または前記サブピクセルの垂直方向の位置と前記視聴者の目の垂直方向の位置を連結する基準情報のうち少なくとも1つを含むことを特徴とする請求項4に記載の映像処理装置。
  6. 前記サブピクセルの中心光線は、前記ディスプレイの前面に配置された光学フィルタを介して予め設定された方向に出力されることを特徴とする請求項2に記載の映像処理装置。
  7. 前記サブピクセルの中心光線は、前記ディスプレイの後面に配置された光学フィルタから発生した光線の方向に基づいて少なくとも1つの方向に決定されるものとして設定され、
    前記代表光線は、少なくとも1つの方向に対応する中心光線から選択されることを特徴とする請求項2に記載の映像処理装置。
  8. 前記ライトフィールド変換部は、前記サブピクセルごとに設定された最大の明度値に基づいて可視性情報を増加させることによってサブピクセルをレンダリングすることを特徴とする請求項1に記載の映像処理装置。
  9. 前記ライトフィールド変換部は、前記サブピクセルの明度値が最大値に増加した場合にサブピクセルを元の明度値に維持し、
    前記サブピクセルの明度値が最大値よりも小さい明度値に増加した場合に前記サブピクセルの明度値が最大値に増加した場合と比例して前記明度値を減少させることを特徴とする請求項1に記載の映像処理装置。
  10. 視聴者の決定された位置に基づいてディスプレイに含まれたサブピクセルの代表光線を決定する代表光線決定部と、
    前記視聴者の決定された位置と前記サブピクセルの位置に基づいて基準情報を決定する基準情報決定部と、
    前記代表光線と基準情報に基づいて前記サブピクセルの信号レベルを調整するサブピクセルレンダリング部と、
    を備えることを特徴とする映像処理装置。
  11. 前記代表光線決定部は、前記視聴者の決定された位置に基づいて光学フィルタによって前記サブピクセルから出力される中心光線のうち、視聴者が認識することのできる中心光線を前記サブピクセルの代表光線として決定することを特徴とする請求項10に記載の映像処理装置。
  12. 前記中心光線は、前記サブピクセルから明度の出力最大の明度値それぞれの方向に出力される光線であり、
    前記代表光線は、前記中心光線のうち視聴者の決定された位置とほとんど一致する中心光線であることを特徴とする請求項11に記載の映像処理装置。
  13. 前記基準情報決定部は、前記視聴者の決定された位置と前記サブピクセルの位置とを連結した仮想線を基準情報として決定することを特徴とする請求項10に記載の映像処理装置。
  14. 前記基準情報決定部は、前記サブピクセルの水平方向の位置と前記視聴者の目の水平方向の位置とを連結した仮想線、または、前記サブピクセルの垂直方向の位置と前記視聴者の目の垂直方向の位置とを連結した仮想線のうち少なくとも1つを用いて基準情報を決定することを特徴とする請求項13に記載の映像処理装置。
  15. 前記サブピクセルレンダリング部は、前記代表光線と基準情報とを比較した角度差に基づいて前記サブピクセルの信号レベルを調整することを特徴とする請求項10に記載の映像処理装置。
  16. 前記サブピクセルレンダリング部は、前記サブピクセルによって表現されるコンテンツが視聴者の左眼または右眼のうち少なくとも1つに見えるかの有無に応じて、視聴者の左眼に関連してサブピクセルの信号レベルを調整したり、または、視聴者の右眼に関連してサブピクセルの信号レベルを調整することを特徴とする請求項10に記載の映像処理装置。
  17. 前記サブピクセルの中心光線は、前記ディスプレイの前面に配置された光学フィルタによって予め設定された方向に出力されることを特徴とする請求項10に記載の映像処理装置。
  18. 前記サブピクセルの中心光線は、前記ディスプレイの後面に配置された光学フィルタから発生した光線の方向に基づいて少なくとも1つ以上の方向に出力されるものとして設定され、
    前記代表光線は、少なくとも1つの方向に対応する中心光線から選択されることを特徴とする請求項10に記載の映像処理装置。
  19. 前記サブピクセルレンダリング部は、前記サブピクセルごとに設定された最大の明度値に基づいて可視性情報を増加させることによってサブピクセルをレンダリングすることを特徴とする請求項10に記載の映像処理装置。
  20. 前記サブピクセルレンダリング部は、前記サブピクセルの明度値が最大値に増加した場合にサブピクセルを元の明度値に維持し、
    前記サブピクセルの明度値が最大値よりも小さい明度値に増加した場合に前記サブピクセルの明度値が最大値に増加した場合と比例して前記明度値を減少させることを特徴とする請求項10に記載の映像処理装置。
  21. ディスプレイに表現されるコンテンツを視聴しようとする視聴者の決定された位置に基づいて前記視聴者に表現する第1ライトフィールドを決定するライトフィールド決定部と、
    前記視聴者の決定された位置に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツと関連する第2ライトフィールドに変換するライトフィールド変換部と、
    をさらに備えることを特徴とする請求項10に記載の映像処理装置。
  22. ディスプレイに表現されるコンテンツを視聴しようとする視聴者の決定された位置に基づいて前記視聴者に表現する第1ライトフィールドを決定するステップと、
    前記視聴者の決定された位置に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツと関連する第2ライトフィールドに変換するステップと、
    を含むことを特徴とする映像処理方法。
  23. 前記第1ライトフィールドを決定するステップは、前記ディスプレイに含まれたサブピクセルから出力される中心光線のうち、前記視聴者の決定された位置に応じて視聴者が認識することのできる中心光線に対応する代表光線に基づいて前記第1ライトフィールドを決定することを特徴とする請求項22に記載の映像処理方法。
  24. 前記中心光線は、前記サブピクセルから明度の出力最大レベル(output maximum levels)それぞれの方向に出力される光線であり、
    前記代表光線は、前記中心光線のうち前記視聴者の決定された位置とほとんど一致する中心光線であることを特徴とする請求項22に記載の映像処理方法。
  25. 前記第2ライトフィールドに変換するステップは、
    前記ディスプレイに含まれたサブピクセルの位置と前記視聴者の決定された位置を用いて前記サブピクセルの基準情報を生成するステップと、
    前記基準情報と前記代表光線に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツと関連する第2ライトフィールドに変換するステップと、
    を含むことを特徴とする請求項22に記載の映像処理方法。
  26. 前記サブピクセルの基準情報は、前記サブピクセルの水平方向の位置と前記視聴者の目の水平方向の位置を連結する基準情報、または前記サブピクセルの垂直方向の位置と前記視聴者の目の垂直方向の位置を連結する基準情報のうち少なくとも1つを含むことを特徴とする請求項25に記載の映像処理方法。
  27. 前記サブピクセルの中心光線は、前記ディスプレイの前面に配置された光学フィルタを介して予め設定された方向に出力されることを特徴とする請求項23に記載の映像処理方法。
  28. 前記サブピクセルの中心光線は、前記ディスプレイの後面に配置された光学フィルタから発生した光線の方向に基づいて少なくとも1つの方向に出力されるものと設定され、
    前記代表光線は、少なくとも1つの方向に対応する中心光線から選択されることを特徴とする請求項23に記載の映像処理方法。
  29. 前記第2ライトフィールドに変換するステップは、前記サブピクセルごとに設定された最大の明度値に基づいて可視性情報を増加させることによってサブピクセルをレンダリングすることを特徴とする請求項22に記載の映像処理方法。
  30. 前記第2ライトフィールドに変換するステップは、前記サブピクセルの明度値が最大値に増加した場合にサブピクセルを元の明度値に維持し、
    前記サブピクセルの明度値が最大値よりも小さい明度値に増加した場合に前記サブピクセルの明度値が最大値に増加した場合と比例して前記明度値を減少させることを特徴とする請求項22に記載の映像処理方法。
  31. 視聴者の決定された位置に基づいてディスプレイに含まれたサブピクセルの代表光線を決定するステップと、
    前記視聴者の決定された位置と前記サブピクセルの位置に基づいて基準情報を決定するステップと、
    前記代表光線と基準情報に基づいて前記サブピクセルの信号レベルを調整するステップと、
    を含むことを特徴とする映像処理方法。
  32. 前記サブピクセルの代表光線を決定するステップは、前記視聴者の決定された位置に基づいて光学フィルタによって前記サブピクセルから出力される中心光線のうち、視聴者が認識することのできる中心光線を前記サブピクセルの代表光線に決定することを特徴とする請求項31に記載の映像処理方法。
  33. 前記中心光線は、前記サブピクセルから明度の出力最大の明度値それぞれの方向に出力される光線であり、
    前記代表光線は、前記中心光線のうち前記視聴者の決定された位置とほとんど一致する中心光線であることを特徴とする請求項32に記載の映像処理方法。
  34. 前記基準情報を決定するステップは、前記視聴者の決定された位置と前記サブピクセルの位置とを連結した仮想線を基準情報として決定することを特徴とする請求項31に記載の映像処理方法。
  35. 前記基準情報を決定するステップは、前記サブピクセルの水平方向の位置と前記視聴者の目の水平方向の位置とを連結した仮想線、または前記サブピクセルの垂直方向の位置と前記視聴者の目の垂直方向の位置とを連結した仮想線のうち少なくとも1つを用いて基準情報を決定することを特徴とする請求項34に記載の映像処理方法。
  36. 前記サブピクセルの信号レベルを調整するステップは、前記代表光線と基準情報とを比較した角度差に基づいて前記サブピクセルの信号レベルを調整することを特徴とする請求項31に記載の映像処理方法。
  37. 前記サブピクセルの信号レベルを調整するステップは、前記サブピクセルによって表現されるコンテンツが視聴者の左眼または右眼のうち少なくとも1つに見えるかの有無に応じて視聴者の左眼に関連してサブピクセルの信号レベルを調整したり、または視聴者の右眼に関連してサブピクセルの信号レベルを調整することを特徴とする請求項31に記載の映像処理方法。
  38. 前記サブピクセルの中心光線は、前記ディスプレイの前面に配置された光学フィルタによって予め設定された方向に出力されることを特徴とする請求項31に記載の映像処理方法。
  39. 前記サブピクセルの中心光線は、前記ディスプレイの後面に配置された光学フィルタから発生した光線の方向に基づいて少なくとも1つの方向に出力されるものと設定され、
    前記代表光線は、少なくとも1つの方向に対応する中心光線から選択されることを特徴とする請求項31に記載の映像処理方法。
  40. 前記前記サブピクセルの信号レベルを調整するステップは、前記サブピクセルごとに設定された最大の明度値に基づいて可視性情報を増加させることによってサブピクセルをレンダリングすることを特徴とする請求項31に記載の映像処理方法。
  41. 前記サブピクセルの信号レベルを調整するステップは、
    前記サブピクセルの明度値が最大値に増加した場合にサブピクセルを元の明度値に維持し、
    前記サブピクセルの明度値が最大値よりも小さい明度値に増加した場合に、前記サブピクセルの明度値が最大値に増加した場合と比例して前記明度値を減少させることを特徴とする請求項31に記載の映像処理方法。
  42. ディスプレイに表現されるコンテンツを視聴しようとする視聴者の決定された位置に基づいて前記視聴者に表現する第1ライトフィールドを決定するステップと、
    前記視聴者の決定された位置に基づいて前記決定された第1ライトフィールドを前記ディスプレイに表現しようとするコンテンツと関連する第2ライトフィールドに変換するステップと、
    をさらに含むことを特徴とする請求項31に記載の映像処理方法。
  43. 請求項22の方法を実行するためのプログラムが記録されたコンピュータで読み出し可能な記録媒体。
  44. 請求項31の方法を実行するためのプログラムが記録されたコンピュータで読み出し可能な記録媒体。
JP2014544677A 2011-11-30 2012-11-30 サブピクセルをレンダリングする映像処理装置及び方法 Active JP6050373B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20110126734 2011-11-30
KR10-2011-0126734 2011-11-30
KR10-2012-0074188 2012-07-06
KR1020120074188A KR101953686B1 (ko) 2011-11-30 2012-07-06 부화소를 렌더링하는 영상 처리 장치 및 방법
PCT/KR2012/010339 WO2013081429A1 (en) 2011-11-30 2012-11-30 Image processing apparatus and method for subpixel rendering

Publications (2)

Publication Number Publication Date
JP2015504641A true JP2015504641A (ja) 2015-02-12
JP6050373B2 JP6050373B2 (ja) 2016-12-21

Family

ID=48466421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014544677A Active JP6050373B2 (ja) 2011-11-30 2012-11-30 サブピクセルをレンダリングする映像処理装置及び方法

Country Status (6)

Country Link
US (1) US8890865B2 (ja)
EP (1) EP2786583B1 (ja)
JP (1) JP6050373B2 (ja)
KR (1) KR101953686B1 (ja)
CN (1) CN103988504B (ja)
WO (1) WO2013081429A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189319A1 (ja) * 2019-03-19 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101953686B1 (ko) * 2011-11-30 2019-05-23 삼성전자주식회사 부화소를 렌더링하는 영상 처리 장치 및 방법
KR102156408B1 (ko) * 2013-11-19 2020-09-16 삼성전자주식회사 레이어드 디스플레이 기법을 위한 디스플레이 장치 및 영상 생성 방법
US10317690B2 (en) 2014-01-31 2019-06-11 Magic Leap, Inc. Multi-focal display system and method
WO2015184409A1 (en) 2014-05-30 2015-12-03 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
KR102225563B1 (ko) 2014-05-30 2021-03-08 매직 립, 인코포레이티드 가상 및 증강 현실의 초점 평면들을 생성하기 위한 방법들 및 시스템
KR102240568B1 (ko) 2014-08-18 2021-04-16 삼성전자주식회사 영상 처리 방법 및 장치
CN104461425B (zh) * 2014-11-28 2018-11-27 广东欧珀移动通信有限公司 屏幕内容的显示调整方法、装置及终端
KR102333267B1 (ko) 2014-12-10 2021-12-01 삼성전자주식회사 눈 위치 예측 장치 및 방법
KR102399473B1 (ko) 2015-01-26 2022-05-17 매직 립, 인코포레이티드 개선된 회절 그레이팅 구조들을 갖는 가상 및 증강 현실 시스템들 및 방법들
KR102415502B1 (ko) 2015-08-07 2022-07-01 삼성전자주식회사 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
CN105260152B (zh) 2015-10-09 2018-05-08 利亚德光电股份有限公司 用于led显示屏的图像处理方法和装置
CN106254845B (zh) * 2015-10-20 2017-08-25 深圳超多维光电子有限公司 一种裸眼立体显示的方法、装置及电子设备
US20170178395A1 (en) * 2015-12-16 2017-06-22 Google Inc. Light field rendering of an image using variable computational complexity
EP3185550A1 (en) * 2015-12-23 2017-06-28 Thomson Licensing Tridimensional rendering with adjustable disparity direction
WO2017180615A1 (en) 2016-04-12 2017-10-19 Quidient, Llc Quotidian scene reconstruction engine
WO2018024490A1 (en) 2016-08-05 2018-02-08 Thomson Licensing A method for obtaining at least one sub-aperture image being associated with one view
KR102564479B1 (ko) 2016-11-22 2023-08-07 삼성전자주식회사 사용자의 눈을 위한 3d 렌더링 방법 및 장치
KR102564478B1 (ko) 2016-11-22 2023-08-07 삼성전자주식회사 3d 영상 렌더링 방법 및 장치
KR102655810B1 (ko) 2016-11-22 2024-04-09 삼성전자주식회사 3d 영상 렌더링 방법 및 장치
KR102547821B1 (ko) 2016-11-25 2023-06-26 삼성전자주식회사 3d 디스플레이 장치
US20190124313A1 (en) 2017-10-19 2019-04-25 Intel Corporation Three dimensional glasses free light field display using eye location
KR102401168B1 (ko) 2017-10-27 2022-05-24 삼성전자주식회사 3차원 디스플레이 장치의 파라미터 캘리브레이션 방법 및 장치
JP7399879B2 (ja) 2018-05-02 2023-12-18 クイッディエント・エルエルシー ほとんど無制限のディテールを有するシーンを処理するためのコーデック
US10623714B2 (en) 2018-05-24 2020-04-14 Innolux Corporation Stereoscopic display device and method for operating using pixel offset map
CN109256076B (zh) * 2018-08-30 2022-02-22 京东方科技集团股份有限公司 边缘像素显示方法、系统、存储设备和显示装置
CN109143602A (zh) * 2018-09-25 2019-01-04 张家港康得新光电材料有限公司 一种3d显示装置及电子设备
KR20200067641A (ko) 2018-12-04 2020-06-12 삼성전자주식회사 3차원 증강 현실을 위한 캘리브레이션 방법 및 그 장치
US11212513B2 (en) * 2019-07-03 2021-12-28 Innolux Corporation Method for displaying a stereoscopic image on a display device
CN112929643B (zh) * 2019-12-05 2022-06-28 北京芯海视界三维科技有限公司 3d显示设备、方法及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185629A (ja) * 2007-01-26 2008-08-14 Seiko Epson Corp 画像表示装置
JP2010113159A (ja) * 2008-11-06 2010-05-20 Sharp Corp 立体画像表示装置および立体画像表示方法
US20110102423A1 (en) * 2009-11-04 2011-05-05 Samsung Electronics Co., Ltd. High density multi-view image display system and method with active sub-pixel rendering
JP2013016966A (ja) * 2011-07-01 2013-01-24 Japan Display West Co Ltd 表示装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990069140A (ko) 1998-02-05 1999-09-06 구자홍 입체영상 표시장치
JP2003299121A (ja) * 2002-04-05 2003-10-17 Canon Inc 立体画像表示装置および立体画像表示システム
DE10359403B4 (de) * 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
DE102004059729B3 (de) * 2004-12-11 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen und Anordnung zur Verfahrensdurchführung
JP4468341B2 (ja) 2006-09-28 2010-05-26 株式会社東芝 三次元画像表示方法および三次元画像表示装置
JP4403162B2 (ja) * 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
KR101320513B1 (ko) 2006-12-05 2013-10-22 엘지디스플레이 주식회사 영상표시장치 및 이의 구동방법
JP4331224B2 (ja) 2007-03-29 2009-09-16 株式会社東芝 三次元画像表示装置及び三次元画像の表示方法
GB0718602D0 (en) 2007-05-16 2007-10-31 Seereal Technologies Sa Holograms
CN101072366B (zh) * 2007-05-24 2010-08-11 上海大学 基于光场和双目视觉技术的自由立体显示系统和方法
US20090282429A1 (en) * 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
JP4386299B1 (ja) 2008-10-09 2009-12-16 健治 吉田 パララックスバリア、裸眼立体映像表示装置
KR101502597B1 (ko) 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
KR101296900B1 (ko) 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
KR101606797B1 (ko) * 2009-10-28 2016-03-29 삼성디스플레이 주식회사 입체 영상 표시 장치 및 영상 표시 방법
JP5306275B2 (ja) * 2010-03-31 2013-10-02 株式会社東芝 表示装置及び立体画像の表示方法
JP5607430B2 (ja) * 2010-06-10 2014-10-15 株式会社ジャパンディスプレイ 立体映像表示装置及び電子機器
KR101675961B1 (ko) * 2010-12-29 2016-11-14 삼성전자주식회사 적응적 부화소 렌더링 장치 및 방법
KR101953686B1 (ko) * 2011-11-30 2019-05-23 삼성전자주식회사 부화소를 렌더링하는 영상 처리 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185629A (ja) * 2007-01-26 2008-08-14 Seiko Epson Corp 画像表示装置
JP2010113159A (ja) * 2008-11-06 2010-05-20 Sharp Corp 立体画像表示装置および立体画像表示方法
US20110102423A1 (en) * 2009-11-04 2011-05-05 Samsung Electronics Co., Ltd. High density multi-view image display system and method with active sub-pixel rendering
JP2011101366A (ja) * 2009-11-04 2011-05-19 Samsung Electronics Co Ltd アクティブサブピクセルレンダリング方式に基づく高密度多視点映像表示システムおよび方法
JP2013016966A (ja) * 2011-07-01 2013-01-24 Japan Display West Co Ltd 表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189319A1 (ja) * 2019-03-19 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11785203B2 (en) 2019-03-19 2023-10-10 Sony Group Corporation Information processing apparatus, information processing method, and program
JP7472899B2 (ja) 2019-03-19 2024-04-23 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20130135299A1 (en) 2013-05-30
WO2013081429A1 (en) 2013-06-06
EP2786583B1 (en) 2019-05-08
EP2786583A4 (en) 2015-05-27
CN103988504A (zh) 2014-08-13
EP2786583A1 (en) 2014-10-08
KR101953686B1 (ko) 2019-05-23
CN103988504B (zh) 2016-11-02
JP6050373B2 (ja) 2016-12-21
KR20130061042A (ko) 2013-06-10
US8890865B2 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
JP6050373B2 (ja) サブピクセルをレンダリングする映像処理装置及び方法
KR101629479B1 (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
KR101670927B1 (ko) 디스플레이 장치 및 방법
KR102415502B1 (ko) 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
JP3944188B2 (ja) 立体画像表示方法、立体画像撮像方法及び立体画像表示装置
US8208008B2 (en) Apparatus, method, and program for displaying stereoscopic images
TWI489147B (zh) 三維影像顯示裝置及三維影像處理方法
JP6061852B2 (ja) 映像表示装置および映像表示方法
JP6517245B2 (ja) 三次元画像を生成するための方法及び機器
US9270981B2 (en) Apparatus and method for adaptively rendering subpixel
US8311318B2 (en) System for generating images of multi-views
KR102121389B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
US20140118512A1 (en) Image processing method and image processing apparatus
JP2008510408A (ja) ビューモードの検出
TW201322733A (zh) 影像處理裝置、立體影像顯示裝置、影像處理方法及影像處理程式
WO2015132828A1 (ja) 映像表示方法、及び、映像表示装置
KR20160081773A (ko) 광시각 나안 입체 영상 표시 방법 및 표시 장치
KR101975246B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
JP2019213127A (ja) Ip立体映像表示装置及びそのプログラム
KR101746719B1 (ko) 디스플레이패널과 개별 렌즈간의 거리를 각각 달리하는 렌즈어레이를 이용한 3차원 영상 출력 방법
KR20150059686A (ko) 영상 처리 방법 및 장치
JP5928280B2 (ja) 多視点画像生成装置及び方法
JP2004361467A (ja) 表示装置及び方法
KR20160128483A (ko) Table-top 3D 디스플레이 시스템 및 그 방법
TW201306562A (zh) 用於改善三維顯示品質的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161124

R150 Certificate of patent or registration of utility model

Ref document number: 6050373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250