JP6734620B2 - 映像処理方法及び映像処理装置 - Google Patents

映像処理方法及び映像処理装置 Download PDF

Info

Publication number
JP6734620B2
JP6734620B2 JP2013225042A JP2013225042A JP6734620B2 JP 6734620 B2 JP6734620 B2 JP 6734620B2 JP 2013225042 A JP2013225042 A JP 2013225042A JP 2013225042 A JP2013225042 A JP 2013225042A JP 6734620 B2 JP6734620 B2 JP 6734620B2
Authority
JP
Japan
Prior art keywords
pixel
viewpoint
display
image
viewpoint image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013225042A
Other languages
English (en)
Other versions
JP2014093779A (ja
Inventor
柱 容 朴
柱 容 朴
東 ▲ぎょん▼ 南
東 ▲ぎょん▼ 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014093779A publication Critical patent/JP2014093779A/ja
Application granted granted Critical
Publication of JP6734620B2 publication Critical patent/JP6734620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/403Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being monoscopic

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of El Displays (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明の実施形態は、ピクセル情報を用いて多視点映像をライトフィールドディスプレイの表現方式に適するように変換する映像処理方法及び映像処理装置に関する。
立体感を提供する3D映像を効果的に実現するためには、人間の左右の視覚に互いに異なる視点(view point)の映像を表現しなければならない。メガネなどのフィルタを利用せずに3D映像を実現するためには、3D映像を視点に応じて空間的に分割して表現しなければならない。このような方式を用いたディスプレイを裸眼3Dディスプレイ(autostereoscopic display)という。裸眼3Dディスプレイでは、主に光学的な手段を用いて映像を空間に分割して表現し、代表としてレンチキュラレンズ(Lenticular lens)またはパララックスバリア(parallax barrier)を用いる。レンチキュラレンズは各々のピクセル映像が特定の方向にだけ表現されるようにし、パララックスバリアはスリットを介して特定の方向から特定ピクセルだけ見られるようにする。
裸眼3Dディスプレイには、ライトフィールド(light field)の原理を用いるライトフィールドディスプレイがある。ライトフィールドは、3次元空間上の全ての点で全ての方向に光がどれだけの強度を有するのかを表現する一種の場(field)であり、ライトフィールドの概念は空間で実際の物体を表現するのに適する。ライトフィールドディスプレイは、現実の空間にライトフィールドを表現し、実際の事物と似た3D映像を実現する。
ライトフィールドディスプレイの方式のうち一般的なライトフィールドを実現するインテグラルイメージング(integral imaging)方式がある。インテグラルイメージング方式は、実際の物体が一点で様々な方向に光を生成したり、または反射する原理を用いて一定の空間に存在する点が様々な方向に放射する光をそのまま実現する方式である。
ライトフィールドを用いる方式では、様々な点から様々な方向に向かう光を表現するため、多視点映像(multi−viewpoint image)が入力される場合、表示ピクセル(pixel)と視点映像ピクセルが一対一で対応しない場合が多い。これは、特定視点の映像を表現するためにピクセルの位置とピクセルから出る光の方向が特定されていないためである。従って、ライトフィールド原理を用いる一般的なディスプレイにおいて多視点映像を入力して3D映像を表現するためには、多視点映像をライトフィールドディスプレイの表現方式に変換する過程が必要である。
一実施形態に係る映像処理方法は、 表示ピクセルの予め決められた表示方向及び視点映像の視点を用いて前記表示方向に対応する視点映像を決定するステップと、前記表示ピクセルのディスプレイ内の位置及び前記決められた映像のピクセル位置情報を用いて前記視点映像から前記表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定するステップと、前記視点映像ピクセルのピクセル値に基づいて前記表示ピクセルのピクセル値を決定するステップを含んでもよい。
一実施形態に係る映像処理方法において、前記視点映像を決定するステップは、複数の視点映像のうち前記表示方向に隣接した視点を有する複数の視点映像を補間するステップと、前記補間によって生成された視点映像を前記表示方向に対応する視点映像として決定するステップとを含んでもよい。
他の実施形態に係る映像処理方法は、ユーザの目の位置に基づいてピクセル値が適用される表示ピクセルを識別するステップと、前記表示ピクセルの予め決められた表示方向及び視点映像の視点を用いて前記表示方向に対応する視点映像を決定するステップと、前記表示ピクセルのディスプレイ内の位置及び前記決められた映像のピクセル位置情報を用いて前記視点映像から前記表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定するステップと、を含んでもよい。
他の実施形態に係る映像処理方法において、前記視点映像を決定するステップは、複数の視点映像のうち前記表示方向に隣接した視点を有する複数の視点映像を補間するステップと、前記補間によって生成された視点映像を前記表示方向に対応する視点映像として決定するステップとを含んでもよい。
一実施形態に係る映像処理装置は、表示ピクセルの予め決められた表示方向及び視点映像の視点を用いて前記表示方向に対応する視点映像を決定する視点映像決定部と、前記表示ピクセルのディスプレイ内の位置及び前記決められた映像のピクセル位置情報を用いて前記視点映像から前記表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定する視点映像ピクセル決定部と、前記視点映像ピクセルのピクセル値に基づいて前記表示ピクセルのピクセル値を決定するピクセル値決定部と、を含んでもよい。
一実施形態に係る映像処理装置において、前記視点映像決定部は、複数の視点映像のうち前記表示方向に隣接した視点を有する複数の視点映像を補間する視点映像補間部を含んでもよい。
一実施形態に係る映像処理装置において、前記ピクセル値決定部は、隣接した視点映像ピクセルのピクセル値を補間するピクセル値補間部を含んでもよい。
一実施形態に係る映像処理装置は、ユーザの目の位置に基づいてピクセル値が適用される表示ピクセルを識別する表示ピクセル識別部をさらに含んでもよい。
一実施形態によれば、多視点映像を多様な形態のライトフィールドディスプレイに適したコンテンツに変換することができる。
一実施形態によれば、変換されたコンテンツをライトフィールドディスプレイで再生した場合、視聴する位置が変わってもその物体が実際にその位置に存在するような現実的な体験を視聴者に提供することができる。
一実施形態に係る映像処理装置の全般的な動作を説明するための図である。 他の実施形態に係るセンサと連動して映像処理を行う映像処理装置の全般的な動作を説明するための図である。 一実施形態に係る3Dピクセルを含むライトフィールドディスプレイを示す図である。 一実施形態に係る映像処理装置の細部構成を示す図である。 他の実施形態に係る映像処理装置の細部構成を示す図である。 一実施形態に係る視点映像を決定する動作を説明するための図である。 一実施形態に係る表示ピクセルのピクセル値を決定する動作を説明するための図である。 一実施形態に係る光学的な手段を含むライトフィールドディスプレイで表示ピクセルのピクセル値を決定する動作を説明するための図である。 一実施形態に係る複数のプロジェクターを用いるライトフィールドディスプレイにおける映像処理動作を説明するための図である。 一実施形態に係る複数のプロジェクターを用いるライトフィールドディスプレイで水平方向のパララックスを有する多視点映像が入力された時の映像処理動作を説明するための図である。 一実施形態に係る映像処理方法の細部的なステップを説明するためのフローチャートである。 他の実施形態に係る映像処理方法の細部的なステップを説明するためのフローチャートである。
以下、実施形態を添付する図面を参照しながら詳細に説明する。一実施形態に係る映像処理方法は、映像処理装置によって行ってもよい。各図面に提示された同一の参照符号は、同一の部材を示す。
図1は、一実施形態に係る映像処理装置の全般的な動作を説明するための図である。図1によれば、ライトフィールドディスプレイ120システムは、映像処理装置110及びライトフィールドディスプレイ120を含んでもよい。
ライトフィールドディスプレイ120は、ライトフィールド原理を用いてオブジェクトを出力するディスプレイであり、3次元空間上のオブジェクトが光をどの方向にどれくらいの強度を生成または反射するかを表現してもよい。ライトフィールドディスプレイ120は、例えば、特定の方向に光線(ray)を出力するピクセルをグループ化して実現したり、または複数のプロジェクター(projector)及びスクリーンを用いて実現してもよい。また、ライトフィールドディスプレイ120は、レンチキュラレンズまたはパララックスバリアなどの光学的な手段を用いてもよい。ライトフィールドディスプレイ120は、多視点3Dディスプレイまたはインテグラルイメージング方式を用いるディスプレイを含んでもよい。
映像処理装置110は、多視点映像(multi−viewpoint image)がライトフィールドディスプレイ120の表現方式に適するようにライトフィールドディスプレイ120のピクセル情報を用いて映像変換を行ってもよい。ここで、ピクセル情報は、ライトフィールドディスプレイ120に含まれた表示ピクセルの位置及び各表示ピクセルから出る光線に関する情報を含んでもよい。
多視点映像は、同一の時間に同一のオブジェクトを撮影した映像であり、互いに異なる視点で撮影した映像を示す。例えば、多視点映像は、複数のカメラが配列されたカメラアレイ(camera array)によって撮影されてもよい。カメラアレイにおける各カメラ位置によって互いに異なる視点(view point)を有する視点映像が撮影されてもよい。
映像処理装置110は、各々の視点映像から映像情報を抽出してもよい。映像処理装置110は、映像情報に基づいて各々の視点映像から視点方向を決定してもよい。映像情報は、各々の視点映像からオブジェクトの撮影位置、撮影方向、画角(field of view)などに関する情報を含んでもよい。一実施形態によれば、撮影位置と撮影方向は、カメラアレイの固定された座標情報から導き出されてもよい。視点映像と関連する映像情報は、メタデータなどの形態で伝達されてもよい。ピクセル値を算出するための情報は、ルックアップテーブル(look−up table、LUT)の形態でライトフィールドディスプレイ120のメモリに格納されてもよい。例えば、ルックアップテーブルは、ライトフィールドディスプレイ120の製造過程で定義され、その後にアップデートされてもよい。
一実施形態によれば、受信した視点映像の数は、ライトフィールドディスプレイ120の可能な視点方向の数と同一であってもよい。視点映像は、圧縮された形態または圧縮されていない形態で提供されてもよく、現在のフレームと以前のフレーム間の差のみ提供されてもよい。視点映像の映像費(aspect ratio)、解像度(resolution)、撮影条件は、視点映像の間で同一または異なってもよい。
映像処理装置110は、多視点映像が入力された場合、ライトフィールドディスプレイ120の各表示ピクセルに対応する視点映像を決定してもよい。映像処理装置110は、複数の視点映像のうち各表示ピクセルのピクセル情報に基づいて視点映像を決定してもよい。または、映像処理装置110は複数の視点映像を補間(interpolation)して新しい視点を有する視点映像を生成してもよく、生成された視点映像を表示ピクセルに対応する視点映像として決定してもよい。
映像処理装置110は、表示ピクセルに対応する視点映像が決定されれば、表示ピクセルに対応する視点映像ピクセルのピクセル値に基づいて当該表示ピクセルのピクセル値を決定してもよい。または、映像処理装置110は、同一または異なる視点映像の複数の視点映像ピクセルのピクセル値を補間して当該表示ピクセルのピクセル値を決定してもよい。従って、可能な視点方向の数が受信した視点映像の数と同一であっても、視点方向は視点映像の撮影位置と完全に一致しないこともある。このような条件において、映像処理装置110は、目的とする位置に最も近い視点映像/ピクセルを選択したり、または目的とする位置に隣接した視点映像を選択して、各々の視点映像に対して表現するピクセルの位置と近い複数のピクセルを選択した後に、選択したピクセルを補間することによって表現するピクセル値を決定してもよい。映像処理装置110は、上のような過程によって多視点映像をライトフィールドディスプレイ120に適した映像に変換してもよい。
また、映像処理装置110は、3次元オブジェクトで発生する実際のライトフィールドと類似のライトフィールドを実現することによってユーザに3次元オブジェクトに対する実感を提供することができ、ユーザが移動してもライトフィールドディスプレイ120内の3次元オブジェクトは固定された位置に存在するような現実感を提供することができる。
図2は、他の実施形態に係るセンサと連動して映像処理を行う映像処理装置の全般的な動作を説明するための図である。図2よれば、ライトフィールドディスプレイ230システムは、センサ210、映像処理装置220及びライトフィールドディスプレイ230を含んでもよい。
センサ210は、ライトフィールドディスプレイ230を凝視するユーザの目の位置を検出してもよい。ここで、センサ210では、ユーザの目を撮影して3次元空間座標を生成できるカメラが用いられてもよい。ここで、カメラは、ライトフィールドディスプレイ230に組み込まれたり(embed)、または、外部に装着されてライトフィールドディスプレイ230と接続してもよい。一例として、カメラは、1つ以上の可視帯域カメラ、1つ以上の赤外線カメラ、及び1つ以上のデプスカメラ(depth camera)のうち少なくとも1つを含んでもよい。
一例として、映像処理装置220は、カメラによって撮影された2D(dimension)映像及び深さ情報を含む深さ映像を用いてユーザの目の位置を算出してもよい。映像処理装置220は、2D映像でカメラの位置及びカメラの方向に基づいて3次元空間座標系の二本の軸に関する位置情報を取得してもよく、深さ映像によって残りの1つの軸に関する位置情報を取得してもよい。映像処理装置220は、取得した位置情報を組み合わせてユーザの目の位置を算出してもよい。
一実施形態によれば、映像処理装置220は、ユーザの目の位置に基づいて映像処理が行われる表示ピクセルを識別してもよい。具体的には、映像処理装置220は、表示ピクセルから出る光線とユーザの目の位置間の距離に基づいて一定の距離以内に該当する表示ピクセルを識別してもよい。映像処理装置220は、ライトフィールドディスプレイに含まれた表示ピクセルに対して選択的に映像処理を行うことで算出量を減らすことができる。例えば、ユーザの目の追跡結果として、表示ピクセルとユーザの目との間の方向差及び表示ピクセルの表現方向と意図する方向との間の方向差が予め設定された閾値より大きい場合、映像処理装置220は先に識別したピクセルを処理しなくてもよい。ユーザの目の位置と最も近い視点映像が意図する方向と最も近い視点映像であってもよい。
換言すれば、映像処理装置220は、識別された表示ピクセルに対してのみ対応する視点映像を決定し、対応する表示ピクセルのピクセル値を決定してもよい。映像処理装置220が視点映像を決定する動作及び表示ピクセルのピクセル値を決定する動作は、図1の内容を参考にしてもよい。
映像処理装置220は、ユーザの目の位置を用いてユーザの目の位置に応じて互いに異なるコンテンツを提供してもよく、ユーザの目の位置を用いて互いに異なるユーザに同時に互いに異なるコンテンツを提供してもよい。
図3は、一実施形態に係る3Dピクセルを含むライトフィールドディスプレイを示す図である。図3によれば、ライトフィールドディスプレイ310は、複数の3Dピクセル320を含んでもよい。3Dピクセル320は、各々の方向を有する光線340を出力する表示ピクセル330を含んでもよい。光線340の方向は、表示ピクセルの予め決められた表示方向に対応してもよい。または、3Dピクセル320は、レンチキュラレンズ、パララックスバリア、またはマイクロレンズアレイなどの光学フィルタを用いての様々な方向に光線340を放射してもよい。そのため、表示ピクセル330が集まって3次元空間上の点などがライトフィールドディスプレイ310に表示されてもよい。
各3Dピクセル320で表示ピクセル330の位置及び表示ピクセル330から出力する光線340に関する情報は、ライトフィールドディスプレイ、または映像処理装置に予め格納されてもよい。表示ピクセルの位置、及び表示ピクセルから出る光線に関する情報は、ライトフィールドディスプレイの設計環境、及び用いられる光学フィルタによって多様になり得る。
表示ピクセル330から出る光線340の方向は、水平方向及び垂直方向のうちのいずれか1つであるか、または全ての方向を含んでもよい。例えば、表示ピクセル330から出る光線340が水平方向には特定の方向を有するが、垂直方向には全ての方向に進む場合、ライトフィールドディスプレイ310は水平方向のライトフィールドを構成してもよい。反対に、表示ピクセル330から出る光線340が垂直方向には特定の方向を有するが、水平方向には全ての方向に進む場合、ライトフィールドディスプレイ310は、垂直方向のライトフィールドを構成してもよい。また、表示ピクセル330から出る光線340が水平方向及び垂直方向に全て特定の方向に進む場合、ライトフィールドディスプレイ310は、全ての方向に対してライトフィールドを構成してもよい。
例えば、ライトフィールドディスプレイ310が多視点ディスプレイである場合、プロジェクションの水平方向は、パララックスバリアまたはレンチキュラレンズを用いるライトフィールドディスプレイ310内で固定されてもよい。ライトフィールドディスプレイ310がインテグラル映像のディスプレイである場合、プロジェクションの水平方向及び垂直方向は固定されてもよい。ライトフィールドディスプレイ310が複数のプロジェクターを用いる場合、プロジェクションの方向はスクリーンの後面に位置するプロジェクターの中心位置に基づいて決定されてもよい。一実施形態によれば、プロジェクションの方向が固定されていないディスプレイの場合、構造が可変され得るパララックスバリアまたはレンチキュラレンズが用いられてもよい。従って、プロジェクションの方向は、多様な条件に基づいて決定され得る。
図4は、一実施形態に係る映像処理装置の細部構成を示す図である。図4によれば、映像処理装置410は、視点映像決定部420、視点映像ピクセル決定部440、及びピクセル値決定部450を含んでもよい。また、視点映像決定部420は視点映像補間部430を含んでもよく、ピクセル値決定部450はピクセル値補間部460を含んでもよい。
視点映像決定部420は、各々の表示ピクセルから出る光線と多視点映像を構成している視点映像の視点を用いて各光線に対応する視点映像を決定してもよい。視点映像決定部420は、表示ピクセルの予め決められた表示方向及び視点映像の視点を用いて表示ピクセルの表示方向に対応する視点映像を決定してもよい。
表示ピクセルは各々の進行方向を有する光線を出力してもよく、表示ピクセルから出る光線に関する情報はライトフィールドディスプレイまたは映像処理装置410に予め格納されていてもよい。視点映像の視点は、視点映像が撮影された撮影位置であって、例えばカメラがオブジェクトを撮影した位置を示してもよい。視点映像の視点は、オブジェクトとカメラとの間の距離及び撮影各背中の情報から取得されてもよい。
視点映像決定部420は、表示ピクセルから出る光線と視点映像の視点の位置を用いて各光線に対応する視点映像を決定してもよい。具体的には、視点映像決定部420は、複数の視点映像のうち光線と最も近い視点を有する視点映像を光線に対応する視点映像として決定してもよい。
一実施形態によれば、視点映像決定部420は、多視点映像を構成する各々の視点映像の視点と表示ピクセルから出る光線間の距離を算出してもよい。視点映像決定部420は、算出された距離のうち最も距離が近い視点を有する視点映像を当該光線に対応する視点映像として決定してもよい。
または、視点映像決定部420は、複数の視点映像のうち光線に隣接した視点を有する複数の視点映像を補間する視点映像補間部430を含んでもよい。視点映像補間部430は、複数の視点映像を補間して新しい視点を有する視点映像を生成してもよい。視点映像補間部430は、上の過程によって光線の方向に位置する視点を有する視点映像を生成してもよい。
一実施形態によれば、視点映像補間部430は、表示ピクセルから出る光線と各視点映像の視点間の距離が予め設定された閾値範囲内に含まれる場合、含まれる視点映像に基づいて補間を行ってもよい。視点映像補間部430は、補間を行う視点映像で対応する位置におけるピクセル値を平均したり、または予め決定した多様な補間公式を用いて視点映像を補間してもよい。視点映像決定部420は、補間によって新しく生成された視点映像を当該表示ピクセルまたは光線に対応する視点映像として決定してもよい。
視点映像ピクセル決定部440は、表示ピクセルのディスプレイ内の位置及び決められた映像のピクセル位置情報を用いて視点映像決定部420が決めた視点映像で表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定してもよい。
視点映像ピクセル決定部440は、ライトフィールドディスプレイで視点映像が表示されるディスプレイ領域を識別してもよい。その後、視点映像ピクセル決定部440は、ディスプレイ領域で表示ピクセルの位置に対応する座標を識別してもよい。視点映像ピクセル決定部440は、視点映像のディスプレイ領域で表示ピクセルの位置に対応する座標を用いて視点映像ピクセルを決定してもよい。
具体的には、視点映像ピクセル決定部440は、視点映像ピクセルのうち座標に対応するピクセルを識別してもよい。一実施形態によれば、視点映像ピクセル決定部440は、座標に対応する視点映像における位置と最も近い視点映像ピクセルを当該表示ピクセルに対応する視点映像ピクセルとして決定してもよい。
または、視点映像ピクセル決定部440は、座標に対応する視点映像における位置に隣接した視点映像ピクセルを表示ピクセルに対応する視点映像ピクセルとして決定してもよい。視点映像ピクセル決定部440は、複数の視点映像ピクセルを各表示ピクセルに対応する視点映像ピクセルとして決定してもよい。例えば、視点映像ピクセル決定部440は、座標に対応する視点映像の位置と各視点映像ピクセル間の距離に基づいて、予め設定された閾値範囲内に該当する視点映像ピクセルを決定してもよい。
ピクセル値決定部450は、視点映像ピクセル決定部440が決めた視点映像ピクセルのピクセル値に基づいて表示ピクセルのピクセル値を決定してもよい。ピクセル値決定部450は、決定された視点映像ピクセルのピクセル値を当該表示ピクセルのピクセル値として決定してもよい。ピクセル値決定部450は、表示ピクセルに対応する視点映像ピクセルのピクセル値を当該表示ピクセルに印加してもよい。
ピクセル値補間部460は、決定された視点映像ピクセルのピクセル値を補間してもよい。視点映像ピクセル決定部440が座標に隣接した複数の視点映像ピクセルを決めた場合、ピクセル値補間部460は、決定された視点映像ピクセルのピクセル値を補間してもよい。ピクセル値補間部460は、視点映像ピクセルのピクセル値を平均したり、または予め決定した補間公式を適用してピクセル値の補間を行ってもよい。ピクセル値決定部450は、補間したピクセル値を表示ピクセルのピクセル値として決定してもよい。
上の過程によって、ライトフィールドディスプレイの各々の表示ピクセルには、各々の視点映像が決定され、当該視点映像のピクセル値に基づいて各表示ピクセルに最も適したピクセル値が適用される。映像処理装置410は、ライトフィールドディスプレイの表現方式に適するように多視点映像に基づく映像変換を行ってもよい。
映像処理装置410は、多視点映像に含まれた視点映像の視点の数とライトフィールドディスプレイの表示ピクセルが表現できる光線の方向の数が一致しなくとも、多視点映像をライトフィールドディスプレイが表現するために適した映像に変換してもよい。また、映像処理装置410は、ライトフィールドディスプレイを構成する光学フィルタの種類に関わらず、各表示ピクセルから出る光線に関する情報を用いて映像処理を行ってもよい。映像処理装置410は、各表示ピクセルから出る光線の表現方式が決定されたライトフィールドディスプレイに対しては上記の映像処理過程を適用してもよい。
図5は、他の実施形態に係る映像処理装置の細部構成を示す図である。図5によれば、映像処理装置520は、表示ピクセル識別部530、視点映像決定部540、視点映像ピクセル決定部560及びピクセル値決定部570を含んでもよい。また、視点映像決定部540は視点映像補間部550を含んでもよくピクセル値決定部570はピクセル値補間部580を含んでもよい。一実施形態によれば、図4の視点映像決定部420、視点映像補間部430、視点映像ピクセル決定部440、ピクセル値決定部450、ピクセル値補間部460の特徴は、各々図5の視点映像決定部540、視点映像補間部550、視点映像ピクセル決定部560、ピクセル値決定部570、ピクセル値補間部580の特徴と同一であってもよい。
表示ピクセル識別部530は、ユーザの目の位置に基づいてピクセル値が適用される表示ピクセルを識別してもよい。ユーザの目の位置は、センサ510によって取得されてもよい。例えば、センサ510は、ユーザの目を撮影して3次元空間座標を生成できるカメラなどが該当し得る。ここで、カメラは、ライトフィールドディスプレイに内蔵されたり、または、外部に装着されてライトフィールドディスプレイと接続されてもよい。表示ピクセル識別部530は、ユーザの目を撮影した2D映像及びユーザの目を撮影した深さ映像を用いてユーザの目の位置を取得してもよい。
具体的には、表示ピクセル識別部530は、表示ピクセルから出る光線とユーザの目の位置間の距離が予め設定された閾値以下になる少なくとも1つの表示ピクセルを識別してもよい。ここで、予め設定された閾値は、例えば表示ピクセルから出力された光線がユーザの目に見える領域に含まれるか否かに基づいて設定されてもよい。ユーザの目に見える領域は、表示ピクセルから光線が出力されてユーザの目に見えるようになる領域として予め設定されてもよい。換言すれば、表示ピクセルから出力された光線がユーザの目の瞳に直接到達しなくても、光線の光が一定量ユーザの目に到達してユーザの目に見え得る。このように、ユーザの目に見える領域は、光線の光がユーザの目に到達することによってユーザの目に見えるようになる領域であってもよい。
表示ピクセル識別部530は、上の過程によって映像処理の対象になる表示ピクセルを識別してもよい。これにより、映像処理装置520は、映像処理過程における算出量を減らして迅速に映像変換を行ってもよい。
視点映像決定部540は、表示ピクセル識別部530が識別した各々の表示ピクセルから出る光線及び視点映像の視点を用いて各光線に対応する視点映像を決定してもよい。具体的には、視点映像決定部540は、複数の視点映像のうち光線と最も近い視点を有する視点映像を光線に対応する視点映像として決定してもよい。
一実施形態によれば、視点映像決定部540は、多視点映像を構成する各々の視点映像の視点と表示ピクセルから出る光線間の距離を算出してもよい。視点映像決定部540は、算出された距離のうち最も距離が近い視点を有する視点映像を当該光線に対応する視点映像として決定してもよい。
または、視点映像決定部540は、複数の視点映像のうち光線に隣接した視点を有する複数の視点映像を補間する視点映像補間部550を含んでもよい。視点映像補間部550は、複数の視点映像を補間して新しい視点を有する視点映像を生成してもよい。視点映像補間部550は、上の過程によって光線の方向に位置する視点を有する視点映像を生成してもよい。
一実施形態によれば、視点映像補間部550は、表示ピクセルから出る光線と各視点映像の視点間の距離が予め設定された閾値範囲内に含まれる場合、含まれる視点映像に基づいて補間を行ってもよい。視点映像決定部540は、補間によって新しく生成された視点映像を当該表示ピクセルまたは光線に対応する視点映像として決定してもよい。
視点映像ピクセル決定部560は、表示ピクセルの位置を用いて視点映像決定部540が決めた視点映像で表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定してもよい。
視点映像ピクセル決定部560は、ライトフィールドディスプレイで視点映像が表示されるディスプレイ領域を識別してもよい。その後、視点映像ピクセル決定部560は、ディスプレイ領域で表示ピクセルの位置に対応する座標を識別してもよい。視点映像ピクセル決定部560は、視点映像のディスプレイ領域で表示ピクセルの位置に対応する座標を用いて視点映像ピクセルを決定してもよい。
具体的には、視点映像ピクセル決定部560は、視点映像ピクセルのうち座標に対応するピクセルを識別してもよい。一実施形態によれば、視点映像ピクセル決定部560は、座標に対応する視点映像における位置と最も近い視点映像ピクセルを当該表示ピクセルに対応する視点映像ピクセルとして決定してもよい。
または、視点映像ピクセル決定部560は、座標に対応する視点映像における位置に隣接した視点映像ピクセルを表示ピクセルに対応する視点映像ピクセルとして決定してもよい。視点映像ピクセル決定部560は、複数の視点映像ピクセルを各表示ピクセルに対応する視点映像ピクセルとして決定してもよい。例えば、視点映像ピクセル決定部560は、座標に対応する視点映像の位置と各視点映像ピクセル間の距離に基づいて、予め設定された閾値範囲内に該当する視点映像ピクセルを決定してもよい。
ピクセル値決定部570は、視点映像ピクセル決定部560が決めた視点映像ピクセルのピクセル値に基づいて表示ピクセルのピクセル値を決定してもよい。ピクセル値決定部570は、決定された視点映像ピクセルのピクセル値を当該表示ピクセルのピクセル値として決定してもよい。換言すれば、ピクセル値決定部570は、表示ピクセルに対応する視点映像ピクセルのピクセル値を当該表示ピクセルに印加してもよい。
視点映像ピクセル決定部560が座標に隣接した複数の視点映像ピクセルを決めた場合、ピクセル値補間部580は、決定された視点映像ピクセルのピクセル値を補間してもよい。ピクセル値補間部580は、視点映像ピクセルのピクセル値を平均したり、または予め決定した補間公式を適用してピクセル値の補間を行ってもよい。ピクセル値決定部570は補間したピクセル値を表示ピクセルのピクセル値として決定してもよい。
図6は、一実施形態に係る視点映像を決定する動作を説明するための図である。図6によれば、ライトフィールドディスプレイ620のある表示ピクセル610から光線660が出力されている。また、ライトフィールドディスプレイ620の位置を基準として複数の視点映像630が図示されている。各々の視点映像は、互いに異なる視点を有してもよい。視点映像の視点は、例えばオブジェクトを撮影したカメラの位置に対応してもよい。
図6では、平面構造のカメラアレイで撮影された視点映像630が一例として現れている。例えば、映像処理装置は、光線660がカメラアレイがなす平面と交わる点640を基準として光線660と視点映像の視点間の距離を算出してもよい。映像処理装置は、光線660と各視点映像の視点間の距離のうち一番小さい値を有する視点映像650を決定してもよい。例えば、映像処理装置は、光線660と最も近い視点を有する視点映像650を決定してもよい。
または、映像処理装置は、光線660がカメラアレイがなす平面と交わる点640に隣接した複数の視点映像を用いて新しい視点を有する視点映像を生成してもよい。具体的には、映像処理装置は、隣接した複数の視点映像を補間して新しい視点映像を生成してもよく、生成された視点映像を当該表示ピクセル610の光線660に対応する視点映像として決定してもよい。映像処理装置は、上の過程によって光線660方向に位置する視点を有する視点映像を生成してもよい。
この場合、映像処理装置は、視点映像630から光線660と視点映像の視点間の距離が予め設定された閾値範囲内に含まれる視点映像を識別してもよく、識別された視点映像を補間して新しい視点を有する視点映像を生成してもよい。
映像処理装置が隣接した複数の視点映像を補間して新しい視点映像を生成する場合、光線と当該視点映像間の距離に基づいて重みを設定して補間を行ってもよい。例えば、映像処理装置は、光線と当該視点映像間の距離が小さいほどより大きい重みを設定してもよく、重みが大きいほど補間過程で当該視点映像のピクセル値により大きい重みを割り当ててもよい。
図7は、一実施形態に係る表示ピクセルのピクセル値を決定する動作を説明するための図である。図7によれば、表示ピクセル610または表示ピクセルから出る光線660に対応する視点映像650が決定されれば、映像処理装置は、視点映像650で表示ピクセル610から出る光線660に対応する少なくとも1つの視点映像ピクセルを決定してもよい。
映像処理装置は、ライトフィールドディスプレイ620上で視点映像650のディスプレイ領域710を識別してもよい。ディスプレイ領域710は、当該視点映像650が表示される時、視点映像650のコンテンツが表示される領域であってもよい。
映像処理装置は、視点映像650のディスプレイ領域710で表示ピクセル610の位置に対応する座標720を識別してもよい。座標720は、視点映像650の視点で撮影した時、当該表示ピクセル610の位置が映像内で位置する座標であってもよい。映像処理装置は、ディスプレイ領域710における座標720を用いて視点映像650で表示ピクセル610に対応する視点映像ピクセルを決定してもよい。この場合、映像処理装置は、表示ピクセル610の位置に対応する座標720で最も近い視点映像ピクセルを決定して、当該視点映像ピクセルのピクセル値を表示ピクセル610に適用してもよい。
または、映像処理装置は、表示ピクセル610の位置に対応する座標720に隣接した視点映像ピクセルを決定してもよい。映像処理装置は、隣接した視点映像ピクセルのピクセル値を補間して当該表示ピクセル610のピクセル値として決定してもよい。この場合、映像処理装置は、座標720と各視点映像ピクセル間の距離に基づいて視点映像ピクセルのピクセル値に重みを設定してもよく、設定された重みに基づいて補間を行ってもよい。
図8は、一実施形態に係る光学的な手段を含むライトフィールドディスプレイで表示ピクセルのピクセル値を決定する動作を説明するための図である。図8によれば、ライトフィールドディスプレイ820は、レンチキュラレンズまたはパララックスバリアなどの光学フィルタを用いたライトフィールドディスプレイであってもよい。一例として、図8は、光学フィルタによって表示ピクセル810から出る光線870が水平方向には特定の方向を有するが、垂直方向には全ての方向に進む場合を示している。この場合、水平方向のパララックス(parallax)だけ存在することになり、映像処理装置は、表示ピクセルから出る光線の水平方向成分だけを用いてもよい。
映像処理装置は、表示ピクセル810から出る光線870と視点映像830の視点間の距離に基づいて表示ピクセル810または光線870に対応する視点映像840を決定してもよい。映像処理装置は、光線870と最も近い視点を有する視点映像を表示ピクセル810または光線870に対応する視点映像840として決定してもよい。または、映像処理装置は、隣接した複数の視点映像を補間して光線870の進行方向に位置する視点を有する視点映像を生成してもよい。
映像処理装置は、対応する視点映像840が決定されれば、当該視点映像840のディスプレイ領域850で表示ピクセル810の位置に対応する座標860に基づいて表示ピクセル810のピクセル値を決定してもよい。具体的には、映像処理装置は、ディスプレイ領域850で座標860に対応する位置と最も近い視点映像ピクセルのピクセル値を当該表示ピクセル810のピクセル値として決定してもよい。
または、映像処理装置は、ディスプレイ領域850で座標860に対応する位置に隣接した視点映像ピクセルのピクセル値を補間して当該表示ピクセル810のピクセル値として決定してもよい。
図9は、一実施形態に係る複数のプロジェクターを用いるライトフィールドディスプレイにおける映像処理動作を説明するための図である。図9によれば、ライトフィールドディスプレイは、複数のプロジェクター910,920、及びスクリーン930を用いて実現してもよい。ここで、映像処理装置に入力される視点映像980は、全てスクリーン930に対応する領域を撮影したと仮定する。従って、各々の視点映像980のディスプレイ領域は、スクリーン930の領域と同一である。
第1プロジェクター910を例を挙げて説明すると、第1プロジェクター910の1つの表示ピクセルから出た光線970がスクリーン930上のある位置950に到達している。映像処理装置は、光線970と視点映像980の視点を用いて当該表示ピクセルに対応する視点映像を決定してもよい。
図9では、光線970と最も近い視点を有する視点映像990を当該表示ピクセルに対応する視点映像として決定すると仮定する。これとは異なり、映像処理装置は、複数の視点映像を補間して光線970に位置する視点を有する新しい視点映像を生成してもよく、生成された視点映像を当該表示ピクセルに対応する視点映像として決定してもよい。
映像処理装置は、対応する視点映像990が決定されれば、当該視点映像990のディスプレイ領域960からスクリーン930上の位置950に対応する座標940に基づいて当該光線970に関する表示ピクセルのピクセル値を決定してもよい。具体的には、映像処理装置は、ディスプレイ領域960で座標940に対応する位置と最も近い視点映像ピクセルのピクセル値を当該表示ピクセルのピクセル値として決定してもよい。
または、映像処理装置は、ディスプレイ領域960で座標940に対応する位置に隣接した視点映像ピクセルのピクセル値を補間して当該表示ピクセルのピクセル値として決定してもよい。
映像処理装置は、上のような過程を第1プロジェクト910と第2プロジェクト920の全ての表示ピクセルに行って、多視点映像をライトフィールドディスプレイで自然に表示できる映像に変換してもよい。図9では、第1プロジェクト910と第2プロジェクト920を用いて説明したが、ライトフィールドディスプレイを構成するプロジェクターの数は、上の実施形態の記載に限定されない。
図10は、一実施形態に係る複数のプロジェクターを用いるライトフィールドディスプレイで水平方向のパララックスを有する多視点映像が入力された時の映像処理動作を説明するための図である。
図10は、図9とは別に、水平方向のパララックスだけを有する視点映像1010が入力された場合を示す。この場合、映像処理装置は、プロジェクター910,920から出る光線の水平方向成分だけを用いてもよい。この他に、映像処理装置がプロジェクター910,920の各表示ピクセルのピクセル値を決定する構成は、図9で説明した内容と同一である。映像処理装置は第1プロジェクター910の表示ピクセルまたは表示ピクセルから出る光線970に対応する視点映像1020を決定してもよい。その後、映像処理装置は、決定された視点映像1020で表示ピクセルから出た光線970がスクリーン930上に到達した位置950に対応する座標940を識別してもよい。映像処理装置は、座標940に基づいて当該光線970に関する表示ピクセルのピクセル値を決定してもよい。映像処理装置は、上のような過程を第1プロジェクト910と第2プロジェクト920の全ての表示ピクセルに対して行ってもよい。
図11は、一実施形態に係る映像処理方法の細部的なステップを説明するためのフローチャートである。ステップS1110において、映像処理装置は、各々の表示ピクセルから出る光線と多視点映像を構成している視点映像の視点を用いて各光線に対応する視点映像を決定してもよい。具体的には、映像処理装置は、複数の視点映像のうち光線と最も近い視点を有する視点映像を光線に対応する視点映像として決定してもよい。
または、映像処理装置は、複数の視点映像のうち光線に隣接した視点を有する複数の視点映像を補間して新しい視点を有する視点映像を生成してもよい。映像処理装置は、表示ピクセルから出る光線と各視点映像の視点間の距離が予め設定された閾値範囲内に含まれる場合、含まれる視点映像に基づいて補間を行ってもよい。映像処理装置は、補間によって新しく生成された視点映像を当該表示ピクセルまたは光線に対応する視点映像として決定してもよい。
ステップS1120において、映像処理装置は、表示ピクセルの位置を用いて視点映像で表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定してもよい。
映像処理装置は、ディスプレイ領域で表示ピクセルの位置に対応する座標を識別してもよい。その後、映像処理装置は、視点映像のディスプレイ領域で表示ピクセルの位置に対応する座標を用いて視点映像ピクセルを決定してもよい。
具体的には、映像処理装置は、視点映像ピクセルのうち座標に対応するピクセルを識別してもよい。一実施形態によれば、映像処理装置は、座標に対応する視点映像における位置と最も近い視点映像ピクセルを当該表示ピクセルに対応する視点映像ピクセルとして決定してもよい。
または、映像処理装置は、座標に対応する視点映像における位置に隣接した視点映像ピクセルを表示ピクセルに対応する視点映像ピクセルとして決定してもよい。この場合、映像処理装置は、座標に対応する視点映像の位置と各視点映像ピクセル間の距離に基づいて、予め設定された閾値範囲内に該当する視点映像ピクセルを決定してもよい。
ステップS1130において、映像処理装置は、決定された視点映像ピクセルのピクセル値に基づいて表示ピクセルのピクセル値を決定してもよい。映像処理装置は、決定された視点映像ピクセルのピクセル値を当該表示ピクセルのピクセル値として決定してもよい。
映像処理装置が座標に隣接した複数の視点映像ピクセルを決めた場合、映像処理装置は、決定された視点映像ピクセルのピクセル値を補間してもよい。映像処理装置は、視点映像ピクセルのピクセル値を平均したり、または予め決定した補間公式を適用してピクセル値の補間を行ってもよい。映像処理装置は、補間したピクセル値を表示ピクセルのピクセル値として決定してもよい。
上の過程によって、ライトフィールドディスプレイの各々の表示ピクセルには、各々の視点映像が決定され、当該視点映像のピクセル値に基づいて各表示ピクセルに最も適したピクセル値が適用される。
図12は、他の実施形態に係る映像処理方法の細部的なステップを説明するためのフローチャートである。ステップS1210において、映像処理装置は、ユーザの目の位置に基づいてピクセル値が適用される表示ピクセルを識別してもよい。ユーザの目の位置は、センサによって取得されてもよい。例えば、センサ510は、ユーザの目を撮影して3次元空間座標を生成できるカメラなどが該当し得る。映像処理装置は、ユーザの目を撮影した2D映像及びユーザの目を撮影した深さ映像を用いてユーザの目の位置を取得してもよい。
具体的には、映像処理装置は、表示ピクセルから出る光線とユーザの目の位置間の距離が予め設定された閾値以下になる少なくとも1つの表示ピクセルを識別してもよい。ここで、予め設定された閾値は、例えば表示ピクセルから出力された光線がユーザの目に見える領域に含まれるか否かに基づいて設定されてもよい。映像処理装置は、上の過程によって、映像処理を行う表示ピクセルを識別してもよい。
ステップS1220において、映像処理装置は、各々の表示ピクセルから出る光線と多視点映像を構成している視点映像の視点を用いて各光線に対応する視点映像を決定してもよい。具体的には、映像処理装置は、複数の視点映像のうち光線と最も近い視点を有する視点映像を光線に対応する視点映像として決定してもよい。
または、映像処理装置は、複数の視点映像のうち光線に隣接した視点を有する複数の視点映像を補間して新しい視点を有する視点映像を生成してもよい。映像処理装置は、表示ピクセルから出る光線と各視点映像の視点間の距離が予め設定された閾値範囲内に含まれる場合、含まれる視点映像に基づいて補間を行ってもよい。映像処理装置は、補間によって新しく生成された視点映像を当該表示ピクセルまたは光線に対応する視点映像として決定してもよい。
ステップS1230において、映像処理装置は、表示ピクセルの位置を用いて視点映像で表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定してもよい。
映像処理装置は、ディスプレイ領域で表示ピクセルの位置に対応する座標を識別してもよい。その後、映像処理装置は、視点映像のディスプレイ領域で表示ピクセルの位置に対応する座標を用いて視点映像ピクセルを決定してもよい。
具体的には、映像処理装置は、視点映像ピクセルのうち座標に対応するピクセルを識別してもよい。一実施形態によれば、映像処理装置は、座標に対応する視点映像における位置と最も近い視点映像ピクセルを当該表示ピクセルに対応する視点映像ピクセルとして決定してもよい。
または、映像処理装置は、座標に対応する視点映像における位置に隣接した視点映像ピクセルを表示ピクセルに対応する視点映像ピクセルとして決定してもよい。この場合、映像処理装置は、座標に対応する視点映像の位置と各視点映像ピクセル間の距離に基づいて、予め設定された閾値範囲内に該当する視点映像ピクセルを決定してもよい。
ステップS1240において、映像処理装置は、決定された視点映像ピクセルのピクセル値に基づいて表示ピクセルのピクセル値を決定してもよい。映像処理装置は、決定された視点映像ピクセルのピクセル値を当該表示ピクセルのピクセル値として決定してもよい。
映像処理装置が座標に隣接した複数の視点映像ピクセルを決めた場合、映像処理装置は、決定された視点映像ピクセルのピクセル値を補間してもよい。映像処理装置は、視点映像ピクセルのピクセル値を平均したり、または予め決定した補間公式を適用してピクセル値の補間を行ってもよい。映像処理装置は、補間したピクセル値を表示ピクセルのピクセル値として決定してもよい。
上の過程により、映像処理装置は、ライトフィールドディスプレイの表示ピクセルに対して選択的に映像処理を行うことができる。映像処理装置は、一部表示ピクセルに対してのみ映像処理を行って映像処理過程における算出量を減らすことができ、そのために迅速に映像処理を行うことができる。
実施形態に係る方法は、多様なコンピュータ手段によって行うことができるプログラム命令形態で実現され、コンピュータ読み出し可能媒体に記録してもよい。前記記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせたものを含んでもよい。前記記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含んでもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように本発明を限定された実施形態と図面によって説明したが、当該技術分野で通常の知識を有する者であれば、上記の記載から多様な修正及び変形が可能である。例えば、説明した技術が説明した方法と異なる順序で行われたりおよび/または説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合または組合わせたり、他の構成要素または均等物によって置き換えたり置換されても、適切な結果が達成され得る。
従って、他の実現、他の実施形態及び特許請求の範囲と均等なものなども後述する特許請求の範囲に属する。
110、220、410、520:映像処理装置
120、230:ライトフィールドディスプレイ
210、510:センサ
420、540:視点映像決定部
430、550:視点映像補間部
440、560:視点映像ピクセル決定部
450、570:ピクセル値決定部
460、580:ピクセル値補間部
530:表示ピクセル識別部

Claims (19)

  1. ユーザの目の位置に基づいてピクセル値が適用される表示ピクセルを表示ピクセル識別部が識別するステップと、
    前記表示ピクセルの予め決められた表示方向及び複数の視点映像の視点を用いて前記表示方向に対応する視点映像を視点映像決定部が決定するステップと、
    前記表示ピクセルのディスプレイ内の位置及び前記決定された視点映像のピクセル位置の情報を用いて、前記決定された視点映像の中で前記表示ピクセルに対応する少なくとも1つの視点映像ピクセルを視点映像ピクセル決定部が決定するステップと、
    前記視点映像ピクセルのピクセル値に基づいて前記表示ピクセルのピクセル値をピクセル値決定部が決定するステップと、
    を含み、前記複数の視点映像の視点はオブジェクトが撮影される複数の位置に対応し、前記表示方向に対応する視点映像は、前記表示ピクセルから出る光線と前記複数の視点映像の各視点との間の距離に基づいて決定されることを特徴とする映像処理方法。
  2. 前記視点映像を決定するステップは、
    複数の視点映像のうち前記表示方向と最も近い視点を有する視点映像を前記表示方向に対応する視点映像として決定することを特徴とする請求項1に記載の映像処理方法。
  3. 前記視点映像を決定するステップは、
    複数の視点映像のうち前記表示方向に隣接した視点を有する複数の視点映像を補間するステップと、
    前記補間によって生成された視点映像を前記表示方向に対応する視点映像として決定するステップと、
    を含むことを特徴とする請求項1に記載の映像処理方法。
  4. 前記視点映像ピクセルを決定するステップは、
    前記視点映像のディスプレイ領域で前記表示ピクセルの位置に対応する座標を用いて視点映像ピクセルを決定することを特徴とする請求項1に記載の映像処理方法。
  5. 前記視点映像ピクセルを決定するステップは、
    前記視点映像で前記座標に対応する位置と最も近い視点映像ピクセルを前記表示ピクセルに対応する視点映像ピクセルとして決定することを特徴とする請求項4に記載の映像処理方法。
  6. 前記視点映像ピクセルを決定するステップは、
    前記視点映像で前記座標に対応する位置に隣接した視点映像ピクセルを前記表示ピクセルに対応する視点映像ピクセルとして決定することを特徴とする請求項4に記載の映像処理方法。
  7. 前記表示ピクセルのピクセル値を決定するステップは、
    前記隣接した視点映像ピクセルのピクセル値を補間して前記表示ピクセルのピクセル値として決定することを特徴とする請求項6に記載の映像処理方法。
  8. ユーザの目の位置に基づいてピクセル値が適用される表示ピクセルを識別するステップと、
    前記表示ピクセルの予め決められた表示方向及び複数の視点映像の視点を用いて前記表示方向に対応する視点映像を決定するステップと、
    前記表示ピクセルのディスプレイ内の位置及び前記決定された視点映像のピクセル位置の情報を用いて、前記決定された視点映像の中で前記表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定するステップと、
    前記視点映像ピクセルのピクセル値に基づいて前記表示ピクセルのピクセル値を決定するステップと、
    を含み、前記複数の視点映像の視点はオブジェクトが撮影される複数の位置に対応し、前記表示方向に対応する視点映像は、前記表示ピクセルから出る光線と前記複数の視点映像の各視点との間の距離に基づいて決定されることを特徴とする映像処理方法。
  9. 前記表示ピクセルを識別するステップは、
    前記表示方向とユーザの目の位置間の距離が予め設定された閾値以下になる少なくとも1つの表示ピクセルを識別することを特徴とする請求項8に記載の映像処理方法。
  10. 前記視点映像を決定するステップは、
    複数の視点映像のうち前記表示方向と最も近い視点を有する視点映像を前記表示方向に対応する視点映像として決定することを特徴とする請求項8に記載の映像処理方法。
  11. 前記視点映像を決定するステップは、
    複数の視点映像のうち前記表示方向に隣接した視点を有する複数の視点映像を補間するステップと、
    前記補間によって生成された視点映像を前記表示方向に対応する視点映像として決定するステップと、
    を含むことを特徴とする請求項8に記載の映像処理方法。
  12. 前記視点映像ピクセルを決定するステップは、
    前記視点映像のディスプレイ領域で前記表示ピクセルの位置に対応する座標を用いて視点映像ピクセルを決定することを特徴とする請求項8に記載の映像処理方法。
  13. 前記視点映像ピクセルを決定するステップは、
    前記視点映像で前記座標に対応する位置と最も近い視点映像ピクセルを前記表示ピクセルに対応する視点映像ピクセルとして決定することを特徴とする請求項12に記載の映像処理方法。
  14. 前記視点映像ピクセルを決定するステップは、
    前記視点映像で前記座標に対応する位置に隣接した視点映像ピクセルを前記表示ピクセルに対応する視点映像ピクセルとして決定することを特徴とする請求項12に記載の映像処理方法。
  15. 前記表示ピクセルのピクセル値を決定するステップは、
    前記隣接した視点映像ピクセルのピクセル値を補間して前記表示ピクセルのピクセル値として決定することを特徴とする請求項14に記載の映像処理方法。
  16. 前記ユーザの目の位置は、
    ユーザの目を撮影した2D映像及びユーザの目を撮影した深さ映像を用いて取得されることを特徴とする請求項8に記載の映像処理方法。
  17. ユーザの目の位置に基づいてピクセル値が適用される表示ピクセルを識別する表示ピクセル識別部と、
    前記表示ピクセルの予め決められた表示方向及び複数の視点映像の視点を用いて前記表示方向に対応する視点映像を決定する視点映像決定部と、
    前記表示ピクセルのディスプレイ内の位置及び前記決定された視点映像のピクセル位置の情報を用いて、前記決定された視点映像の中で前記表示ピクセルに対応する少なくとも1つの視点映像ピクセルを決定する視点映像ピクセル決定部と、
    前記視点映像ピクセルのピクセル値に基づいて前記表示ピクセルのピクセル値を決定するピクセル値決定部と、
    を含み、前記複数の視点映像の視点はオブジェクトが撮影される複数の位置に対応し、前記表示方向に対応する視点映像は、前記表示ピクセルから出る光線と前記複数の視点映像の各視点との間の距離に基づいて決定されることを特徴とする映像処理装置。
  18. 前記視点映像決定部は、
    複数の視点映像のうち前記表示方向に隣接した視点を有する複数の視点映像を補間する視点映像補間部を含むことを特徴とする請求項17に記載の映像処理装置。
  19. 前記ピクセル値決定部は、
    前記決定された視点映像ピクセルのピクセル値を補間するピクセル値補間部を含むことを特徴とする請求項17に記載の映像処理装置。
JP2013225042A 2012-10-31 2013-10-30 映像処理方法及び映像処理装置 Active JP6734620B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120122346A KR101944911B1 (ko) 2012-10-31 2012-10-31 영상 처리 방법 및 영상 처리 장치
KR10-2012-0122346 2012-10-31

Publications (2)

Publication Number Publication Date
JP2014093779A JP2014093779A (ja) 2014-05-19
JP6734620B2 true JP6734620B2 (ja) 2020-08-05

Family

ID=49546250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013225042A Active JP6734620B2 (ja) 2012-10-31 2013-10-30 映像処理方法及び映像処理装置

Country Status (5)

Country Link
US (1) US9544580B2 (ja)
EP (1) EP2728888B1 (ja)
JP (1) JP6734620B2 (ja)
KR (1) KR101944911B1 (ja)
CN (1) CN103795998B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103945208B (zh) * 2014-04-24 2015-10-28 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
EP2960864B1 (en) * 2014-06-23 2018-12-05 Harman Becker Automotive Systems GmbH Device and method for processing a stream of video data
KR102240564B1 (ko) * 2014-07-29 2021-04-15 삼성전자주식회사 영상 렌더링 장치 및 방법
KR102240568B1 (ko) 2014-08-18 2021-04-16 삼성전자주식회사 영상 처리 방법 및 장치
KR102463170B1 (ko) 2015-10-07 2022-11-04 삼성전자주식회사 3차원 영상을 표시하는 장치 및 방법
JP6595878B2 (ja) * 2015-10-08 2019-10-23 日本放送協会 要素画像群生成装置及びそのプログラム
CN105338336B (zh) * 2015-10-28 2017-03-22 四川长虹电器股份有限公司 基于柱镜光栅与lcd屏幕的立体图像快速合成方法
CN106154567B (zh) * 2016-07-18 2018-12-04 北京邮电大学 一种三维光场显示系统的成像方法及装置
KR102559635B1 (ko) 2016-08-30 2023-07-26 삼성전자주식회사 디스플레이 장치 및 방법
KR102608466B1 (ko) * 2016-11-22 2023-12-01 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
EP3549101A1 (en) * 2016-12-01 2019-10-09 InterDigital CE Patent Holdings A method for processing a light field image delivering a super-rays representation of a light field image
US20190124313A1 (en) 2017-10-19 2019-04-25 Intel Corporation Three dimensional glasses free light field display using eye location
US10636116B1 (en) * 2018-10-22 2020-04-28 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
KR20220030016A (ko) 2020-09-02 2022-03-10 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 동작 방법
US12003806B2 (en) * 2021-03-11 2024-06-04 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
US11727630B2 (en) * 2021-09-30 2023-08-15 Msg Entertainment Group, Llc Distance driven digital display emulation
WO2024176749A1 (ja) * 2023-02-20 2024-08-29 ソニーグループ株式会社 情報処理装置、立体映像表示システム及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148763A (ja) * 1992-11-12 1994-05-27 Hitachi Ltd 多人数観測用レンチキュラ立体表示方式
US6831641B2 (en) 2002-06-17 2004-12-14 Mitsubishi Electric Research Labs, Inc. Modeling and rendering of surface reflectance fields of 3D objects
US7525541B2 (en) * 2004-04-05 2009-04-28 Actuality Systems, Inc. Data processing for three-dimensional displays
WO2005104545A2 (en) 2004-04-19 2005-11-03 The Trustees Of Columbia University In The City Of New York Methods and systems for displaying three-dimensional images
US7903737B2 (en) 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
JP2009530661A (ja) 2006-03-15 2009-08-27 ゼブラ・イメージング・インコーポレイテッド 動的裸眼立体視ディスプレイ
US8044994B2 (en) * 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7609906B2 (en) * 2006-04-04 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring and displaying 3D light fields
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
JP2009077234A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 三次元画像処理装置、方法及びプログラム
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US20090282429A1 (en) * 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
KR101502597B1 (ko) 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
KR101524680B1 (ko) 2008-11-13 2015-06-01 삼성전자주식회사 방향성 라이트 필드 3d 디스플레이 장치 및 방법
JP2010273013A (ja) 2009-05-20 2010-12-02 Sony Corp 立体表示装置および方法
KR101629479B1 (ko) * 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
US8866837B2 (en) * 2010-02-02 2014-10-21 Microsoft Corporation Enhancement of images for display on liquid crystal displays
JP5306275B2 (ja) * 2010-03-31 2013-10-02 株式会社東芝 表示装置及び立体画像の表示方法
KR101756910B1 (ko) 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
KR101670927B1 (ko) * 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
KR101675961B1 (ko) * 2010-12-29 2016-11-14 삼성전자주식회사 적응적 부화소 렌더링 장치 및 방법
JP5242762B2 (ja) * 2011-11-30 2013-07-24 株式会社東芝 画像再生装置、画像再生方法及びデータ構造

Also Published As

Publication number Publication date
US9544580B2 (en) 2017-01-10
JP2014093779A (ja) 2014-05-19
KR101944911B1 (ko) 2019-02-07
CN103795998B (zh) 2018-05-25
US20140118512A1 (en) 2014-05-01
EP2728888A2 (en) 2014-05-07
KR20140056748A (ko) 2014-05-12
CN103795998A (zh) 2014-05-14
EP2728888B1 (en) 2020-03-18
EP2728888A3 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP6734620B2 (ja) 映像処理方法及び映像処理装置
EP3712840A1 (en) Method and system for generating an image of a subject in a scene
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
JP5456020B2 (ja) 情報処理装置および方法
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
KR20140100656A (ko) 전방향 영상 및 3차원 데이터를 이용한 시점 영상 제공 장치 및 방법
KR20110090958A (ko) 이미지 속성들에 대한 오클루젼 데이터의 생성
JP2016042689A (ja) 映像処理方法及び装置
CN108141578A (zh) 呈现相机
KR101697181B1 (ko) 사용자의 시선 추적을 이용한 영상 처리 장치 및 방법
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
JP6300346B2 (ja) Ip立体映像推定装置及びそのプログラム
KR20120030005A (ko) 화상 처리 장치 및 방법과 입체 화상 표시 장치
JP6717576B2 (ja) 映像レンダリング装置及び方法
KR101208767B1 (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
JP6166985B2 (ja) 画像生成装置および画像生成プログラム
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
JP6685241B2 (ja) 立体視ビデオ生成
KR101893769B1 (ko) 시청자의 시점 정보에 기초하여 3차원 객체 영상 모델을 생성하는 장치 및 방법
JP6608852B2 (ja) 立体視深度調節及び焦点調節
JP6490107B2 (ja) 立体視ビデオズーミング
JP2015125493A (ja) 画像生成方法、画像生成装置及び画像生成プログラム
EP3267682A1 (en) Multiview video encoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190612

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190620

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200710

R150 Certificate of patent or registration of utility model

Ref document number: 6734620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250