JP6412690B2 - 深さ情報を取得する方法及びディスプレイ装置 - Google Patents

深さ情報を取得する方法及びディスプレイ装置 Download PDF

Info

Publication number
JP6412690B2
JP6412690B2 JP2013256699A JP2013256699A JP6412690B2 JP 6412690 B2 JP6412690 B2 JP 6412690B2 JP 2013256699 A JP2013256699 A JP 2013256699A JP 2013256699 A JP2013256699 A JP 2013256699A JP 6412690 B2 JP6412690 B2 JP 6412690B2
Authority
JP
Japan
Prior art keywords
image
video
depth
sensor
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013256699A
Other languages
English (en)
Other versions
JP2014131266A (ja
Inventor
成 住 徐
成 住 徐
崔 昌 圭
昌 圭 崔
朴 斗 植
斗 植 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130009075A external-priority patent/KR101905528B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014131266A publication Critical patent/JP2014131266A/ja
Application granted granted Critical
Publication of JP6412690B2 publication Critical patent/JP6412690B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B2207/00Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
    • G02B2207/129Coded aperture imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Input (AREA)
  • Measurement Of Optical Distance (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

以下の実施形態は、深さ情報を取得する方法及びその方法を実現するディスプレイ装置に関する。
次世代マルチメディアサービスで注目されている3次元映像提供サービスは、2つ以上の視点の映像を用いてユーザに立体感を感じさせるサービスである。
この3次元映像提供サービスを実現する方法として、例えば、深さカメラ(depth camera)を用いて撮影しようとする物体で光を放出し、放出された光が戻ってくる時間差を算出して物体の深さを算出し、これにより立体感のある立体映像を作成する方式がある。
本発明の目的は、深さ情報を取得する方法及びディスプレイ装置を提供することにある。
実施形態に係る深さ情報を取得する方法は、ディスプレイパネル及びセンサパネルを含むディスプレイ装置で深さ情報を取得する方法において、前記センサパネルのセンサ領域を変更するステップと、前記変更されたセンサ領域に基づいてオブジェクトの深さ情報を取得するステップとを含む。
また、実施形態に係る深さ情報を取得する方法は、ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法において、基準距離を推定するステップと、前記センサパネルで、前記基準距離によるセンサデータを選択するステップと、前記センサデータを用いて前記オブジェクトに対するマルチビュー映像を生成するステップと、前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得するステップとを含む。
また、実施形態に係る深さ情報を取得する方法は、ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を推定する方法において、基準距離に応じて前記センサパネルで選択されるセンサデータを用いて前記オブジェクトに対するマルチビュー映像を生成するステップと、前記マルチビュー映像を用いて複数のリフォーカス映像を生成するステップと、前記マルチビュー映像及び前記複数のリフォーカス映像を用いて前記オブジェクトの深さ映像を取得するステップとを含む。
実施形態に係るディスプレイパネル及びセンサパネルを含むディスプレイ装置は、基準距離を推定する基準決定部と、前記センサパネルで前記基準距離によるセンサデータを選択するセンサ選択部と、前記センサデータを用いてオブジェクトに対するマルチビュー映像を生成するデータ復号化部と、前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得する深さ取得部とを備える。
実施形態に係るディスプレイパネル及びセンサパネルを含むディスプレイ装置は、基準距離に応じて前記センサパネルで選択されるセンサデータを用いてオブジェクトに対するマルチビュー映像を生成し、前記マルチビュー映像を用いて複数のリフォーカス映像を生成するデータ復号化部と、前記マルチビュー映像及び前記複数のリフォーカス映像を用いて前記オブジェクトの深さ映像を取得する深さ取得部とを備える。
一実施形態に係るディスプレイ装置は、複数のピクセルから構成されるディスプレイパネルを含み、予め決定された第1時間中にディスプレイモードとして動作し、予め決定された第2時間中に映像取得モードとして動作するように前記ディスプレイパネルを制御することを特徴とする。
一実施形態に係るディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法は、基準距離を推定するステップと、前記基準距離に基づいて前記センサパネルからのセンサデータを選択するステップと、前記センサデータを用いて生成されたマルチビュー映像との組合せによって第1深さ映像を生成するステップと、前記マルチビュー映像を用いて生成されたリフォーカス映像との組合せによって取得されたマルチビュー映像との組合せによって第2深さ映像を生成するステップと、前記第1深さ映像と前記第2深さ映像とを再結合して前記オブジェクトの深さ映像を取得するステップとを含む。
一実施形態に係るディスプレイ装置は、複数のピクセルから構成されるディスプレイパネルと、映像取得のために、前記ディスプレイパネルの後方に位置するセンサパネルとを含み、前記複数のピクセルを用いて映像信号をディスプレイし、同時に、前記ディスプレイパネルによって前記映像信号が表示される間に前記センサパネルで外部光を用いて映像を取得できるように、前記外部光が、前記ディスプレイパネルを通過して前記センサパネルに伝達するよう前記ディスプレイパネルを制御することを特徴とする。
本発明によると、無レンズ方式の符号化されたアパーチャ映像を用いて符号化されたセンサ領域から可変的にセンサ領域を選択し、マルチビュー映像及びリフォーカス映像を生成し、2つの映像の組合せにより精密な深さ映像を生成することができる。
本発明によると、ディスプレイパネル内のアパーチャーをレンズの代わりに用いて深さ推定を行うことができ、フラットパネルディスプレイにおける最適な適用を可能にする。
本発明によると、従来のセンシング陰影領域のようなオブジェクトの認知できない領域がないため、オブジェクトの距離に関わらず深さ推定が可能であり、タッチ、高解像度スキャン、空間操作などの立体映像が活用される、あらゆる分野で適用可能である。
本発明によると、3Dディスプレイと結合する場合、スクリーンの外で物体を操作するユーザの手を画面の正面で取り込む深さ映像を生成することによって、ユーザが実感することのできる相互作用を提供できる。
一実施形態に係る深さ情報を取得するディスプレイ装置の概略的な構造を説明する図である。 センサパネルの映像取得領域とマルチビュー映像に対する一例を説明するための図である。 センサデータを検出する映像取得領域とセンサ領域との関係を詳細に説明するための図である。 一実施形態によりセンサ領域の大きさを、オブジェクトとの距離に応じて変更する一例を説明するための図である。 一実施形態に係る深さ情報を取得するディスプレイ装置の具体的な構成を示す図である。 一実施形態によりセンサ領域を選択するための基準距離を決定する方法を説明するための図である。 センサパネルで検出されたセンサデータを可変的に選択する一例を説明するための図である。 対応点を用いてマルチビュー映像をマッチングして深さ映像を取得する一例を説明するための図である。 対応点を用いてマルチビュー映像をマッチングして深さ映像を取得する一例を説明するための図である。 マルチビュー映像からリフォーカス映像を生成する概念を説明するための図である。 マルチビュー映像からリフォーカス映像を生成する実例を説明するための図である。 境界面を用いてリフォーカス映像をマッチングして深さ映像を取得する一例を説明するための図である。 第1深さ映像及び第2深さ映像を再び組合わせてオブジェクトの深さ映像を取得することを説明するための図である。 一実施形態に係るディスプレイ装置の深さ情報を取得する方法を具体的に示した作業フローチャートである。
以下、実施形態を添付する図面を参照しながら詳細に説明する。しかし、実施可能な例示は、明細書に記載された実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
一実施形態に係るディスプレイ装置はイメージングパターンを含み、このイメージングパターン内のアパーチャーを介してオブジェクトの入力光を通過させるディスプレイパネルと、前記イメージングパターンを通過した入力光によって符号化されたデータ(以下、センサデータとする)を検出して前記オブジェクトの映像を復元するためのセンサパネルを含んでもよい。前記センサパネルは、前記センサデータが検出される最大領域としての映像取得領域を含んでもよい。前記映像取得領域の大きさは、前記イメージングパターンの大きさに対応して設定されてもよい。
ディスプレイ装置は、オブジェクトからの距離、例えば、オブジェクトとディスプレイパネルとの間の距離を考慮して、前記映像取得領域のうち少なくとも一部をセンサ領域として選択する。前記センサ領域は、前記オブジェクトの映像を復元するための復号化処理で実際活用されるセンサデータを選択するための領域であってもよい。
一実施形態に係るディスプレイ装置は、オブジェクトが位置する距離に基づいたセンサ領域の可変的な選択によって最適の深さ映像を生成することができる。
図1は、一実施形態に係る深さ情報を取得するディスプレイ装置の概略的な構造を説明する図である。
図1に示すように、ディスプレイ装置100は、ディスプレイパネル110とセンサパネル120を備える。
ディスプレイパネル110は映像を表示するためのパネルである。例えば、ディスプレイパネル110にはLCDピクセル構成のパネル、または、OLEDピクセル構成のパネルを用いてもよく、これに限定されることはない。実施形態にかかるディスプレイパネル110は、外部からの入力光を通過させてセンサパネル120がセンサデータを取得できるようにする。センサデータは、センサパネル120に含まれたセンサによって検出されたデータである。
入力光を通過させるために、ディスプレイパネル110は複数のイメージングパターン112を含んでもよい。イメージングパターン112は、ディスプレイパネル110を構成しているディスプレイピクセルの種類に応じて形成する過程において異なっていて良い。
一例として、ディスプレイピクセルをLCDピクセルから構成する場合、ディスプレイパネル110は、複数LCDピクセルの組合せに基づいてイメージングパターン112を光学的に形成してもよい。ここで、LCDピクセルのディスプレイパネル110は、時分割されて予め決定された時間、例えば、放送映像信号が表示されない時間中にイメージングパターン112を形成して外部の前記入力光を通過させてもよい。
例えば、LCDピクセルのディスプレイパネル110は、時分割方式を用いて一定の時間中にディスプレイモードとして動作し、異なる一定の時間中に映像取得モードとして区分して動作してもよい。
ディスプレイモードでディスプレイパネル110は、LCDピクセルを用いて放送映像信号を表示する。また、映像取得モードでディスプレイパネル110は、LCDピクセルの光学的な組合でイメージングパターン112を形成し、形成されたイメージングパターン112で外部の入力光を通過させてディスプレイパネル110の後面にあるセンサパネル120はセンサデータを検出することができる。
LCDピクセルの光学的な組合せで形成されるイメージングパターン112は、例えば、透明なピクセルが組合わせられる映像と不透明なピクセルが組合わせられる映像を、選定された規則により配列し、様々な様態に設計してもよい。
一例として、イメージングパターン112は、透明なピクセルが組合わせられる映像の周囲に不透明なピクセルが組合わせられる映像を複数配置してピンホールパターンに設計してもよい。他の一例として、イメージングパターン112は、透明なピクセルが組合わせられる映像と、透明なピクセルが組合わせられる映像を、交差して決定した模様になるよう配置し、MURA(Modified Uniformly Redundant Array)パターンに設計してもよい。他の一例として、ディスプレイピクセルをOLEDピクセルから構成する場合、ディスプレイパネル110は、パネルの製造ステップで予め設計されたイメージングパターン112を含んでもよい。
イメージングパターン112の設計において、ディスプレイパネル110を構成するOLEDピクセルの一部は、透明ウィンドウを含んで入力光を通過させるようにする。透明ウィンドウを含むOLEDピクセルは、例えば、OLEDピクセル内のウィンドウを透明に調整して製作してもよい。
また、OLEDピクセルの他の一部は、不透明ウィンドウを含んで入力光を通過させなくてもよい。不透明ウィンドウを含むOLEDピクセルは、例えば、OLEDピクセル内のウィンドウを不透明に調整して製作してもよい。
イメージングパターン112は、透明ウィンドウを含むOLEDピクセルと、不透明ウィンドウを含むOLEDピクセルを選定された規則により配列し、様々な様態に設計してもよい。例えば、イメージングパターン112は、透明ウィンドウを含むOLEDピクセルの周囲で不透明ウィンドウを含むOLEDピクセルを複数配置してピンホールパターンに設計してもよい。他の一例として、イメージングパターン112は、透明ウィンドウを含むOLEDピクセルと、不透明ウィンドウを含むOLEDピクセルとを交差して決定した文様になるよう配置し、MURAパターンに設計してもよい。図1では、イメージングパターン112として、4個のMURAパターンを正方形にタイリング(tiling)することが例示されている。
ディスプレイパネル110におけるイメージングパターン112の個数とイメージングパターン112の位置は、前記入力光を受入れるディスプレイパネル110の大きさ、パネルの製造環境などを考慮して決定されてもよい。
入力光の通過において、OLEDピクセルのディスプレイパネル110は、時分割方式を用いて一定の時間中にディスプレイモードとして動作し、異なる一定の時間中に映像取得モードに区分して動作してもよい。
ディスプレイモードでディスプレイパネル110は、OLEDピクセルを用いて放送映像信号を表示する。また、映像取得モードでディスプレイパネル110は、予め設計されてパネルに含まれているイメージングパターン112に外部の入力光を通過させて、ディスプレイパネル110の後面にあるセンサパネル120がセンサデータを検出できるようにする。
また、OLEDピクセルのディスプレイパネル110は、イメージングパターン112がパネル内に含まれているため、実施形態に係る放送映像信号を表示しながら同時に入力光を通過させてもよい。
例えば、OLEDピクセルのディスプレイパネル110は、OLEDピクセルに含まれる透明ウィンドウまたは不透明ウィンドウを用いて時分割することなく、表示しながら同時に入力光を通過させてもよい。この場合、放送映像信号を表示する光が、オブジェクトに反射して追加的に入力されることで、ディスプレイパネル110はより多い光量の入力光を通過させると共に、これにより後端のセンサパネル120に検出されるセンサデータの品質を向上させることができる。
ディスプレイパネル110のイメージングパターン112を通過した入力光は、映像に関するセンサデータに符号化され、センサデータはセンサパネル120によって検出される。例えば、センサパネル120は、複数のイメージングパターン112それぞれを通過した入力光によるセンサデータを、複数の映像取得領域として検出してもよい。
その後、ディスプレイ装置100は、センサパネル120で検出されたセンサデータを復号化処理することで、前記入力光と関連するオブジェクトの映像を映像取得領域ごとに複数復元し、マルチビュー映像を生成する。
このような実施形態に係るディスプレイ装置100は、別途の深さカメラを使用しなくても深さ映像を取得することができる。
図2は、センサパネルの映像取得領域とマルチビュー映像に対する一例を説明するための図である。
マルチビュー映像は、1つのオブジェクトに対して視点をそれぞれ異にする複数映像であってもよく、実施形態において、複数の映像取得領域と関連して生成される映像の通称であってもよい。ディスプレイ装置は、個別の映像取得領域で検出されるセンサデータをそれぞれ復号化し、映像取得領域の個数に相応する複数の映像をマルチビュー映像に生成してもよい。
センサデータの検出において、センサパネルは、イメージングパターンに含まれたアパーチャ(aperture)(例えば、透明ウィンドウを含むOLEDピクセルの透明ウィンドウ)を通過する入力光からイメージングパターン数に対応する複数のセンサデータを検出してもよい。
図2(a)には、ディスプレイパネルが3×3の9個のイメージングパターンを含む場合、9個のイメージングパターンを通過した入力光によるセンサデータを、センサパネルの映像取得領域210で検出する一例を示している。例えば、オブジェクトの入力光は、9個のイメージングパターンでそれぞれ相異なる角度で通過し、センサパネルは、9個のイメージングパターン112によって符号化されたセンサデータを、3x3の9個の映像取得領域210でそれぞれ検出してもよい。
映像取得領域210に検出されるセンサデータは、入力光と関連するオブジェクトとの距離(オブジェクトとディスプレイパネルとの間の離隔距離)により、映像取得領域210内の特定部分に集中して分布する。これによって、ディスプレイ装置は、オブジェクトとの距離を考慮してセンサパネルの映像取得領域210から、実際に復号化するときセンサデータを決定するためのセンサ領域220を選択してもよい。
例えば、ディスプレイ装置は、オブジェクトとの距離を基準距離として推定し、基準距離に基づいてセンサパネルの映像取得領域210の少なくとも一部をセンサ領域220として選択してもよい。基準距離の推定については後述する。
図2(b)には、9個の映像取得領域210でそれぞれ選択されたセンサ領域220内のセンサデータを独立的に復号化処理し、3×3の9個のマルチビュー映像231〜239を生成することが例示されている。
図2(b)に示すように、マルチビュー映像231〜239は、1つのオブジェクトに対して、複数の視点を有する複数の映像(複数の映像のそれぞれは各視点に対応)であってもよい。
例えば、図2(b)に示す9個のマルチビュー映像において、中央に生成される映像235(以下、「センター映像」とする)は、前記オブジェクトの入力光がイメージングパターンを垂直に近似する角度で通過し、センサパネル内の中央に位置する映像取得領域220として検出されるセンサデータを復号化することにより生成される映像である。前記センター映像235の視点はオブジェクトを正面から眺めた角度であってもよい。
また、センター映像235と隣接している映像234、236は、センター映像235と水平視点で差をもって生成される映像として、オブジェクトを、センター映像235に比べて左側または右側から眺めた映像である。
類似に、センター映像235と縦に隣接する映像232、238は、センター映像235と垂直視点で差をもって生成される映像として、オブジェクトを、センター映像235に比べて上方または下方から眺めた映像である。
また、センター映像235と対角に隣接する映像231、233、237、239は、センター映像235と水平及び垂直視点の全てが差をもって生成される映像である。例えば、マルチビュー映像231は、センター映像235に比べて、左側の上方に見上げる映像である。
図2(b)に示すマルチビュー映像231〜239は、センター映像235を基準として、前記オブジェクトを眺める視点が少しずつずれてみえる複数の映像に生成されてもよい。
図2(b)に示すマルチビュー映像は説明の目的として提示されたものであり、実施形態に係るマルチビュー映像は、9個以上または9個以下の映像から構成されてもよい。
図3は、センサデータを検出する映像取得領域とセンサ領域との関係を詳細に説明するための図である。
上述したように、ディスプレイパネルには複数のイメージングパターンが含まれてもよく、図3には、一例に係る複数のイメージングパターンのうち1つのイメージングパターン310が図示されている。一例によると、それぞれのイメージングパターン310は、図3に示すように、一辺がrである4個のMURAパターン321〜324を正方形(square)に配置して構成してもよい。
MURAパターン321〜324は内部に形成されたアパーチャ、例えば、透明ウィンドウを含むOLEDピクセルによってオブジェクト350からの入力光を通過させて符号化することで、後端のセンサパネル120からセンサデータが検出されるようにする。
センサパネル120は映像取得領域330を含み、イメージングパターン310によって符号化されるセンサデータを映像取得領域330で検出してもよい。
映像取得領域330は前記センサデータが検出される最大領域であってもよく、図3ではイメージングパターン310の大きさに応じて、一辺を2r(前記rはMURAパターン320の一辺の長さ)として有する正四角の領域として設定されてもよい。
一実施形態のディスプレイ装置300は、オブジェクト350からの距離を考慮して、センサ領域340の範囲を変更して選択してもよい。ここで、センサ領域340は映像取得領域330に含まれる領域として、例えば、映像取得領域330のうち深さ映像取得のために用いられる領域を指す。または、例えば、センサ領域340は、映像取得領域330のうちセンサデータが実際に分布する領域を指す。実施形態に係るセンサ領域340は、オブジェクト350からの距離に基づいてその範囲が決定されてもよい。
例えば、ディスプレイ装置300は、オブジェクト350とディスプレイパネル110との距離を用いて、映像取得領域330の少なくとも一部をセンサ領域340として選択してもよい。
図3に示すオブジェクト350とディスプレイパネル110との間の距離(オブジェクト350からの距離)はZであると参照される。前述したように、ディスプレイパネル110はイメージングパターン310を含む。
ディスプレイパネル110とセンサパネル120との間の距離はFであると参照される。ここで、映像取得領域330の一辺の長さが2rである場合、実施形態に係るディスプレイ装置300は、長さが(1+(F/Z))rの一辺を有するセンサ領域340を、映像取得領域330から選択してもよい。
図3に示すように、センサ領域340に選択される(1+(F/Z))rは、例えば、オブジェクト350との距離に応じて、入力光がMURAパターン324を通過して映像取得領域330に達する左側終端と、MURAパターン323を通過して映像取得領域330に達する右側終端との間の長さに相当する。
オブジェクト350との距離を考慮して映像取得領域330から選択される、センサ領域340には前記入力光により生成されるセンサデータが集中的に分布する。
実施形態において、ディスプレイ装置300は、オブジェクト350からの距離が変化されることでセンサ領域340の大きさを変更して選択してもよい。例えば、ディスプレイ装置300は、オブジェクト350とディスプレイパネル110との間の離隔された距離が遠くなるほど、センサ領域340の大きさはよりも小さく変更して選択してもよい。前記(1+(F/Z))rにおいてZの増加により、選択されるセンサ領域340の大きさは小さくなる。
逆に、ディスプレイ装置300は、オブジェクト350とディスプレイパネル110との間の離隔された距離が近くなるほど、センサ領域340の大きさはより大きく変更して選択してもよい。例えば、前記(1+(F/Z))rにおいてZの減少により、選択されるセンサ領域340の大きさは大きくなる。
センサ領域340は、イメージングパターン310の個数に応じて複数決定され、ディスプレイ装置300は決定されたセンサ領域340に属するそれぞれのセンサデータを用いた復号化処理によって多視点マルチビュー映像を生成することができる。
したがって、実施形態によると、オブジェクト350からの距離に基づいてセンサ領域340の大きさを調節することで、ディスプレイ装置300から遠く位置するオブジェクトのみならず、ディスプレイ装置300に近接するオブジェクトの深さ映像も生成することができる。
また、本実施形態によると、ディスプレイ装置300から近接するユーザの手動作などを認識し、それに対応する処理ができることからユーザにタッチスクリーンのようなユーザ経験を提供することができる。
また、一実施形態に係るディスプレイ装置300は、オブジェクト350との距離を考慮して可変的に選択されるセンサ領域340内のセンサデータを用いた、復号化処理によってマルチビュー映像を生成し、前記マルチビュー映像を組合わせることで窮極的にオブジェクト350に関する深さ映像を取得する環境を設けることができる。
図4は、一実施形態に係るセンサ領域の大きさをオブジェクトとの距離に応じて変更する一例を説明する図である。
図4には、オブジェクト420からの距離に応じてセンサ領域の大きさを変更する動作について説明している。
図4は、ディスプレイパネル430とセンサパネル440との間の距離がFである場合、オブジェクト420をディスプレイパネル430とZだけ離隔するとき選択されるセンサ領域の大きさ、オブジェクト420を前記Zよりも遠いZだけ離隔するとき選択されるセンサ領域の大きさを比較するための例示図である。
図4(a)において、ディスプレイ装置は、ディスプレイパネル430からZだけ離れた距離にあるオブジェクト420に関するセンサデータをセンサパネル440で検出する。ここで、オブジェクト420の入力光は、イメージングパターンのアパーチャ410を角度θとして通過し、ディスプレイ装置は、イメージングパターンによって符号化されたセンサデータをセンサパネル440の範囲Sで検出してもよい。ディスプレイ装置は、前記範囲Sをセンサ領域として選択してもよい。
前記角度θ0は数式(1)を満足するように算出される。
また、図4(b)において、ディスプレイ装置は、ディスプレイパネル430からZだけ離れた距離にあるオブジェクト420に対する映像を取得する。Zは図4(a)のZよりもディスプレイパネル430からさらに遠く離れた距離である。
ここで、オブジェクト420の入力光は、イメージングパターンのアパーチャ410を角度θとして通過してもよい。ここで、角度θは、距離Zが前述の図4(a)のZよりも相対的に離れ、図4(a)に示すθよりも小さい角を有する。
また、ディスプレイ装置は、イメージングパターンによって符号化されたセンサデータをセンサパネル440の範囲Sとして検出してもよい。ディスプレイ装置は、範囲Sをセンサ領域として選択してもよい。Sは、入力光がアパーチャ410を通過する角度の減少により図4(a)に示すSよりも狭い。
言い換えれば、ディスプレイ装置は、オブジェクト420からの距離が遠いほどセンサ領域の大きさをよりも小さく選択してもよい。
角度θは数式(2)を満足するように算出される。
ディスプレイ装置は、オブジェクト420からの距離に応じてセンサパネル440のセンサ領域の大きさを変更して決定することで、距離を考慮したマルチビュー映像への復元を可能にし、窮極的には、オブジェクト420の深さ情報を推定できる環境を設けることができる。
例えば、ディスプレイ装置は、オブジェクト420からの距離に応じてセンサパネル440のセンサ領域を変更し、変更されたセンサ領域に基づいてオブジェクト420の深さ情報を取得する。ここで、センサ領域の変更は、オブジェクト420からの距離に応じてセンサパネル440のセンサ領域の大きさを変更してもよい。例えば、オブジェクト420からの距離が遠いほど、センサ領域の大きさは小さくなる。一方、オブジェクト420からの距離が小さくなるほど、センサ領域の大きさは大きくなる。
図5は、一実施形態に係る深さ情報を取得するディスプレイ装置の具体的な構成を示す図である。
ディスプレイ装置500は、ディスプレイパネル550及びセンサパネル560に加えて、基準決定部510、センサ選択部520、データ復号化部530及び深さ取得部540をさらに備える。
まず、基準決定部510は基準距離を推定する。基準距離はいずれかの距離にオブジェクトがあることを仮定し、後述するセンサ選択部520でセンサ領域を優先して選択するようにする距離であってもよい。
一実施形態によると、基準距離の推定において、基準決定部510は複数の候補距離を選択し、複数の候補距離それぞれに対応してセンサパネル560と関連して生成された映像の鮮明度に応じて複数の候補距離の中から基準距離を決定してもよい。
例えば、基準決定部510は、各候補距離に対してセンサパネル560から候補センサ領域をそれぞれ選択し、選択された候補センサ領域のセンサデータを復号化して生成されたマルチビュー映像の鮮明度を比較する。鮮明度の比較において、基準決定部510は、各候補距離と関連する生成されたマルチビュー映像のうちセンター映像の鮮明度を比較してもよい。ここで、センター映像は、マルチビュー映像のうち、イメージングパターンのアパーチャーを垂直に近似する角度で通過した入力光によって生成される映像であってもよい(図2で235で示す映像)。
基準決定部510は、鮮明度の比較によって鮮明度が最も優れるセンター映像をリファレンス映像として決定し、前記リファレンス映像の生成と関連する候補距離を基準距離として決定してもよい。例えば、基準決定部510は、センター映像のうち、映像内に含まれるブラー(blur)が小さいほど鮮明度が高いものと判断する。
実施形態に係る基準決定部510は、選択された第1距離に応じてセンサパネル560から第1センサ領域を選択し、第1センサ領域に基づいて生成されるマルチビュー映像のうちセンター映像を選別する。類似に、基準決定部510は、第1距離と相異なる第2距離に応じてセンサパネル560から第2センサ領域を選択し、第2センサ領域に基づいて生成されるマルチビュー映像のうちセンター映像を選別する。その後、基準決定部510は、選別された各センター映像のうち、鮮明度が相対的に優れるリファレンス映像と関連する距離を基準距離として選定してもよい。
図6は、一実施形態によりセンサ領域を選択するための基準距離を決定する方法を説明するための図である。
図6には、複数の候補距離に応じて複数の候補センサ領域を選択し、選択された候補センサ領域内のセンサデータを用いた復号化の処理結果に応じて、複数の候補距離の中から基準距離を決定する一例が図示されている。
まず、図5に示す基準決定部510は、複数の候補距離による複数の候補センサデータを選択し、候補センサデータを復号化して第1映像を生成する。例えば、基準決定部510は、図6(a)のように、任意の候補距離30cmと50cmそれぞれに対して候補センサ領域を選択し、選択された候補センサ領域に属する候補センサデータを用いて復号化し(S610)、候補距離30cmに対応する第1映像670及び候補距離50cmに対応する第1映像680を生成する。
また、基準決定部510は、第1映像に対して雑音除去処理を行って第2映像を生成する。例えば、基準決定部510は、候補距離30cmと50cmと関連して生成された第1映像に対し、非局所平均(Non−Local Means)アルゴリズムなどを用いて雑音除去の処理を行う(S620)。
また、基準決定部510は、第2映像に対して2進化を行い(S630)、第3映像を生成する。
他の実施形態によると、基準決定部510は、各候補距離に対するセンサ映像670、680及び2進化された第3映像を組合わせて生成された映像間の鮮明度を比較してもよい。例えば、基準決定部510は、候補距離30cmのセンサ映像670及び候補距離30cmの2進化された第3映像を組合わせる。2進化された映像は、各ピクセルに対してセグメントされた2つの値(例えば、0及び255)のみを有してもよい。基準決定部510は、候補距離30cmのセンサ映像670及び候補距離30cmの2進化された第3映像を、例えば、AND演算により組合わせた映像を生成してもよい。基準決定部510は、このように候補距離30cm及び50cmに対してそれぞれ組合わせた映像を生成し、組合わせた映像間の鮮明度を比較する。
ここで、鮮明度を比較するためには、エッジ領域の平均絶対変化率(Mean Absolute Gradient)値を用いる(S640)。
鮮明度の比較結果、基準決定部510は、ブラーが発生しなくて平均絶対変化率の優れる候補距離30cmのセンサ映像670が相対的に鮮明であると判断する(S650)。
また、基準決定部510は、鮮明度が高いと判断される候補距離30cmのセンサ映像670をリファレンス映像として決定し、決定されたリファレンス映像と関連する距離(例えば、30cm)を基準距離として決定する(S660)。
このような基準距離の推定によって、ディスプレイ装置はオブジェクトの深さ映像を取得するときに推定された基準距離に応じてセンサ領域を早く選択することができる。
再び図5を詳説すると、センサ選択部520は、センサパネル560から基準距離によるセンサデータを選択してもよい。例えば、センサ選択部520は、基準距離と関連して可変的に選択されるセンサ領域を考慮し、センサデータを選択してもよい。
センサデータを選択するとき、センサ選択部520は、基準距離に応じて選択されるセンサデータ数を変化させてもよい。ここで、センサ選択部520は、基準距離が遠いほど前記センサデータ数を減少して選択してもよい。一方、基準距離が小さくなるほど、センサ選択部520は選択するセンサデータ数を増加させてもよい。
図7は、センサパネルで検出されたセンサデータを可変的に選択する一例を説明するための図である。
前述したように、センサパネル700は、イメージングパターンのアパーチャ(例えば、OLEDピクセルの透明ウィンドウ)を通過する入力光から、イメージングパターンの数に対応する複数のセンサデータを検出する。前記イメージングパターンは、4個のMURAパターンを正方形でタイリングして構成してもよい(図1、図3参照)。
図7には、3×3の9個のイメージングパターンを通過した入力光によるセンサデータを、センサパネル700の映像取得領域710で検出する一例を示している。
図5に示すセンサ選択部520は、映像取得領域710から前記基準距離によるセンサ領域720を選択することによって、オブジェクトの映像復元のために実際に復号化されるセンサデータを選択する。
例えば、基準距離をZ、ディスプレイパネル550とセンサパネル560との間の距離をFといい、イメージングパターンを構成する正方形の4個のMURAパターンのいずれか一辺の長さがrである場合、センサ領域720は長さが(1+(F/Z))rの一辺を有する正方形であってもよい。
(1+(F/Z))rから分かるように、もし、基準距離が遠くてZが大きくなる場合、センサ選択部520はセンサ領域720の一辺の長さをより短く選択してもよい。一方、基準距離が短くなりZが小さくなると、センサ選択部520はセンサ領域720の一辺の長さをより長く選択してもよい
選択されたセンサ領域720に含まれるセンサデータ数は、センサピクセル個数Rpを用いて表現してもよい。
センサピクセル個数Rpは数式(3)を満足するように決定される。
ここで、(1+(F/Z))rはセンサ選択部520により選択されたセンサ領域720の一辺の長さであり、Spはピクセルピッチを意味する。
数式(3)によるセンサピクセルの個数Rpは、センサ領域720の一辺の長さと、センサ領域720のピクセルピッチとの比に対する四捨五入値であることが分かる。
選択されたセンサ領域720に含まれるセンサデータ数は、センサピクセル個数Rpの自乗(Rp×Rp)として表現されてもよい。
図7及び数式(3)から分かるように、センサ選択部520は、オブジェクトとの距離として推定された基準距離を考慮し、映像取得領域710から可変的にセンサ領域、または、センサ領域に含まれるセンサデータを選択してもよい。
再び図5を参照すると、データ復号化部530は、センサデータを用いてオブジェクトに対するマルチビュー映像を生成する。データ復号化部530は選択されたセンサデータを復号化して解釈することで、オブジェクトに関して様々な視点から眺めた多視点のマルチビュー映像を生成してもよい(図2(b)参照)。
センサデータの復号化の一例として、データ復号化部530は、センサデータ及びイメージングパターンを畳み込んで(convolution)オブジェクトに対するマルチビュー映像を生成する。例えば、データ復号化部530は、センサ領域に含まれるセンサデータを、イメージングパターン内のMURAパターンと畳み込み演算して復号化することで、オブジェクトから送出された様々な角度の入力光に基づいて生成される複数の映像を視覚化して復元することができる。
また、深さ取得部540は、前記マルチビュー映像からオブジェクトの深さ映像を取得する。例えば、深さ取得部540はオブジェクトに対する対応点を決定し、前記対応点を用いて前記マルチビュー映像それぞれをマッチングして深さ映像を取得してもよい。
図8A及び図8Bは、対応点を用いてマルチビュー映像をマッチングして深さ映像を取得する一例を説明するための図である。
図8Aでは、マルチビュー映像の生成のためのディスプレイパネル802及びセンサパネル804を例示している。
図8Aに示すように、ディスプレイ装置800は、ディスプレイパネル802とセンサパネル804を含み、オブジェクト(手)806と関連する入力光が入力される。入力光は、ディスプレイパネル802に含まれる複数のイメージングパターンを通過しながら映像に関するセンサデータに符号化され、センサデータは、センサパネル804の複数の映像取得領域で検出される。マルチビュー映像を生成するための復号化の場合、センサパネル804では、推定された基準距離に応じて復号化に関与するセンサデータ数が前記映像取得領域ごとに可変的に選択されてもよい。その後、図5に示すデータ復号化部530は、選択されたセンサデータを映像取得領域ごとに復号化することで、オブジェクト806に関して様々な視点で眺めた多視点のマルチビュー映像を生成することができる。
図8Bでは、マルチビュー映像を単一の深さ映像でマッチングすることを例示している。
まず、図5に示す深さ取得部540は、図8Aに示すオブジェクト806を眺める基準視点の映像830−1、830−2と、基準視点と視点が相異なる複数のマルチビュー映像の対810、820のそれぞれからオブジェクト806の特徴部位を対応点として抽出してもよい。ここで、マルチビューの対のうち、第1マルチビュー映像810はオブジェクト806に対する左側視点からの映像であり、前記マルチビューの対のうち第2マルチビュー映像820はオブジェクト806に対する右側視点からの映像である。また、基準視点の映像830−1、830−2は、オブジェクト806に対する中央視点からの映像である。
深さ取得部540は、基準視点の映像830−1、830−2と、マルチビュー映像の対810、820のそれぞれから対応点を抽出する。例えば、図8Bに示すように、深さ取得部540は、第1マルチビュー映像810と基準視点の映像830−1に対して、手のひら部位の特徴部を点に表示して対応点を抽出してもよい。また、深さ取得部540は、第2マルチビュー映像820と基準視点の映像830−2に対して、手首部位の特徴部を点に表示して対応点を抽出してもよい。図8Bにおいて、対応点は手のひらと手首に特徴部を点に表示しているが、これは説明のためのものであり、それよりも多い対応点または少ない対応点が選択され得ることは技術分野で通常の知識を有する者は理解できる。
また、深さ取得部540は、基準視点の映像830−1に表示される特徴部を参照して、第1マルチビュー映像810に表示された手のひら部位内の特徴部を調整して確定する。類似に、深さ取得部540は、基準視点の映像830−2に表示される特徴部を参照して、第2マルチビュー映像820に表示された手首部位内の特徴部を調整して確定する。
その後、深さ取得部540は、手のひら部位内の特徴部を表示する第1マルチビュー映像810と、手首部位内の特徴部を表示する第2マルチビュー映像820を組合わせ、オブジェクト806に関する深さ映像840を取得することができる。例えば、深さ取得部540は、複数のマルチビュー映像の対810、820間の対応点、または、対応点を含む対応領域を用いてオブジェクト806に関する深さ映像840を取得してもよい。対応点を求める方法として、特徴整合法、ステレオ整合方式などが挙げられ、深さ取得部540は、作業環境により方式を柔軟に選択して対応点を求めるために利用してもよい。
これによって、一実施形態に係るディスプレイ装置は、基準距離に応じて選択されるセンサデータと関連して生成されたマルチビュー映像から対応点を識別し、対応点に対応する深さ情報を有するオブジェクトの深さ映像を取得することができる。
他の実施形態において、ディスプレイ装置は、マルチビュー映像からリフォーカス映像を生成し、リフォーカス映像を用いてオブジェクトの深さ映像を取得してもよい。
そのために、図5に示すデータ復号化部530は、マルチビュー映像を用いて複数のリフォーカス映像を生成する。例えば、データ復号化部530は、マルチビュー映像のうちセンター映像を中心にマルチビュー映像それぞれをピクセル単位にシフトし、シフトによりセンター映像に対して重なる映像を前記リフォーカス映像として生成する。リフォーカス映像それぞれは、シフトされるピクセル値に基づいて前記オブジェクトの一部を鮮明に表現する映像である。
図9は、マルチビュー映像からリフォーカス映像を生成する概念を説明するための図である。図9(a)には、相異なる深さを有する第1〜第3オブジェクト910、920、930の入力光がピンホールパターンを通過することによって、センサパネルで深さ情報を有するマルチビュー映像(映像#1〜#3)を検出することが例示されている。図9(a)に示されたピンホールパターンは、イメージングパターンの一例として、ピンホールパターン以外のパターンを用いてもよい。
例えば、センサパネルは、ピンホールと各オブジェクト910、920、930との視点差によってマルチビュー映像(映像#1〜#3)内のオブジェクト関連映像の間の距離を互いに異なる距離として検出してもよい。
その後、図5に示すデータ復号化部530は、マルチビュー映像のうちセンター映像(映像#2)を中心に、映像#1と映像#3をピクセル単位にシフトする。
例えば、図9(b)において、データ復号化部530は、センター映像の映像#2を中心に映像#1を右側に3ピクセルシフトし、映像#3を左側に3ピクセルシフトすることで、最も大きい深さを有する深さ3の第3オブジェクト930関連の映像間で重複が行われ、第3オブジェクト930を鮮明に表現するリフォーカシング映像940を生成する。ここで、第1オブジェクト910と第2オブジェクト920に関する映像は、重複のためのシフト量が不足してリフォーカシングできない。
また、データ復号化部530は、映像#2を中心に映像#1を右側に2ピクセルシフトし、映像#3を左側に2ピクセルシフトすることで、中間深さを有する深さ2のオブジェクト920関連映像の間で重複が行われ、第2オブジェクト920を鮮明に表現するリフォーカシング映像950を生成することができる。ここで、第1オブジェクト910に関する映像は重複のためのシフト量が不足してリフォーカシングできず、一方、第3オブジェクト930に関する映像は重複のためのシフト量が多すぎてリフォーカシングできない。
また、データ復号化部530は、センター映像の映像#2を中心に映像#1を右側に1ピクセルシフトし、映像#3を左側に1ピクセルシフトすることで、最も小さい深さを有する深さ1の第1オブジェクト910に関する映像の間で重複が行われ、第1オブジェクト910を鮮明に表現するリフォーカシング映像960を生成することができる。ここで、第2オブジェクト920と第3オブジェクト930に関する映像は重複のためのシフト量が多すぎてリフォーカシングできない。
このように、データ復号化部530は、シフトされるピクセル値に基づいてオブジェクトの一部を鮮明に表現するリフォーカス映像を生成することができる。
図10は、マルチビュー映像からリフォーカス映像を生成する実例を説明するための図である。
まず、図5に示す基準決定部510は、基準距離に応じてセンサパネルからセンサ領域を選択し、選択されたセンサ領域に基づいてマルチビュー映像1000を生成する。図10では、生成されたマルチビュー映像1000に対して、センター映像1005を中心にマルチビュー映像1000それぞれをピクセル単位で、例えば、横方向、縦方向、対角線方向などにシフトすることについて例示している。図10において、マルチビュー映像1000は25個のマルチビュー映像を含んでいる。
例えば、図5に示すデータ復号化部530は、センター映像1005を除いた全てのマルチビュー映像1000を、センター映像1005を中心に16ピクセル(実際に約23cm)シフトし、シフトによりセンター映像1005に対して重なる映像を、リフォーカス映像1010として生成してもよい。ここで、リフォーカス映像1010はオブジェクト部位のうち、例えば、左側の腕部位が鮮明に表現される映像である。
また、データ復号化部530は、センター映像1005を除いた全てのマルチビュー映像1000を前記センター映像1005を中心に13ピクセル(実際に約28cm)シフトし、シフトにより前記センター映像1005に対して重なる映像をリフォーカス映像1020として生成してもよい。ここで、リフォーカス映像1020はオブジェクトの部位のうち、例えば、胸部位が鮮明に表現される映像である。
また、データ復号化部530は、センター映像1005を除いた全てのマルチビュー映像1000を前記センター映像1005を中心に10ピクセル(実際に約37cm)シフトし、シフトによりセンター映像1005に対して重なる映像をリフォーカス映像1030として生成してもよい。ここで、リフォーカス映像1030はオブジェクトの部位のうち、例えば、右側の腕部位が鮮明に表現される映像である。
これによって、データ復号化部530は、オブジェクトの一部(左側の腕部位、胸部位、右側の腕部位)を特徴的に鮮明に表現する複数のリフォーカス映像1010、1020、1030をそれぞれ生成することができる。
リフォーカス映像を生成した後、図5に示す深さ取得部540は、複数のリフォーカス映像1010、1020、1030から前記オブジェクトの深さ映像を取得する。例えば、深さ取得部540は、複数のリフォーカス映像1010、1020、1030それぞれから境界面を決定し、境界面を用いてリフォーカス映像1010、1020、1030それぞれをマッチングして深さ映像を取得することができる。
図11は、境界面を用いてリフォーカス映像をマッチングして深さ映像を取得する一例を説明するための図である。図11では、複数のリフォーカス映像を単一の深さ映像にマッチングすることを例示している。
まず、図5に示す深さ取得部540は、リフォーカス映像1110〜1140それぞれから映像の境界面を抽出する。
例えば、深さ取得部540は、オブジェクトの指にリフォーカスされた第1リフォーカス映像1110から周辺に比べて明るく表現された指を含むエッジに関する境界面映像を抽出してもよい。また、深さ取得部540は、オブジェクトの手のひらにリフォーカスされた第2リフォーカス映像1120から周辺に比べて明るく表現された手のひらを含むエッジに関する境界面映像を抽出してもよい。
類似に、深さ取得部540は、オブジェクトの手首と腕にそれぞれリフォーカスされた第3、4リフォーカス映像1130、1140から周辺に比べて明るく表現された前記手首を含むエッジに関する境界面映像と前記腕を含むエッジに関する境界面映像をそれぞれ抽出してもよい。
その後、深さ取得部540は、抽出された複数のエッジに関する境界面映像を、エッジの鮮明度を考慮して1つの映像に組合わせることによって、オブジェクトに関する深さ映像1150を取得することができる。前記複数のエッジに関する境界面を組合わせる方法として、例えば、DFF(Depth−From−Focus)、輪郭線映像マッチング法(boundary image matching)方式などを活用してもよい。
これによって、一実施形態に係るディスプレイ装置は、基準距離と関連して生成されたマルチビュー映像から、オブジェクトの特定部位に対するエッジ値が相対的に高いリフォーカシング映像を生成して組合わせることで、オブジェクトの各部位を最適に表現しながら深さ情報を有するオブジェクトの深さ映像を取得することができる。
他の実施形態として、ディスプレイ装置は、マルチビュー映像を組合わせて取得した第1深さ映像と、リフォーカス映像を組合わせて取得した第2深さ映像とを再び組合わせて、オブジェクトに関するより鮮明な深さ映像の取得について説明する。
図5に示す深さ取得部540は、マルチビュー映像の点に関する深さ情報及びリフォーカス映像のエッジに関する深さ情報を用いてオブジェクトの深さ映像を取得する。
例えば、深さ取得部540は、オブジェクトに対する対応点を用いてマルチビュー映像それぞれをマッチングしてマルチビュー映像に関する第1深さ映像を生成し、リフォーカス映像内の境界面を用いてリフォーカス映像それぞれをマッチングしてリフォーカス映像に関する第2深さ映像を生成し、第1深さ映像と第2深さ映像を再び組合わせて深さ映像を取得することができる。
図12は、第1深さ映像及び第2深さ映像を再び組合わせてオブジェクトの深さ映像の取得について説明するための図である。
まず、ディスプレイ装置は、基準距離に応じてセンサパネル内でセンサ領域1212を選択する(S1210)。例えば、ディスプレイ装置は、オブジェクト(例えば、人の手)に関する入力光がイメージングパターンを通過することによって、符号化されたセンサデータをセンサパネルから検出し、センサデータが集中して分布する領域を基準距離を考慮してセンサ領域1212に選択してもよい。
センサ領域1212は、1つの辺を「(1+F/z)r」の長さを有するように選択される。ここで、Zはオブジェクトとディスプレイパネルとの間の距離であり、前記Fはディスプレイパネルとセンサパネルとの間の距離であり、rは映像取得領域の1/2辺の長さである。
また、ディスプレイ装置は、選択されたセンサ領域1212と関連してマルチビュー映像を生成する(S1220)。例えば、ディスプレイ装置は、イメージングパターンの個数に該当する複数のセンサ領域1212を選択してもよく、記複数のセンサ領域1212に含まれるセンサデータそれぞれに対して、復号化処理によって多視点のマルチビュー映像を生成してもよい。
また、ディスプレイ装置は、マルチビュー映像を用いて複数のリフォーカス映像を生成する(S1230)。例えば、ディスプレイ装置は、マルチビュー映像内のセンター映像を中心にマルチビュー映像それぞれをピクセル単位にシフトし、シフトによりセンター映像に対して重なる映像を、リフォーカス映像として生成してもよい。
続いて、ディスプレイ装置は、ステップS1220で生成されたマルチビュー映像に対して特徴整合法などを実行し、オブジェクトの対応点と関連するマルチビュー映像の第1深さ映像を生成する(S1240)。例えば、ディスプレイ装置は、マルチビュー映像それぞれからオブジェクトの特徴部位(手のひら、手首、腕)を対応点として抽出し、特徴部位と関連する部分映像を組合わせ、マルチビュー映像の点に関する深さ情報を有する第1深さ映像を生成してもよい。
また、ディスプレイ装置は、ステップS1230によって生成されたリフォーカス映像の各ピクセルに対してDFF(Depth−From−Focus)などを実行し、境界面と関連する前記リフォーカス映像の第2深さ映像を生成する(S1250)。例えば。オブジェクトの特徴部位(指、手のひら、手首、腕)にそれぞれリフォーカスされた複数のリフォーカシング映像からそれぞれ複数の境界面の映像を抽出し、この境界面の映像を組合わせ、リフォーカス映像のエッジに関する深さ情報を有する第2深さ映像を生成する(S1250)。
その後、ディスプレイ装置は、ステップS1240及びステップS1250の結果を再び組合わせて、オブジェクトに関する深さ映像を生成する(S1260)。例えば、ディスプレイ装置は、第2深さ映像を介してオブジェクトの手及び腕の境界面(例、輪郭線)を表現し、第1深さ映像を介してオブジェクトの手及び腕の内部点などを表現するよう再び組合わせてもよい。
これによって、一実施形態に係るディスプレイ装置は、無レンズ方式の符号化されたアパーチャ映像を用いて、符号化されたセンサ領域から可変的にセンサ領域を選択し、マルチビュー映像及びリフォーカス映像を生成し、2つの映像の組合せにより精密な深さ映像を生成することができる。
以下、深さ情報を取得するディスプレイ装置の動作に対する流れを詳細に説明する。
図13は、一実施形態に係るディスプレイ装置の深さ情報を取得する方法を具体的に示した作業フローチャートである。
実施形態に係る深さ情報取得方法は、ディスプレイパネル及びセンサパネルを含む図5に示すディスプレイ装置500によって行われる。
一実施形態におけるディスプレイ装置500は、マルチビュー映像の点に関する深さ情報を取得する。
一実施形態におけるディスプレイ装置500は、基準距離を推定する(S1310)。このステップS1310において、ディスプレイ装置500はいずれかの距離にオブジェクトがあることを仮定し、センサ領域を優先して選択する距離としての基準距離を決定する。実施形態によると、オブジェクトからの距離に応じて映像取得領域内でセンサ領域の大きさを決定するが、センサ領域の大きさを決定するための距離がステップS1310で推定される。
基準距離の推定において、ディスプレイ装置500は複数の候補距離を選択し、複数の候補距離それぞれに対応してセンサパネルと関連して生成された映像の鮮明度に応じて複数の候補距離の中から基準距離を決定してもよい。候補距離は、ディスプレイ装置500からオブジェクトまでの距離を推定した値である。
ディスプレイ装置500は、各候補距離に対してセンサパネルから候補センサ領域をそれぞれ選択し、選択された候補センサ領域のセンサデータを復号化して生成されたマルチビュー映像の鮮明度を比較する。鮮明度を比較することにおいて、ディスプレイ装置500は、候補センサ領域のセンサデータを用いて生成されるマルチビュー映像の鮮明度として、平均絶対変化率値を算出してもよい。例えば、ディスプレイ装置500は、平均絶対変化率が優れて映像内のブラーが少なく含まれたと判断されるマルチビュー映像を鮮明度が高いものと判断する。
これによって、ディスプレイ装置500は、鮮明度が高いと判断されたマルチビュー映像をリファレンス映像として決定し、決定されたリファレンス映像と関連する距離を前記基準距離として決定してもよい。
また、ディスプレイ装置500は、センサパネルで基準距離によるセンサデータを選択し、選択されたセンサデータを用いてオブジェクトに対するマルチビュー映像を生成する(S1320)。このステップS1320において、ディスプレイ装置500は、基準距離と関連して可変的に選択されるセンサ領域を考慮してセンサデータを選択してもよい。
センサデータを選択するとき、ディスプレイ装置500は、基準距離に応じて選択されるセンサデータ数を変化させ得る。ここで、ディスプレイ装置500は、基準距離が遠いほどセンサデータ数を減少して選択してもよい。一方、基準距離が狭いほど、ディスプレイ装置500は選択するセンサデータ数を増加させてもよい。
このステップS1320において、ディスプレイ装置500は、選択されたセンサデータを復号化し視覚化することで、オブジェクトに関して様々な視点から眺めた多視点のマルチビュー映像を生成することができる。
センサデータの復号化の一例として、ディスプレイ装置500は、センサデータ及びイメージングパターンを畳み込んでオブジェクトに対するマルチビュー映像を生成してもよい。例えば、ディスプレイ装置500は、センサ領域に含まれるセンサデータを、イメージングパターン内のMURAパターンと畳み込み演算して復号化することで、オブジェクトから送出された様々な角度の入力光に起因して生成される複数の映像を視覚化して復元してもよい。
次に、ディスプレイ装置500は、対応点を用いてマルチビュー映像から第1深さ映像を生成する(S1330)。ステップS1330において、ディスプレイ装置は、マルチビュー映像の点に関する深さ情報を生成する。例えば、ディスプレイ装置は、オブジェクトに対する対応点を用いてマルチビュー映像それぞれをマッチングしてマルチビュー映像に関する第1深さ映像を生成してもよい。
例えば、ディスプレイ装置は、3つのマルチビュー映像で対応点としてそれぞれ抽出されたオブジェクトの手のひら、手首、腕に関する部分映像を、特徴整合法などにより組合わせることによって、オブジェクトに関する前記第1深さ映像を取得することができる(図8B参照)。
これによって、一実施形態に係るディスプレイ装置は、基準距離に応じて選択されるセンサデータと関連して生成されたマルチビュー映像から対応点を識別し、前記対応点に対応する深さ情報を有するオブジェクトの深さ映像を取得することができる。
他の実施形態として、ディスプレイ装置500は、リフォーカス映像のエッジに関する深さ情報を取得してもよい。
他の実施形態として、ディスプレイ装置500は、基準距離を推定し(S1310)、推定された基準距離に応じて選択されたセンサデータを用いてオブジェクトに対するマルチビュー映像を生成する(S1320)。ステップS1310及びステップS1320は、上述の一実施形態で説明したものに代替し、ここでは省略する。
ステップS1310及びステップS1320を行った後、ディスプレイ装置500は、マルチビュー映像からリフォーカス映像を生成する(S1340)。ステップS1340において、ディスプレイ装置500は、マルチビュー映像内のセンター映像を中心に、マルチビュー映像それぞれをピクセル単位にシフトし、シフトによりセンター映像に対して重なる映像をリフォーカス映像に生成してもよい。リフォーカス映像それぞれは、シフトされるピクセル値に基づいてオブジェクトの一部を鮮明に表現する映像である。
例えば、ディスプレイ装置500は、センター映像を除いた全てのマルチビュー映像を、センター映像を中心にピクセル単位で順次シフトし、各シフトによりオブジェクトの指が鮮明に表現されるリフォーカス映像、オブジェクトの手のひら部位が鮮明に表現されるリフォーカス映像、オブジェクトの手首が鮮明に表現されるリフォーカス映像、オブジェクトの腕が鮮明に表現されるリフォーカス映像を生成してもよい。
続いて、ディスプレイ装置500は、境界面を用いて第2深さ映像を生成する(S1350)。ステップS1350において、ディスプレイ装置は、リフォーカス映像のエッジに関する深さ情報を生成してもよい。ディスプレイ装置500は、リフォーカス映像内の境界面を用いてリフォーカス映像それぞれをマッチングしてリフォーカス映像に関する第2深さ映像を生成してもよい。
例えば、ディスプレイ装置500は、4個のリフォーカス映像でフォーカスされたオブジェクトの指、手のひら、手首、腕をそれぞれ含むエッジに関する境界面映像を、DFF(Depth−From−Focus)などを用いて1つの映像で組合わせることで、オブジェクトに関する前記第2深さ映像を取得することができる(図11参照)。
これによって、他の実施形態に係るディスプレイ装置は、基準距離と関連して生成されたマルチビュー映像から、オブジェクトの特定部位に対するエッジ値が相対的に高いリフォーカシング映像を生成して組合わせることで、オブジェクトの各部位を最適に表現しながらも深さ情報を有するオブジェクトの深さ映像を取得することができる。
更なる実施形態におけるディスプレイ装置500は、第1深さ映像及び第2深さ映像を再び組合わせてオブジェクトの深さ映像を取得してもよい。
更なる実施形態におけるディスプレイ装置500は、基準距離を推定し(S1310)、マルチビュー映像と第1深さ映像を生成し(S1320、S1330)、リフォーカス映像と第2深さ映像を生成する(S1340、S1350)。ステップS1310〜ステップS1350は上述の一実施形態及び他の実施形態で説明したものに代替し、ここでは省略する。
ステップS1310〜ステップS1350を行った後、ディスプレイ装置500は、マルチビュー映像及び複数のリフォーカス映像を用いてオブジェクトの深さ映像を取得する(S1360)。このステップS1360は、マルチビュー映像の点に関する深さ情報及びリフォーカス映像のエッジに関する深さ情報を用いてオブジェクトの深さ映像を取得する。
例えば、ディスプレイ装置500は、マルチビュー映像と関連して組合わせた第1深さ映像、及びリフォーカス映像と関連して組合わせた第2深さ映像を再び組合わせてオブジェクトの深さ映像を生成してもよい。
第1及び第2深さ映像を再び組み合わせることにおいて、ディスプレイ装置500は、オブジェクトの特定部位のエッジを鮮明に表現する第2深さ映像に対して、当該部位の内部点などを鮮明に表現している第1深さ映像をマッチングして組合わせる。例えば、ディスプレイ装置500は、第2深さ映像を介してオブジェクトの手及び腕の境界面(例、輪郭線)を表現し、第1深さ映像を介してオブジェクトの手及び腕の内部点などを表現するよう組合わせる(図12参照)。
これによって、一実施形態に係る深さ情報取得方法は、無レンズ方式の符号化されたアパーチャ映像を用いて符号化されたセンサ領域から可変的にセンサ領域を選択し、マルチビュー映像及びリフォーカス映像を生成し、2つの映像の組合せにより精密な深さ映像を生成することができる。
実施形態に係る深さ情報取得方法は、ディスプレイパネル内のアパーチャーをレンズの代わりに用いて深さ推定を行うことができ、フラットパネルディスプレイにおける最適な適用を可能にする。
また、実施形態に係る深さ情報取得方法は、従来のセンシング陰影領域のようなオブジェクトの認知できない領域がないため、オブジェクトの距離に関わらず深さ推定が可能であり、タッチ、高解像度スキャン、空間操作などの立体映像が活用される、あらゆる分野で適用可能である。
また、実施形態に係る深さ情報取得方法は、3Dディスプレイと結合する場合、スクリーンの外で物体を操作するユーザの手を画面の正面で取り込む深さ映像を生成することによって、ユーザが実感することのできる相互作用を提供できる。
実施形態に係る方法は、様々なコンピュータ手段によって実行されることができるプログラム命令形態で実現され、コンピュータで読み取り可能な媒体に記録されることができる。コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むことができる。媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェア当業者に開示されて使用可能なものであってもよい。
上述したように、本発明は限定された実施形態と図面によって説明されたが、本発明が上述した実施形態に限定されるものではなく、本発明が属する分野において通常の知識を有する者であれば、このような記載から多様な修正および変形が可能である。
したがって、本発明の範囲は上述した実施形態に限定されて定められてはならず、添付の特許請求の範囲だけではなく、この特許請求の範囲と均等なものによって定められなければならない。
500:ディスプレイ装置
510:基準決定部
520:センサ選択部
530:データ復号化部
540:深さ取得部
550:ディスプレイパネル
560:センサパネル

Claims (38)

  1. ディスプレイパネル及びセンサパネルを含むディスプレイ装置で深さ情報を取得する方法において、
    オブジェクトの位置を想定して選択される基準距離に基づいて前記センサパネルのセンサ領域を変更するステップと、
    前記変更されたセンサ領域に基づいてオブジェクトの深さ情報を取得するステップと、
    を含むことを特徴とする深さ情報を取得する方法。
  2. 前記センサパネルのセンサ領域を変更するステップは、前記オブジェクトからの推定された距離に応じて前記センサパネルの前記センサ領域の大きさを変更するステップを含むことを特徴とする請求項1に記載の深さ情報を取得する方法。
  3. 前記オブジェクトからの推定された距離が遠いほど前記センサ領域の大きさは小さくなることを特徴とする請求項1又は2に記載の深さ情報を取得する方法。
  4. ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法において、
    基準距離を推定するステップと、
    前記センサパネルで、前記基準距離によるセンサデータを選択するステップと、
    前記センサデータを用いて前記オブジェクトに対するマルチビュー映像を生成するステップと、
    前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得するステップと、
    を含むことを特徴とする深さ情報を取得する方法。
  5. 前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得するステップは、
    前記オブジェクトに対する対応点を決定するステップと、
    前記対応点を用いて前記マルチビュー映像それぞれをマッチングして前記深さ映像を取得するステップと、
    を含むことを特徴とする請求項4に記載の深さ情報を取得する方法。
  6. 前記マルチビュー映像を用いて複数のリフォーカス映像を生成するステップをさらに含み、
    前記オブジェクトの深さ映像を取得するステップは、前記複数のリフォーカス映像から前記オブジェクトの深さ映像を取得するステップを含むことを特徴とする請求項4又は5に記載の深さ情報を取得する方法。
  7. 前記複数のリフォーカス映像を生成するステップは、
    前記マルチビュー映像内のセンター映像を中心に、前記マルチビュー映像それぞれをピクセル単位にシフトするステップと、
    前記シフトにより前記センター映像に対して重なる映像を前記複数のリフォーカス映像として生成するステップと、
    を含むことを特徴とする請求項6に記載の深さ情報を取得する方法。
  8. 前記複数のリフォーカス映像のそれぞれは、シフトされるピクセル値に基づいて前記オブジェクトの一部を鮮明に表現する映像であることを特徴とする請求項6又は7に記載の深さ情報を取得する方法。
  9. 前記複数のリフォーカス映像から前記オブジェクトの深さ映像を取得するステップは、
    前記複数のリフォーカス映像それぞれで境界面を決定するステップと、
    前記境界面を用いて前記複数のリフォーカス映像それぞれをマッチングして前記深さ映像を取得するステップと、
    を含むことを特徴とする請求項6乃至8のうちいずれか一項に記載の深さ情報を取得する方法。
  10. 前記基準距離によるセンサデータを選択するステップは、前記基準距離に応じて前記センサデータ数を変して選択するステップを含むことを特徴とする請求項4乃至9のうちいずれか一項に記載の深さ情報を取得する方法。
  11. 前記基準距離が遠いほど前記センサデータ数は減少することを特徴とする請求項10に記載の深さ情報を取得する方法。
  12. 前記基準距離を推定するステップは、
    複数の候補距離を選択するステップと、
    前記複数の候補距離それぞれに対応し、前記センサパネルと関連して生成された映像の鮮明度に応じて前記複数の候補距離の中から前記基準距離を決定するステップと、
    を含むことを特徴とする請求項4乃至11のうちいずれか一項に記載の深さ情報を取得する方法。
  13. 前記複数の候補距離の中から前記基準距離を決定するステップは、前記映像内のブラーが少なく含まれるほど前記鮮明度が高いものと判断するステップを含むことを特徴とする請求項12に記載の深さ情報を取得する方法。
  14. 前記複数の候補距離の中から前記基準距離を決定するステップは、
    前記センサパネルで、前記複数の候補距離による複数の候補センサデータを選択するステップと、
    前記候補センサデータを用いて生成される前記映像の鮮明度として、平均絶対変化率値を算出するステップと、
    を含むことを特徴とする請求項12又は13に記載の深さ情報を取得する方法。
  15. 前記平均絶対変化率値を算出するステップは、
    前記候補センサデータを復号化して第1映像を生成するステップと、
    前記第1映像に対して非局所平均化法(non−local means)を行って第2映像を生成するステップと、
    前記第2映像に対して2進化を行って第3映像を生成するステップと、
    前記第3映像に対して前記平均絶対変化率値を算出するステップと、
    を含むことを特徴とする請求項14に記載の深さ情報を取得する方法。
  16. ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法において、
    基準距離に応じて前記センサパネルで選択されるセンサデータを用いて前記オブジェクトに対するマルチビュー映像を生成するステップと、
    前記マルチビュー映像を用いて複数のリフォーカス映像を生成するステップと、
    前記マルチビュー映像及び前記複数のリフォーカス映像を用いて前記オブジェクトの深さ映像を取得するステップと、
    を含むことを特徴とする深さ情報を取得する方法。
  17. 前記オブジェクトの深さ映像を取得するステップは、前記マルチビュー映像の点に関する深さ情報、及び前記リフォーカス映像のエッジに関する深さ情報を用いて前記オブジェクトの深さ映像を取得するステップを含むことを特徴とする請求項16に記載の深さ情報取得する方法。
  18. 前記オブジェクトの深さ映像を取得するステップは、
    前記オブジェクトに対する対応点を用いて前記マルチビュー映像それぞれをマッチングし、前記マルチビュー映像に関する第1深さ映像を生成するステップと、
    前記リフォーカス映像内の境界面を用いて前記リフォーカス映像それぞれをマッチングし、前記リフォーカス映像に関する第2深さ映像を生成するステップと、
    前記第1深さ映像と前記第2深さ映像とを組合わせて前記深さ映像を取得するステップと、
    を含むことを特徴とする請求項16又は17に記載の深さ情報を取得する方法。
  19. ディスプレイパネル及びセンサパネルを含むディスプレイ装置において、
    基準距離を推定する基準決定部と、
    前記センサパネルで前記基準距離によるセンサデータを選択するセンサ選択部と、
    前記センサデータを用いてオブジェクトに対するマルチビュー映像を生成するデータ復号化部と、
    前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得する深さ取得部と、
    を備えることを特徴とする深さ情報を取得するディスプレイ装置。
  20. 前記深さ取得部は、前記オブジェクトに対する対応点を決定し、前記対応点を用いて前記マルチビュー映像それぞれをマッチングして前記深さ映像を取得することを特徴とする請求項19に記載の深さ情報を取得するディスプレイ装置。
  21. 前記データ復号化部は、前記マルチビュー映像を用いて複数のリフォーカス映像を生成し、
    前記深さ取得部は、前記複数のリフォーカス映像から前記オブジェクトの深さ映像を取得することを特徴とする請求項19又は20に記載の深さ情報を取得するディスプレイ装置。
  22. 前記データ復号化部は、前記マルチビュー映像内のセンター映像を中心に、前記マルチビュー映像それぞれをピクセル単位にシフトし、前記シフトにより前記センター映像に対して重なる映像を前記リフォーカス映像として生成することを特徴とする請求項19乃至21のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
  23. 前記リフォーカス映像はそれぞれ、シフトされるピクセル値に基づいて前記オブジェクトの一部を鮮明に表現する映像であることを特徴とする請求項21又は22に記載の深さ情報を取得するディスプレイ装置。
  24. 前記深さ取得部は、前記リフォーカス映像それぞれで境界面を決定し、前記境界面を用いて前記リフォーカス映像それぞれをマッチングして前記深さ映像を取得することを特徴とする請求項21乃至23のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
  25. 前記センサ選択部は、前記基準距離に応じて前記センサデータ数を変して選択することを特徴とする請求項19乃至23のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
  26. 前記基準距離が遠いほど前記センサデータ数は減少することを特徴とする請求項25に記載の深さ情報を取得するディスプレイ装置。
  27. 前記基準決定部は、複数の候補距離を選択して前記複数の候補距離それぞれに対応し、前記センサパネルと関連して生成された映像の鮮明度に応じて前記複数の候補距離の中から前記基準距離を決定することを特徴とする請求項19乃至26のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
  28. 前記基準決定部は、前記映像内に含まれるブラーが少ないほど前記鮮明度が高いものと判断することを特徴とする請求項27に記載の深さ情報を取得するディスプレイ装置。
  29. 前記基準決定部は、前記センサパネルで前記複数の候補距離による複数の候補センサデータを選択し、前記候補センサデータを用いて生成される前記映像の鮮明度として平均絶対変化率値を算出することを特徴とする請求項27に記載の深さ情報を取得するディスプレイ装置。
  30. 前記基準決定部は、前記候補センサデータを復号化して第1映像を生成し、前記第1映像に対して非局所平均化法を行って第2映像を生成し、前記第2映像に対して2進化を行って第3映像を生成し、前記第3映像に対して前記平均絶対変化率値を算出することを特徴とする請求項29に記載の深さ情報を取得するディスプレイ装置。
  31. ディスプレイパネル及びセンサパネルを含むディスプレイ装置において、
    基準距離に応じて前記センサパネルで選択されるセンサデータを用いてオブジェクトに対するマルチビュー映像を生成し、前記マルチビュー映像を用いて複数のリフォーカス映像を生成するデータ復号化部と、
    前記マルチビュー映像及び前記複数のリフォーカス映像を用いて前記オブジェクトの深さ映像を取得する深さ取得部と、
    を備えることを特徴とする深さ情報を取得するディスプレイ装置。
  32. 前記深さ取得部は、前記マルチビュー映像の点に関する深さ情報、及び前記リフォーカス映像のエッジに関する深さ情報を用いて前記オブジェクトの深さ映像を取得することを特徴とする請求項31に記載の深さ情報を取得するディスプレイ装置。
  33. 前記深さ取得部は、前記オブジェクトに対する対応点を用いて前記マルチビュー映像それぞれをマッチングして前記マルチビュー映像に関する第1深さ映像を生成し、前記リフォーカス映像内の境界面を用いて前記リフォーカス映像それぞれをマッチングして前記リフォーカス映像に関する第2深さ映像を生成し、前記第1深さ映像と前記第2深さ映像とを組み合わせて前記深さ映像を取得することを特徴とする請求項31又は32に記載の深さ情報を取得するディスプレイ装置。
  34. 前記ディスプレイパネルは複数のピクセルから構成され、
    予め決定された第1時間中にディスプレイモードとして動作し、予め決定された第2時間中に映像取得モードとして動作するように前記ディスプレイパネルを制御することを特徴とする請求項19に記載のディスプレイ装置。
  35. 前記ディスプレイパネルは、前記映像取得モード中に映像を取得するセンサパネルを含むことを特徴とする請求項34に記載のディスプレイ装置。
  36. 前記ディスプレイパネルは、前記第1時間中に前記複数のピクセルを用いて放送映像信号をディスプレイし、前記第2時間中に外部光が、前記ディスプレイパネルを通過して前記センサパネルに伝達するように許容し、
    前記センサパネルは、前記外部光に基づいてセンサデータを取得することを特徴とする請求項34又は35に記載のディスプレイ装置。
  37. ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法において、
    基準距離を推定するステップと、
    前記基準距離に基づいて前記センサパネルからのセンサデータを選択するステップと、
    前記センサデータを用いて生成されたマルチビュー映像との組合せによって第1深さ映像を生成するステップと、
    前記マルチビュー映像を用いて生成されたリフォーカス映像との組合せによって取得されたマルチビュー映像との組合せによって第2深さ映像を生成するステップと、
    前記第1深さ映像と前記第2深さ映像とを再結合して前記オブジェクトの深さ映像を取得するステップと、
    を含むことを特徴とする深さ情報を取得する方法。
  38. 前記ディスプレイパネルは複数のピクセルから構成され、
    前記センサパネルは、映像取得のために前記ディスプレイパネルの後方に位置し、
    前記複数のピクセルを用いて映像信号をディスプレイし、同時に、前記ディスプレイパネルによって前記映像信号が表示される間に前記センサパネルで外部光を用いて映像を取得できるように、前記外部光が、前記ディスプレイパネルを通過して前記センサパネルに伝達するよう前記ディスプレイパネルを制御することを特徴とする、請求項19に記載のディスプレイ装置。
JP2013256699A 2012-12-28 2013-12-12 深さ情報を取得する方法及びディスプレイ装置 Active JP6412690B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20120156387 2012-12-28
KR10-2012-0156387 2012-12-28
KR10-2013-0009075 2013-01-28
KR1020130009075A KR101905528B1 (ko) 2012-12-28 2013-01-28 깊이 정보를 획득하는 방법 및 디스플레이 장치

Publications (2)

Publication Number Publication Date
JP2014131266A JP2014131266A (ja) 2014-07-10
JP6412690B2 true JP6412690B2 (ja) 2018-10-24

Family

ID=50033308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013256699A Active JP6412690B2 (ja) 2012-12-28 2013-12-12 深さ情報を取得する方法及びディスプレイ装置

Country Status (4)

Country Link
US (1) US10257506B2 (ja)
EP (1) EP2749993B1 (ja)
JP (1) JP6412690B2 (ja)
CN (1) CN103916654B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI510086B (zh) * 2014-12-03 2015-11-21 Nat Univ Tsing Hua 數位重對焦方法
US9820513B2 (en) * 2014-12-23 2017-11-21 Intel Corporation Depth proximity layering for wearable devices
EP3251338A1 (en) * 2015-01-29 2017-12-06 William Marsh Rice University Lensless imaging system using an image sensor with one or more attenuating layers
KR102415501B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 3차원 디스플레이 장치의 파라미터 추정 방법 및 그 방법을 이용한 3차원 디스플레이 장치
US10262466B2 (en) 2015-10-14 2019-04-16 Qualcomm Incorporated Systems and methods for adjusting a combined image visualization based on depth information
CN105744166B (zh) * 2016-03-11 2019-05-10 苏州睿仟医疗科技有限公司 图像扫描时的自动聚焦装置及其自动聚焦方法
US10230935B2 (en) 2016-10-11 2019-03-12 Marvel Digital Limited Method and a system for generating depth information associated with an image
JP7107224B2 (ja) * 2016-11-08 2022-07-27 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
CN107636679B (zh) * 2016-12-30 2021-05-25 达闼机器人有限公司 一种障碍物检测方法及装置
CN108459417B (zh) * 2018-02-05 2020-06-26 华侨大学 一种单目窄带多光谱立体视觉系统及其使用方法
CN108919573B (zh) * 2018-07-13 2019-12-20 京东方科技集团股份有限公司 显示面板、显示装置、成像方法和深度距离的检测方法
US10297697B1 (en) * 2018-11-01 2019-05-21 H3D, Inc. Coded aperture system of imaging with a plurality of detectors in a spaced-apart configuration
US11397475B2 (en) * 2019-01-14 2022-07-26 Boe Technology Group Co., Ltd. Display device, electronic device and method for driving display device
TWI807299B (zh) * 2020-04-09 2023-07-01 荷蘭商荷蘭移動驅動器公司 圖像深度擴增方法、裝置及電子設備
GB202019760D0 (en) * 2020-12-15 2021-01-27 Ams Sensors Singapore Pte Ltd Video user interface and method for use in determining depth information relating to a scene

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000036863A (ko) 2000-03-30 2000-07-05 이형근 Dfd를 이용한 3차원 형상복원 기술
US7262799B2 (en) * 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
JP3860979B2 (ja) 2001-02-28 2006-12-20 安西メディカル株式会社 ガンマカメラ装置
KR20030029933A (ko) 2001-07-06 2003-04-16 코닌클리케 필립스 일렉트로닉스 엔.브이. 움직임 또는 깊이 추정 방법들 및 유닛들과 이러한 움직임추정 유닛이 제공된 이미지 처리 장치
US7671321B2 (en) * 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
US7697053B2 (en) * 2006-11-02 2010-04-13 Eastman Kodak Company Integrated display having multiple capture devices
KR100931311B1 (ko) 2006-12-04 2009-12-11 한국전자통신연구원 프레임 간 깊이 연속성 유지를 위한 깊이 추정 장치 및 그방법
KR20100008677A (ko) 2008-07-16 2010-01-26 광주과학기술원 깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법및 다시점 비디오의 인코딩 방법
US20100098323A1 (en) * 2008-07-18 2010-04-22 Agrawal Amit K Method and Apparatus for Determining 3D Shapes of Objects
KR101506926B1 (ko) 2008-12-04 2015-03-30 삼성전자주식회사 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법
KR20100080704A (ko) 2009-01-02 2010-07-12 삼성전자주식회사 영상 데이터 획득 방법 및 장치
KR20100090961A (ko) 2009-02-09 2010-08-18 삼성전자주식회사 가변 부호화 어퍼쳐 장치를 이용하는 이미징 방법 및 이를 적용하는 이미징 장치
EP2244484B1 (en) * 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
US8654234B2 (en) * 2009-07-26 2014-02-18 Massachusetts Institute Of Technology Bi-directional screen
KR101725044B1 (ko) 2010-05-27 2017-04-11 삼성전자주식회사 촬영이 가능한 디스플레이 장치
KR101385514B1 (ko) 2010-06-08 2014-04-16 주식회사 에스칩스 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
TW201205551A (en) * 2010-07-29 2012-02-01 Hon Hai Prec Ind Co Ltd Display device assembling a camera
KR101680252B1 (ko) * 2010-08-02 2016-11-29 삼성전자주식회사 촬영이 가능한 3d 디스플레이 장치
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
JP5536071B2 (ja) 2010-10-05 2014-07-02 エンパイア テクノロジー ディベロップメント エルエルシー 空間光パターンに基づく深さデータの生成
KR20120080845A (ko) 2011-01-10 2012-07-18 삼성전자주식회사 광 감지 기능을 구비한 oled 디스플레이 장치
JP5725975B2 (ja) 2011-05-27 2015-05-27 キヤノン株式会社 撮像装置及び撮像方法
JP5762142B2 (ja) * 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
WO2013054499A1 (ja) * 2011-10-11 2013-04-18 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
US9652043B2 (en) * 2012-05-14 2017-05-16 Hewlett-Packard Development Company, L.P. Recognizing commands with a depth sensor

Also Published As

Publication number Publication date
EP2749993A3 (en) 2014-07-16
US20140184754A1 (en) 2014-07-03
EP2749993B1 (en) 2017-08-09
EP2749993A2 (en) 2014-07-02
CN103916654B (zh) 2017-04-05
CN103916654A (zh) 2014-07-09
US10257506B2 (en) 2019-04-09
JP2014131266A (ja) 2014-07-10

Similar Documents

Publication Publication Date Title
JP6412690B2 (ja) 深さ情報を取得する方法及びディスプレイ装置
Choi et al. Extreme view synthesis
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
JP5966256B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
KR101502362B1 (ko) 영상처리 장치 및 방법
JP6734620B2 (ja) 映像処理方法及び映像処理装置
TW201031177A (en) Generation of occlusion data for image properties
US8611642B2 (en) Forming a steroscopic image using range map
KR20110049039A (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
US20130127993A1 (en) Method for stabilizing a digital video
WO2013074561A1 (en) Modifying the viewpoint of a digital image
TWI496452B (zh) 立體影像系統、立體影像產生方法、立體影像調整裝置及其方法
JP5663857B2 (ja) 画像表示装置および画像表示方法
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
US9886096B2 (en) Method and apparatus for processing three-dimensional (3D) object based on user interaction
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
KR20110047791A (ko) 2차원 영상의 3차원 영상으로의 변환방법 및 그 장치
WO2013035457A1 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP6717576B2 (ja) 映像レンダリング装置及び方法
Schmeing et al. Depth image based rendering
US9767580B2 (en) Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images
KR101435611B1 (ko) 3차원 집적영상의 가려짐 문제 해결방법
Orozco et al. HDR multiview image sequence generation: Toward 3D HDR video
JP5791328B2 (ja) 3d画像処理方法及び3d画像処理装置
WO2020059575A1 (ja) 3次元画像生成装置、3次元画像生成方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6412690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250