JP2017022694A - ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品 - Google Patents
ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品 Download PDFInfo
- Publication number
- JP2017022694A JP2017022694A JP2016104456A JP2016104456A JP2017022694A JP 2017022694 A JP2017022694 A JP 2017022694A JP 2016104456 A JP2016104456 A JP 2016104456A JP 2016104456 A JP2016104456 A JP 2016104456A JP 2017022694 A JP2017022694 A JP 2017022694A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- bright field
- focal stack
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00408—Display of information to the user, e.g. menus
- H04N1/0044—Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
- H04N1/00458—Sequential viewing of a plurality of images, e.g. browsing or scrolling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザのデバイスに少なくとも1つの明視野ベースの画像を表示するための方法および装置を提供する。
【解決手段】ユーザのデバイス52の姿勢に応じて決定される少なくとも1つの焦点合わせパラメータに従って焦点が合わされたプレノプティックカメラ52によって記録された画像51を表示する。ハンドヘルドデバイスとすることができるユーザのデバイスに埋め込まれたセンサは、姿勢を推定する。明視野画像またはビデオデータセットをユーザのデバイスの姿勢に応じて、ユーザ当たり1つの視点/リフォーカスに変換する。
【選択図】図5
【解決手段】ユーザのデバイス52の姿勢に応じて決定される少なくとも1つの焦点合わせパラメータに従って焦点が合わされたプレノプティックカメラ52によって記録された画像51を表示する。ハンドヘルドデバイスとすることができるユーザのデバイスに埋め込まれたセンサは、姿勢を推定する。明視野画像またはビデオデータセットをユーザのデバイスの姿勢に応じて、ユーザ当たり1つの視点/リフォーカスに変換する。
【選択図】図5
Description
1.技術分野
本開示は明視野イメージングに関し、ならびに明視野データを獲得および処理するための技術に関する。より正確には本開示は一般に、ユーザのデバイスに明視野ベースの画像を表示するための方法および装置に関し、画像またはビデオレンダリングの領域に応用例が見出される。
本開示は明視野イメージングに関し、ならびに明視野データを獲得および処理するための技術に関する。より正確には本開示は一般に、ユーザのデバイスに明視野ベースの画像を表示するための方法および装置に関し、画像またはビデオレンダリングの領域に応用例が見出される。
2.背景技術
この項は、以下で述べられおよび/または特許請求される本開示の様々な態様に関連し得る技術の様々な態様を読者に紹介するためのものである。この考察は、本発明の様々な態様のより良い理解を容易にするために、背景情報を読者にもたらすのに役に立つと考えられる。従ってこれらの記述はこの観点から読まれるべきであり、従来技術を認めるものではないことが理解されるべきである。
この項は、以下で述べられおよび/または特許請求される本開示の様々な態様に関連し得る技術の様々な態様を読者に紹介するためのものである。この考察は、本発明の様々な態様のより良い理解を容易にするために、背景情報を読者にもたらすのに役に立つと考えられる。従ってこれらの記述はこの観点から読まれるべきであり、従来技術を認めるものではないことが理解されるべきである。
従来型の画像捕捉デバイスは、3次元シーンを2次元センサに投影する。動作時に従来型の捕捉デバイスは、デバイス内の光センサ(または光検出器)に到達する光量を表すシーンの2次元(2−D)画像を捕捉する。しかしこの2−D画像は、光センサに到達する光線(これは明視野と呼ばれ得る)の方向分布についての情報を含まない。例えば入射光の方向はこのような2D獲得時に失われ、深度のような情報は単一のシステムに対して回復され得ない。従って従来型の捕捉デバイスは、シーンからの光分布についての情報の殆どを記憶しない。
明視野捕捉デバイス(「明視野データ獲得デバイス」とも呼ばれる)は、シーンの4次元(4D)明視野を、そのシーンの異なる視点からの光を捕捉することによって測定するように設計されている。従って光センサに交差する各光のビームに沿って進む光量を測定することによって、これらのデバイスは後処理によって新しいイメージングアプリケーションをもたらすために、追加の光学的情報(光線の束の方向分布についての情報)を捕捉することができる。明視野捕捉デバイスによって獲得/取得される情報は、明視野データと呼ばれる。本明細書では明視野捕捉デバイスは、明視野データを捕捉する能力がある任意のデバイスとして定義される。いくつかのタイプの明視野捕捉デバイスがあり、中でも以下がある:
− 文献US 2013/0222633で述べられているような、画像センサと主レンズの間に配置されたマイクロレンズアレイを用いるプレノプティックデバイス、
− カメラアレイ。
− 文献US 2013/0222633で述べられているような、画像センサと主レンズの間に配置されたマイクロレンズアレイを用いるプレノプティックデバイス、
− カメラアレイ。
明視野データはまた、従来型のハンドヘルドカメラの使用によって別の視点からそれぞれ撮られた、シーンの一連の2−D画像から、コンピュータ生成画像(CGI)によりシミュレーションすることができる。
明視野データ処理は特に、シーンのリフォーカスされた画像を発生すること、シーンの透視図を発生すること、シーンの深度マップを発生すること、拡張被写界深度(EDOF)画像を発生すること、2眼式立体(ステレオスコピック)画像を発生すること、および/またはこれらの任意の組み合わせを含むが、それらに限定されない。
従って中でも4D明視野(4DLF)は、調整可能な被写界深度、合焦距離、および観察位置を有する様々なリフォーカスされた画像を計算することを可能にする。しかしユーザエクスペリエンスは、しばしばテレビ、またはモニタ、2Dコンピュータおよびモバイルディスプレイ上の簡単なレンダリングに限定される。
ユーザが、明視野ベースの獲得システムから計算され得る複数の方向および被写界深度の画像から、個人化されたビュー(所与の視点、ユーザに依存する深度ぼけ・・・に従って)を視覚化できるようにすることは興味深いものとなり得る。
この目的のためにいくつかの学術的な著作は、「Light fields and computational imaging」 IEEE Computer 39, no.8 (2006):46−55におけるMarc Levoy、および「Light field photography with a hand−held plenoptic camera」 Computer Science Technical Report CSTR 2, no.11 (2005)におけるNg Renらなど、再合焦、または明視野画像からの視点方向を変化させることに焦点を合わせている。
Lytro(登録商標)またRaytrix(登録商標)などのいくつかのカメラ製造業者はまた、ユーザに表示される画像の個人化のためのソリューションを提供している。
これらの技法によれば、ユーザとディスプレイの間の対話(インタラクション)は、マウスポインティングを用いて、または触覚画面に触れることによってもたらされる。例えばユーザはシーン内の対象物をポイントすることができ、ユーザに表示される画像は選択された対象物を焦点が合って示すようになる。
従来技術と比較してユーザと明視野コンテンツの間の対話を強化し得る、明視野画像を表示するための技法をもたらすことは望ましいものとなり得る。特に、明視野画像またはビデオコンテンツにおけるユーザナビゲーションを表す視点および/またはリフォーカスパラメータの発生および使用を最適化することによって、明視野コンテンツとの対話を強化し得るこのような技法をもたらすことは望ましいものとなり得る。
3.発明の概要
一実施形態では、ユーザのデバイスに少なくとも1つの明視野ベースの画像を表示するための方法がもたらされる。このような方法は、ユーザのデバイスの姿勢に応じて決定される少なくとも1つの焦点合わせパラメータに従って焦点が合わされた画像を表示するステップを含む。
一実施形態では、ユーザのデバイスに少なくとも1つの明視野ベースの画像を表示するための方法がもたらされる。このような方法は、ユーザのデバイスの姿勢に応じて決定される少なくとも1つの焦点合わせパラメータに従って焦点が合わされた画像を表示するステップを含む。
姿勢とは、ここでおよび本文書の全体にわたって、基準系に対する位置および方位の組み合わせを意味する。
従って本開示は、明視野ベースのビデオなど、明視野ベースのコンテンツにおけるユーザナビゲーションの新規で特許性のある手法に基づく。実際、それは明視野画像またはビデオデータセットをユーザのデバイスの姿勢に応じて、ユーザ当たり1つの視点/リフォーカスに変換することを可能にする。ユーザのデバイスを移動することにより、ユーザは、能動的な方法で視点/リフォーカスのパラメータを駆動する(例えば空間内の主光線の方向、フォーカス点および深度ぼけ距離など)。ユーザのデバイスとのユーザの対話は、視点および/またはリフォーカスパラメータに変換または変形される。
従って本開示のこの技法は、ユーザのデバイスを用いた上記ユーザの自然なアクションが、ユーザのデバイス上での画像の4Dから2Dへの再投影またはリフォーカスにおける視覚的変化を発生するので、ビデオ明視野データセットの視覚化における、より良好なユーザエクスペリエンスを可能にする。
このような技法は、いくつかのユーザに拡張することができ、各ユーザは所与のビデオデータセットにおいて異なる視点/リフォーカスを駆動する。それはまた例えば立体または多視点ディスプレイに対処するために、ユーザ当たりいくつかの視点に拡張することができる。実際、いくつかの視点/リフォーカスは、多視点ディスプレイ幾何学図形的配列を既知として、明視野から抽出することができる。例えば立体レンダリングに対しては、デバイスからの姿勢/方位情報は、発生されるのではなく2眼式立体ディスプレイのために必要な2つのビューによって置き換えられる、中心ビューを定義することができる。幾何学的変換が用いられ、中心ビューに基づいて2つの2眼式立体ビューを定義する。
明視野データセットは、複数の画像捕捉デバイス(カメラアレイなど)、またはプレノプティック画像捕捉デバイスによって捕捉され得ることが留意されなければならない。これはまたコンピュータ生成画像(CGI)によりシミュレーションすることができる。
本開示の実施形態によれば、上記姿勢は、上記ユーザのデバイスに埋め込まれた少なくとも1つの検知デバイスを用いることによって推定される。従って1つまたはいくつかのセンサは、上記ユーザのデバイスに対する上記ユーザの対話を捕捉し、上記ユーザのデバイスの位置および方位は、上記センサによって捕捉された情報から容易に導出することができる。
本開示の実施形態によれば、このような検知デバイスは、
− 内部モーションキャプチャシステム、
− 慣性計測装置(IMU)、
− 少なくとも1つの基準要素に向いたカメラ、
を含む群に属する。
− 内部モーションキャプチャシステム、
− 慣性計測装置(IMU)、
− 少なくとも1つの基準要素に向いたカメラ、
を含む群に属する。
慣性計測装置は、加速度計とジャイロスコープの組み合わせからなるデバイスであり、磁力計をさらに備え得る。それらは加速度、方位、および重力測度をもたらし、これらは上記デバイスの方位(回転)、および相対もしくは絶対位置(並進)の計算を可能にする。
カメラは、上記ユーザを撮影するカメラである上記ユーザのデバイス上の前面カメラ、または上記ユーザの前方のシーンを撮影するカメラである背面カメラのいずれかとすることができる。前面カメラにより上記ユーザの顔を十分接近して撮影することで、上記ユーザの顔の幾何学図形的配列についてのいくつかの仮定を行って、顔に付加された座標系に対する上記カメラ姿勢を計算することが可能である。前面カメラにより、上記センサはまた視線追跡システム内に構成され得る。背面カメラは、ARタグなどの上記シーン内の基準パターンに向けることができる。
このような検知デバイスはまた、以下などの外部モーションキャプチャシステムとすることができる:
− ARタグから姿勢および方位を推定する室内のカメラ、
− 例えば2眼式立体視または多視点から、姿勢および方位を推定する室内のカメラ、
− 再帰反射要素(受動マーカとしても知られる)から姿勢および方位を推定する、光源およびカメラ、
− ならびにより一般的に、任意の種類のモーションキャプチャ(mocap)技術。
− ARタグから姿勢および方位を推定する室内のカメラ、
− 例えば2眼式立体視または多視点から、姿勢および方位を推定する室内のカメラ、
− 再帰反射要素(受動マーカとしても知られる)から姿勢および方位を推定する、光源およびカメラ、
− ならびにより一般的に、任意の種類のモーションキャプチャ(mocap)技術。
本開示の実施形態によれば、上記ユーザのデバイスは、タブレットまたはスマートフォンなどのハンドヘルドデバイスである。
タブレットまたは電話機(フォン)画面上の明視野ビデオを見ているユーザは、容易に上記タブレット画面またはフォン画面上を動かして、画像の視点および焦点パラメータを駆動し得る。
本開示の他の実施形態によれば、上記表示される画像は、上記デバイスの少なくとも1つの姿勢パラメータに依存した交差面とのフォーカルスタックの交差として決定されるスライス画像である。
実際、明視野画像またはビデオのデータセットは、その焦点面の近傍にレンズによって発生される明視野と同様に、前面レンズの焦点面の近傍に光データボリュームを形成するように再構成され得る。このようなフォーカルスタックは、図1に概略的に示される。カメラによる従来型の焦点合わせは、フォーカルスタック100内の画像101、102、103の1つ選択することによってシミュレーションされ、これはカメラの主光軸に垂直に合焦平面を移動することに対応する。これに対して明視野カメラは、異なる視点および異なる焦点からピクチャを探索する能力をもたらす。従って明視野カメラのユーザは、通常と異なる方法で焦点を制御することができ、例えば図1に示されるようにフォーカルスタックにわたって交差面を定義することによって、フォーカルスタック100内でスライス画像110を抽出することができる。本開示の実施形態は、この原理をユーザが彼/彼女のデバイスの画面上において明視野画像またはビデオを視覚化することに拡張し、追跡されたユーザのデバイス姿勢パラメータによって、上記フォーカルスタックの画像データボリュームにおける交差面を駆動(ドライブ:drive)することを可能にする。空間における上記ユーザのデバイス位置は、上記ユーザのデバイス画面に表示される結果としての画像の焦点距離を制御する。
本開示の他の実施形態によれば、上記フォーカルスタックはシーンの焦点の合った画像のセットを備え、2つの連続した焦点の合った画像は上記フォーカルスタック内でサンプリング間隔だけ互いに離間される。方法は、
− 上記シーンのレイアウトに応じて、上記サンプリング間隔を調整するステップと、
− 上記フォーカルスタックを、調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像の上記セットとして決定するステップと、
をさらに含む。
− 上記シーンのレイアウトに応じて、上記サンプリング間隔を調整するステップと、
− 上記フォーカルスタックを、調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像の上記セットとして決定するステップと、
をさらに含む。
従って、上記シーンの上記異なる焦点の合った画像は、従来技術での場合のように、上記フォーカルスタック内において規則的に間があけられていない。このような規則的に間があけられる代わりに、上記フォーカルスタック内の画像サンプルの焦点は、上記シーンのレイアウトによって変化される。言い換えれば、上記フォーカルスタックの上記画像の焦点が合わされる平面は、一様に間があけられない。例えばこれらの平面は、関心のある対象物が上記シーンに現れるときはより近接する。この方法は上記フォーカルスタック内の同じ数のスライスで上記シーンを、より良好にカバーすることを可能にし、これは余分の記憶装置は必要ないことを意味する。
本開示の実施形態はまた、少なくとも1つの明視野ベースの画像を表示するための装置であって、
− 上記装置の姿勢に応じて、上記画像に対する少なくとも1つの焦点合わせパラメータを決定するためのモジュールと、
− 上記少なくとも1つの焦点合わせパラメータに応じて焦点が合わされた上記画像を表示するための表示ユニットと、
を備える、装置に関する。
− 上記装置の姿勢に応じて、上記画像に対する少なくとも1つの焦点合わせパラメータを決定するためのモジュールと、
− 上記少なくとも1つの焦点合わせパラメータに応じて焦点が合わされた上記画像を表示するための表示ユニットと、
を備える、装置に関する。
本開示の実施形態によれば、このような装置は、上記姿勢を推定することを可能にする少なくとも1つの検知デバイスを埋め込む。このような検知デバイスは、いくつかのセンサを備えることができる。
本開示の実施形態によれば、上記検知デバイスは、
− 慣性計測装置(IMU)、
− 少なくとも1つの基準要素に向いたカメラ、
− 内部モーションキャプチャシステム、
を含む群に属する。
− 慣性計測装置(IMU)、
− 少なくとも1つの基準要素に向いたカメラ、
− 内部モーションキャプチャシステム、
を含む群に属する。
本開示の他の実施形態によれば、上記装置はハンドヘルドデバイスである。
本開示の他の実施形態によれば、上記装置は、上記デバイスの少なくとも1つの姿勢パラメータに依存した交差面とのフォーカルスタックの交差として定義されるスライス画像として、上記表示される画像を決定するためのユニットを備える。
本開示の他の実施形態によれば、上記フォーカルスタックはシーンの焦点の合った画像のセットを備え、2つの連続した焦点の合った画像は上記フォーカルスタック内でサンプリング間隔だけ互いに離間され、上記装置は、
− 上記シーンのレイアウトに応じて、上記サンプリング間隔を調整するための調整モジュールと、
− 上記フォーカルスタックを、調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像のセットとして決定するためのモジュールと、
をさらに備える。
− 上記シーンのレイアウトに応じて、上記サンプリング間隔を調整するための調整モジュールと、
− 上記フォーカルスタックを、調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像のセットとして決定するためのモジュールと、
をさらに備える。
ユーザのデバイスに明視野ベースの画像を表示するための方法の実施形態に関連して上述された上記ユーザのデバイスの記述のすべての特徴は、このようなユーザのデバイスまたは装置にも当てはまる。
本開示はまた、通信ネットワークからダウンロード可能であり、および/またはコンピュータによって読み出し可能な媒体に記録され、および/またはプロセッサによって実行可能であるコンピュータプログラム製品であって、上述のようなユーザのデバイスに明視野ベースの画像を表示するための方法を実施するためのプログラムコード命令を備えた、コンピュータプログラム製品に関する。
本開示はまた、非一時的コンピュータ可読媒体であって、それに記録され、プロセッサによって実行されることができるコンピュータプログラム製品を含み、上述のようなユーザのデバイスに明視野ベースの画像を表示するための方法を実施するためのプログラムコード命令を含む、非一時的コンピュータ可読媒体に関する。
このようなコンピュータプログラムは、コンピュータ可読記憶媒体に記憶される。本明細書で用いられるコンピュータ可読記憶媒体とは、その中に情報を記憶する固有の能力、ならびにそれからの情報取り出しをもたらす固有の能力を前提とした、非一時的記憶媒体と見なされる。コンピュータ可読記憶媒体は、例えば電子的、磁気的、光学的、電磁的、赤外線、または半導体システム、装置、またはデバイス、または上述の任意の適切な組み合わせとすることができるが、それらに限定されない。以下は、本原理が適用され得るコンピュータ可読記憶媒体のより具体的な例を示すが、当業者には容易に理解されるように単に例示的および非網羅的な列挙であることが理解されるべきである:すなわち可搬コンピュータディスケット、ハードディスク、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたフラッシュメモリ)、可搬コンパクトディスクリードオンリメモリ(CD−ROM)、光記憶装置、磁気記憶装置、または上記の任意の適切な組み合わせである。
上記の全体的な説明および以下の詳細な説明は共に、例示および説明目的であって本発明を限定するものではなく、特許請求される通りであることが理解されるべきである。
また本明細書において「一実施形態」、「実施形態」(an embodiment)への言及は、述べられる実施形態は特定の機能、構造、または特徴を含み得るが、その特定の機能、構造、または特徴を必ずしもあらゆる実施形態が含む必要はないことが理解されなければならない。さらにこのような語句は、必ずしも同じ実施形態を指さない。さらに特定の機能、構造、または特徴が、実施形態に関連して述べられるときは、明示的に述べられているかどうかに関わらず、他の実施形態に関連してこのような機能、構造、または特徴に影響を及ぼすことは当業者の知識の範囲内であることが提起される。
4.図面の簡単な説明
本発明の実施形態は、例として示され保護の範囲を限定するものではない、以下の説明および図面を参照して、よりよく理解され得る。
本発明の実施形態は、例として示され保護の範囲を限定するものではない、以下の説明および図面を参照して、よりよく理解され得る。
図内の構成要素は必ずしも原寸に比例して描かれておらず、代わりに本発明の原理を示すことに重点が置かれる。
画像のフォーカルスタック内のスライス画像の例を示す図である。
プレノプティックカメラおよびマルチアレイカメラの例を示す図である。
画像センサの検知面に配置されたセンサ領域の例を概略的に示す平面図である。
理想的な完全薄肉レンズモデルを備えた概略の明視野カメラを示す図である。
本開示の実施形態による、ハンドヘルドデバイス上の明視野レンダリングを概略的に示す図である。
パターン座標系における図5のハンドヘルドデバイスの姿勢の決定を可能にする変換行列を示す図である。
本開示の実施形態による、ユーザのデバイスに明視野ベースの画像を表示するためのプロセスを説明するためのフローチャートである。
本開示の実施形態による、ユーザの個人化された視点に従って明視野ベースの画像を表示するための装置の例を示す概略ブロック図である。
本開示の実施形態による、関心のある対象物を有するシーン、およびこのようなシーンに画像のフォーカルスタックが適応され得る方法を概略的に示す図である。
図9のシーンに適応された、画像のフォーカルスタックの例を示す図である。
5. 詳細な説明
本開示の一般的原理は、デバイスの位置および方位に応じた、ユーザのデバイス上の明視野ベースの画像の個人化されたレンダリングに基づく。
本開示の一般的原理は、デバイスの位置および方位に応じた、ユーザのデバイス上の明視野ベースの画像の個人化されたレンダリングに基づく。
次に、本開示の実施形態における、ユーザのデバイスに明視野ベースの画像を表示するための方法、装置、およびコンピュータ可読記憶媒体について述べる。
初めに、明視野カメラおよび画像に当てはまるいくつかの一般的原理を想起する。
5.1 明視野カメラ
図2は、プレノプティックカメラおよびマルチアレイカメラの例を示す図である。明視野カメラは、4D明視野データを記録する能力を有する。例えば4D明視野カメラは、主レンズ205、マイクロレンズアレイ210、および画像センサ215を備えたプレノプティックカメラ200(図2A)、またはレンズアレイ255、および単一の画像センサ260を備えたマルチアレイカメラ250(図2B)とすることができる。例えばマルチカメラアレイは、文献WO 2014149403 A1に示されているもののようなPelicanアレイカメラとすることができる。
図2は、プレノプティックカメラおよびマルチアレイカメラの例を示す図である。明視野カメラは、4D明視野データを記録する能力を有する。例えば4D明視野カメラは、主レンズ205、マイクロレンズアレイ210、および画像センサ215を備えたプレノプティックカメラ200(図2A)、またはレンズアレイ255、および単一の画像センサ260を備えたマルチアレイカメラ250(図2B)とすることができる。例えばマルチカメラアレイは、文献WO 2014149403 A1に示されているもののようなPelicanアレイカメラとすることができる。
図2Aに示されるプレノプティックカメラ200の例では、主レンズ205は主レンズ205の対象物視野内の対象物(図示せず)からの光を受け、光を主レンズ205の画像視野を通過させる。マイクロレンズアレイ210は、2次元アレイに配置された複数のマイクロレンズ215を含む。明らかに、主レンズ205およびマイクロレンズ215は、例えば文献GB2488905の図12および13、または文献EP2244484(A1)に示されているもののように、より複雑な光学系とすることができる。
図3は、画像センサの検知面に配置されたセンサ領域の例を概略的に示す平面図である。図3に示されるように画像センサ300は、2次元アレイに配置された複数の画素305を含み、マイクロレンズアレイ310を通して対象物からの光を受ける。マイクロレンズアレイ310のマイクロレンズ311のそれぞれは、画像センサ300上の円形領域315に光を導くようなレンズ特性を有する。円形領域315の外形は、画像センサ300上のマイクロレンズによって形成され捕捉されるマイクロ画像の形状を表すことができ、その形状はマイクロレンズ311の形状に依存する。画像センサ300上のすべての画素305の中でも、円形領域315の実質的に内側に位置する画素305のみが、イメージングに寄与する。言い換えればイメージングに寄与する画素305の画素領域(または検知領域)は、円形領域315の実質的に内側に位置する。
明視野カメラの画像センサ300は、2D画像内に配置された2Dマイクロ画像の集合を備えた画像を記録する。マイクロレンズアレイ310の各マイクロレンズ311は、円形領域315によって表されるマイクロ画像を形成する。図3に示されるように、センサ300上の画素305の座標は、画像センサ300の表面上のx−y座標系における(x,y)によって示される。図3に示される距離pは、2つの連続したマイクロ画像の間の距離である。マイクロレンズ311は、距離pが画素305のサイズより大きくなるように選定される。図3に示される距離wは、2つの連続したマイクロ画像の間の視差距離である。図3に示されるようにマイクロ画像は、画像センサ300の表面上のi−j座標系におけるそれらのそれぞれの座標(i,j)によって参照される。
上述のように、円形領域315の実質的に内側に位置する画素305のみが、マイクロレンズ311を通して光を受ける。マイクロレンズ間の空間は、マイクロレンズ311の外側を光子が通過するのを防ぐためにマスクすることができる(マイクロレンズ311が正方形であり、マイクロレンズ間の空間が形成されない場合は、このようなマスキングは必要ない)。
マイクロ画像(i,j)の中心は、画像センサ300上で座標(xi,j,yi,j)に位置する。図3のθは、画素305の正方格子と、マイクロレンズ311の正方格子の間の角度を表す。座標(xi,j,yi,j)は、マイクロレンズ画像(0,0)の画素座標である(x0,0,y0,0)を考慮して、以下の式(1)によって導き出すことができる:
距離pおよびwは、画素の単位で与えられる。それらはそれぞれ画素サイズδを乗算することによって距離の物理単位(メートル)PおよびWに変換される:W=δwおよびP=δp。これらの距離は、明視野カメラの特性に依存する。
5.2明視野カメラの光学特性
従って、理想的な完全薄肉レンズモデルを備えた概略の明視野カメラを示す図4を参照して明視野カメラの例示的光学特性が論じられる。
従って、理想的な完全薄肉レンズモデルを備えた概略の明視野カメラを示す図4を参照して明視野カメラの例示的光学特性が論じられる。
主レンズは、焦点距離Fおよび口径Φを有する。マイクロレンズアレイは、焦点距離fを有するマイクロレンズを備える。マイクロレンズアレイのピッチはφである。マイクロレンズアレイは、主レンズから距離D、およびセンサから距離dに位置する。対象物(図示せず)は、主レンズから距離zに位置する。この対象物は主レンズによって、主レンズから距離z’に焦点が合わされる。図4は、D>z’の場合を示す。この場合、マイクロ画像は、dおよびfに依存してセンサ上に焦点が合ったものとなることができる。
視差Wは、対象物(図示せず)と主レンズの間の距離zと共に変化する。Wとzの関係を確立するためには、これは薄肉レンズ式(2)、およびタレスの定理式(3)に基づくことができる:
次いで、式(2)および(3)を結合することによって、以下の式(4)が導き出される:
Wとzの関係は、マイクロレンズ画像の焦点が合っていることを前提としていない。マイクロ画像は、薄肉レンズ式に従って厳密に焦点が合ったものとなる:
5.3 画像リフォーカス
明視野カメラの主要な特性は、画像の撮影の後に再合焦距離が自由に調整可能な、2Dのリフォーカスされた画像を計算することが可能なことである。サイズ[Nx,Ny]の4D明視野画像Lは、単にマイクロレンズ画像をシフトおよびズームし、次いでそれらを2D画像に合計することによって、2D画像に投影される。マイクロレンズ画像のシフトの大きさは、再合焦距離を制御する。4D明視野画素L(x,y,i,j)の、リフォーカスされた2D画像座標(X,Y)への投影は、
明視野カメラの主要な特性は、画像の撮影の後に再合焦距離が自由に調整可能な、2Dのリフォーカスされた画像を計算することが可能なことである。サイズ[Nx,Ny]の4D明視野画像Lは、単にマイクロレンズ画像をシフトおよびズームし、次いでそれらを2D画像に合計することによって、2D画像に投影される。マイクロレンズ画像のシフトの大きさは、再合焦距離を制御する。4D明視野画素L(x,y,i,j)の、リフォーカスされた2D画像座標(X,Y)への投影は、
によって定義され、ただしsは2Dのリフォーカスされた画像のサイズを制御し、gはリフォーカスされた画像の合焦距離を制御する。この式(6)は、式(1)を考慮することによって、式(7)として書き直される:
パラメータgは、式(8)においてpおよびwの関数として表現され得る。パラメータgは、同じ対象物の様々なズームされたビューが重畳されるように、それらの中心を基準として用いて、マイクロレンズ画像に対して行われなければならないズームを表す。
式(7)は以下となる:
4D明視野画素(x,y,i,j)は、2Dのリフォーカスされた画像に投影される。予備的に、リフォーカスされた画像R、およびリフォーカスされた画像重みRweightはゼロに設定される。リフォーカスされた画像のサイズ[NX,NY]=[sNx,sNy]は、4D明視野画像のサイズのs倍に設定される。投影は、座標(X,Y)に投影された画素を、リフォーカスされた画像に合計することによって行われる。各投影された4D明視野画素に対して、リフォーカスされた画像重みは、画素座標(X,Y)において1を加えることによって更新される:
R(X,Y)+=L(x,y,i,j) (10)
W(X,Y)+=1
リフォーカスされた画像重みは、座標(X,Y)当たり投影された4D明視野画素の数を表す。Lのすべての4D明視野画素を投影した後に、リフォーカスされた画像Rは、リフォーカスされた画像重みRweightによって除算される。この最後のステップは、座標(X,Y)当たり受け取られた画素の数を正規化する。
R(X,Y)+=L(x,y,i,j) (10)
W(X,Y)+=1
リフォーカスされた画像重みは、座標(X,Y)当たり投影された4D明視野画素の数を表す。Lのすべての4D明視野画素を投影した後に、リフォーカスされた画像Rは、リフォーカスされた画像重みRweightによって除算される。この最後のステップは、座標(X,Y)当たり受け取られた画素の数を正規化する。
投影された座標(X,Y)は、必ずしも整数座標ではないので、任意選択で非整数画素座標(X,Y)をリフォーカスされた画像Rのグリッド、およびリフォーカスされた画像重みRweightにマップするために、補間技法を用いることができる。補間技法は一般に用いられ、当業者にはよく知られており、本明細書ではそれについてさらに述べられない。
5.4 フォーカルスタック
図1に示されるようにフォーカルスタック100は、異なる距離にリフォーカスされたN個の画像の集合Rn(n∈[1,N])であり、これは画像(101,102,103・・・)の立方体を定義し、Nはユーザが選択した画像の数である。従ってフォーカルスタック100内の2つの連続した画像の間の距離または距離間隔(z軸上の)は、これら2つの連続した画像に結び付けられた2つの焦点面の間の距離に対応する。N個のリフォーカスされた画像は、式(4)および(8)によって定義されるzminとzmaxの間の合焦距離の範囲に対応するgminとgmaxの間で線形的に変化するgに対して計算される。他のオプションはフォーカルスタックを、式(4)によって定義されるzminとzmaxの間の合焦距離の範囲に対応するwminからwmaxまで線形的に変化するwにより計算することである。gおよびwの最小最大限界は、zminとzmax内の合焦距離によりリフォーカスされた画像を包含するようにユーザによって定義される。
図1に示されるようにフォーカルスタック100は、異なる距離にリフォーカスされたN個の画像の集合Rn(n∈[1,N])であり、これは画像(101,102,103・・・)の立方体を定義し、Nはユーザが選択した画像の数である。従ってフォーカルスタック100内の2つの連続した画像の間の距離または距離間隔(z軸上の)は、これら2つの連続した画像に結び付けられた2つの焦点面の間の距離に対応する。N個のリフォーカスされた画像は、式(4)および(8)によって定義されるzminとzmaxの間の合焦距離の範囲に対応するgminとgmaxの間で線形的に変化するgに対して計算される。他のオプションはフォーカルスタックを、式(4)によって定義されるzminとzmaxの間の合焦距離の範囲に対応するwminからwmaxまで線形的に変化するwにより計算することである。gおよびwの最小最大限界は、zminとzmax内の合焦距離によりリフォーカスされた画像を包含するようにユーザによって定義される。
この実施形態において述べられたフォーカルスタックの計算は、4D明視野が、レンズアレイおよび任意選択で主レンズを有する、単一の画像センサによって記録されることを前提とする。しかしフォーカルスタックの計算は、このようなタイプの明視野カメラによって記録された4D明視野に限定されず、従って任意のタイプの明視野カメラによって記録された4D明視野に基づいて、リフォーカスされた画像のフォーカルスタックを計算することが可能であることが留意されるべきである。
5.5 ユーザの個人化された視点に従って画像をリフォーカスする
本開示の実施形態によれば、ユーザのデバイスに表示された明視野画像を、デバイスの姿勢に適応させるための手法がユーザにもたらされる。
本開示の実施形態によれば、ユーザのデバイスに表示された明視野画像を、デバイスの姿勢に適応させるための手法がユーザにもたらされる。
図5は、画像またはムービーに対応し得る4D明視野データを捕捉した、プレノプティックカメラ50を示す。最新技術では、4D明視野データを表す(または定義する)ためのいくつかの方法がある。実際に、2006年7月に発表されたRen Ngによる「Digital Light Field Photography」という名称の博士論文の3.3章では、4D明視野データを表すための3つの異なる方法が述べられている。第1に4D明視野データは、例えば図2(a)に示されるもののようなプレノプティックカメラによって記録されたときに、マイクロレンズ画像の集合によって表すことができる。この表現での4D明視野データは、生の画像(または生の4D明視野データ)と名付けられる。第2に4D明視野データは、プレノプティックカメラによってまたはカメラアレイによって記録されたときに、サブアパーチャ画像のセットによって表すことができる。サブアパーチャ画像は、ある視点からのシーンの捕捉された画像に対応し、視点は2つのサブアパーチャ画像の間でわずかに異なる。これらのサブアパーチャ画像は、イメージングされたシーンの視差および深度についての情報を与える。第3に4D明視野データは、エピポーラ画像のセットによって表すことができる(例えばISVC2011の会議議事録において発表されたS.Wannerらによる「Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera」という名称の論文を参照されたい)。他の実施形態では当業者は、2平面パラメータ表現に基づく4D明視野データを用いることができる。
図5の実施形態では、単に例としてプレノプティック捕捉51は、ビューの行列、またはサブアパーチャ画像として表示され得る。
ユーザは、この4D明視野ムービーをタブレット52などのハンドヘルドデバイス上で見る。このようなレンダリングは、リアルタイムレンダリングとすることができる。図5では1つだけが示されるが、明視野ムービーはいくつかのユーザにブロードキャストされ得る。タブレット52は、任意の種類の有線または無線接続を通して明視野ムービーを受信する。ユーザはタブレット52を動かし、従ってその位置およびその方位の両方を変化させることができる。タブレットの画面上では、タブレットの姿勢と共に、画像の合焦距離および視点の両方が変化する。
タブレット52は背面カメラ(図示せず)を装備し、これはユーザの前方のシーン、および特に図6によって示されるようにシーン内に挿入された特定のマーカ60(例えばARタグ(拡張現実タグ))を撮影する。マーカ60は、パターン座標系に関連付けられる。パターン座標系からタブレット52の位置を記述する変換が見出されたときは、回転および並進がもたらされるので、空間におけるタブレット52の位置を示すことが可能になる。
この目的のために、タブレット平面の式が表現されなければならない。
5.5.1 タブレット平面式
パターン座標系に対するデバイス座標系を定義するために、デバイス座標系のユニタリベクトル、およびマーカ座標系からのデバイスの並進を書き表すことができる。
パターン座標系に対するデバイス座標系を定義するために、デバイス座標系のユニタリベクトル、およびマーカ座標系からのデバイスの並進を書き表すことができる。
次いでマーカCSから見たタブレット座標系(CS)を記述する同次変換行列は、以下のように書き表される。
次いでタブレットの平面は
(平面への法線ベクトル)、および
(平面の1つの点の位置)点によって定義される。平面の点P(Xp,Yp,Zp)のセットは以下の式によってもたらされる:
これは以下の形式により書き表され得る。
別法として座標は、画素(Xp,Yp,Zp)において評価され得る。
画素座標(u,v)を有する画像を発生するために、変換
画素座標(u,v)を有する画像を発生するために、変換
および
を定義しなければならない。
一実施形態では、変換は
一実施形態では、変換は
により定義され得る。
これは(X,Y)空間を範囲[−1/2;+1/2]内に正規化することに対応する。
次いでZp、すなわちマーカ座標系における画素の位置を決定することは容易である:
これは(X,Y)空間を範囲[−1/2;+1/2]内に正規化することに対応する。
次いでZp、すなわちマーカ座標系における画素の位置を決定することは容易である:
この式は投影と等価であることに留意されたい。
5.5.2 フォーカルスタックからスライス画像を抽出する
本開示の実施形態によれば、タブレット52に表示される画像は、追跡されるタブレット姿勢パラメータによって制御される交差面との、フォーカルスタック100の交差として決定されるスライス画像である。言い換えればフォーカルスタック100内のスライス110の位置は、マーカ60に対するタブレット52の位置によって与えられる。タブレットをあちこちに向けて動かすことは、フォーカルスタック内でスライスを移動させる。スライス画像110は、タブレット52の画面に表示される。ユーザはタブレット52をあちこちに向けて動かすことによって、合焦平面を自由に選択することができ、これは必ずしもカメラ50の主軸に垂直ではない。
本開示の実施形態によれば、タブレット52に表示される画像は、追跡されるタブレット姿勢パラメータによって制御される交差面との、フォーカルスタック100の交差として決定されるスライス画像である。言い換えればフォーカルスタック100内のスライス110の位置は、マーカ60に対するタブレット52の位置によって与えられる。タブレットをあちこちに向けて動かすことは、フォーカルスタック内でスライスを移動させる。スライス画像110は、タブレット52の画面に表示される。ユーザはタブレット52をあちこちに向けて動かすことによって、合焦平面を自由に選択することができ、これは必ずしもカメラ50の主軸に垂直ではない。
図7は、本開示の実施形態による、タブレット52に明視野ベースの画像を表示するためのプロセスを示すフローチャートを示す。
ステップS701 INITでは、タブレットの初期位置
が定義され、マーカ60に関して、基準として用いられる。この初期位置は、フォーカルスタックの焦点の合った画像番号N/2、すなわち画像のスタックの中間の画像に対応する画像に関連付けられる。
ステップS702では、センサ705によって捕捉された情報は、タブレット52の姿勢、すなわちその方位およびその位置を推定することを可能にする。マーカに対するタブレット52の位置は、3D座標
によって特性化される。タブレット52を初期タブレット位置
のまわりで動かすことは、フォーカルスタックのスライスを動かすことに関連付けられる。
従ってステップS703では、現在のタブレット姿勢に関連付けられる、フォーカルスタック100のスライス画像として、タブレット52に表示されることになる画像が計算される。
[NX,NY]画素のサイズ(すなわちフォーカルスタック100内の焦点の合った画像と同じサイズ)を有するスライスインデックス画像Siは、以下のように定義される:
[NX,NY]画素のサイズ(すなわちフォーカルスタック100内の焦点の合った画像と同じサイズ)を有するスライスインデックス画像Siは、以下のように定義される:
スライス画像Sは、[NX,NY]画素のサイズを有する。これはスライスインデックス画像Si
により計算される。
におけるインデックスSiは、各画素(X,Y)に対するフォーカルスタック内部のどの焦点の合った画像が、画素(X,Y)におけるスライス画像Sにコピーされる(関数R)ことになるかを示す。パラメータαは、タブレットが
および
軸の周りにシフトされる間に、どれだけ速くスライスが傾けられるかを制御する。パラメータβは、
軸上をスライスがどれだけ移動するかを制御する。これらのパラメータは、タブレットを過大に動かすことを必要とせずに、フォーカルスタック内のいずれのスライスも抽出され得るように調整される。
における典型的な10cmの総偏位(最大およそ20cm)が、フォーカルスタック画像数Nにマッピングされるべきである。
ステップS704では、スライス画像Sがタブレット52に表示される。Sは矢印706によって示されるように、カメラによって取得された各新しい画像に対して、およびまたタブレットの各新しい位置に対して実現される。
同じ導出が、画素座標(Xp,Yp,Zp)によりなされ得ることが留意されなければならない。
図8は、本開示の実施形態により、装置位置および方位に応じて個人化される方法で、明視野ベースの画像を表示するための装置の例を示す概略ブロック図である。
図8に示される装置80は、プロセッサ81、記憶ユニット82、入力デバイス83、出力デバイス84、インターフェースユニット85、およびセンサ705を含み、これらはバス86によって接続される。もちろんコンピュータ装置80の構成する要素は、バス86を用いたバス接続以外の接続によって接続され得る。このような装置80は、例えば図5および6のタブレット52、またはスマートフォンなどの任意の他のタイプのハンドヘルドデバイスである。
プロセッサ81は、装置80の動作を制御する。記憶ユニット82は、プロセッサ81によって実行されることなる少なくとも1つのプログラム、ならびに、明視野カメラによって捕捉され、もたらされる4D明視野画像のデータ、プロセッサ81によって行われる計算によって用いられるパラメータ、プロセッサ81によって行われる計算の中間データ、センサ705によって捕捉された情報などを含む、様々なデータを記憶する。記憶ユニット82は特に、明視野捕捉デバイスによってもたらされる、フォーカルスタック100を記憶する。プロセッサ81は、任意の知られているおよび適切なハードウェアもしくはソフトウェア、またはハードウェアとソフトウェアの組み合わせによって形成され得る。例えばプロセッサ81は、処理回路などの専用ハードウェアによって、またはそれのメモリに記憶されたプログラムを実行するCPU(中央処理装置)などのプログラマブル処理装置によって形成され得る。
記憶ユニット82は、任意の適切な記憶装置、またはプログラム、データなどをコンピュータ可読の形で記憶する能力がある手段によって形成され得る。記憶ユニット82の例は、半導体メモリデバイス、または読み出しおよび書き込みユニットにロードされる磁気、光、または光磁気記録媒体などの、非一時的コンピュータ可読記憶媒体を含む。プログラムはプロセッサ81に、図7を参照して上述されたような本開示の実施形態による、装置の姿勢パラメータに従って合焦パラメータが設定される、明視野画像を表示するためのプロセスを行わせる。
入力デバイス83は、コマンドを入力するためのユーザによる使用のための、キーボード、マウスなどのポインティングデバイスによって形成され得る。出力デバイス84は、例えばグラフィカルユーザインターフェース(GUI)、またはユーザの視点に対して個人化された明視野ベースの画像を表示するための、表示デバイスによって形成され得る。入力デバイス83および出力デバイス84は、例えばタッチスクリーンパネルによって一体化されて形成され得る。
インターフェースユニット85は、装置80と外部装置の間のインターフェースをもたらす。インターフェースユニット85は、ケーブルまたは無線通信によって外部装置と通信可能とすることができる。この実施形態では外部装置は、明視野カメラとすることができる。この場合は、明視野カメラによって捕捉された4D明視野画像のデータを、明視野カメラから装置80にインターフェースユニット85を通して入力し、次いで記憶ユニット82に記憶し、画面84に表示することができる。
装置80および明視野カメラは、ケーブルまたは無線通信によって互いに通信することができる。
図8にはただ1つのプロセッサ81が示されるが、このようなプロセッサは以下などの、本開示の実施形態により装置80によって実行される機能を具体化した種々のモジュールおよびユニットを備え得ることが理解されなければならない:
− センサ705によってもたらされる情報に基づいて、装置の姿勢を推定するためのモジュール、
− 推定される装置の姿勢に応じて、表示されることになる画像に対する焦点合わせパラメータを決定するためのモジュール、
− 焦点合わせパラメータおよび/または装置の姿勢パラメータに応じて、フォーカルスタックのスライス画像として表示されることになる画像を計算するためのユニット。
− センサ705によってもたらされる情報に基づいて、装置の姿勢を推定するためのモジュール、
− 推定される装置の姿勢に応じて、表示されることになる画像に対する焦点合わせパラメータを決定するためのモジュール、
− 焦点合わせパラメータおよび/または装置の姿勢パラメータに応じて、フォーカルスタックのスライス画像として表示されることになる画像を計算するためのユニット。
これらのモジュールおよびユニットはまた、互いに通信し協働するいくつかのプロセッサ81において具体化することができる。
5.6 フォーカルスタックをシーンのレイアウトに適応させる
図9は、カメラ400によって捕捉されたシーンの例を示す。このようなシーンは、2つの関心のある対象物401および402を備える。関心のある対象物401はカメラ400から距離d1に位置し、もう一方の関心のある対象物402はカメラ400から距離d2に位置する。
図9は、カメラ400によって捕捉されたシーンの例を示す。このようなシーンは、2つの関心のある対象物401および402を備える。関心のある対象物401はカメラ400から距離d1に位置し、もう一方の関心のある対象物402はカメラ400から距離d2に位置する。
シーン内で関心のある対象物401または402が検出されたときは、その位置(距離d1またはd2)は知られており、従ってフォーカス値を計算することができる。次いでまた、この位置に対する近いフォーカス値を計算することが可能である。これは図9に示され、ここで距離d1およびd2において、より多くの画像がフォーカルスタックに対して計算される。従ってフォーカルスタック500は、最も近い焦点距離に対応する焦点の合った画像、最も遠い焦点距離に対応する焦点の合った画像、および中間に以下の焦点の合った画像の2つのセットを備える:
− 関心のある対象物401に関連する焦点の合った画像の第1のグループ501、
− 関心のある対象物402に関連する焦点の合った画像の第2のグループ502。
− 関心のある対象物401に関連する焦点の合った画像の第1のグループ501、
− 関心のある対象物402に関連する焦点の合った画像の第2のグループ502。
関心のある対象物と、他の平面(例えば背景または前景)との間に位置する画像の計算は、深度によって線形的に進められる。
変形形態では、フォーカルスタック内の2つの連続した画像の間の距離(ステップとも呼ばれる)は、デフォルトで小さいものとして定義される(2つの連続した画像は、シーン空間内でおよそ20cm互いに間があけられた焦点面に関連付けられる)。次いでユーザは、彼/彼女には関心のないゾーンを選択するように決定することができ(例えば、背景に位置付けられた対象物)、背景内の対象物は重要ではないことを考慮してフォーカルスタックが決定される(従ってこれらの画像の間の距離は、決定されたフォーカルスタック内のデフォルト値と比べて増加される)。
図10は、シーンに適応された不規則なサンプリンググリッドにより構築された、フォーカルスタック500を示す。
関心のある対象物401または402に関連するセット501または502における焦点の合った画像の数は、関心のある対象物の深度に依存し、深度は関心のある対象物の前部から後部までの距離に対応する(対象物の前部はカメラに最も近い対象物の部分に対応し、対象物の後部はカメラから最も遠い対象物の部分に対応する)。関心のある対象物が深いほど、フォーカルスタック内の対応する焦点の合った画像のセット内の画像は多くなり、AIF画像における関心のある対象物のより精細なレンダリング、またはシーンのより良好なリフォーカス能力を可能にする。
実際、図9および10に実施形態により、より多くの「焦点が合った領域」が関心のある対象物に付加される。AIF画像は、すべての対象物の焦点が合って見える焦点の合った画像に対応し、焦点融合によって構成される。従って関心のある対象物に対して、AIF画像において、DoF(被写界深度)の品質は向上することになる。
さらに、関心のある対象物に関連するフォーカルスタックのスライスの数は大きく、これは特にユーザが、表示された画像を特有の合焦距離および/または視点に調整するようにタブレット52をあちこちに向けて動かすことによって、この特有の関心のある対象物にシーンをリフォーカスすることを望むときに、彼/彼女により多くの情報をもたらすことになる。
本開示の実施形態によれば、関心のある対象物401および402は以下とすることができる:
− 顕著な対象物(例えばNianyi Li、Jinwei Ye、Yu Ji、Haibin Ling、およびJingyi Yuによる「Saliency Detection on Light Field」に述べられているような)、
− シーン内で検出された顔、または人体の一部もしくは全体、
− 前景対象物(例えば、N.Sabater、V.Drazic、M.Seifi、G.Sandri、およびP.PerezによるICCP2014における「Accurate Disparity Estimation for Plenoptic Images」に述べられているような視差推定によって識別される)、
− ユーザによって選択された対象物(例えば特定のフレーム上でユーザによって手動で選択され、ビデオシーケンスに沿って追跡される対象物)。
− 顕著な対象物(例えばNianyi Li、Jinwei Ye、Yu Ji、Haibin Ling、およびJingyi Yuによる「Saliency Detection on Light Field」に述べられているような)、
− シーン内で検出された顔、または人体の一部もしくは全体、
− 前景対象物(例えば、N.Sabater、V.Drazic、M.Seifi、G.Sandri、およびP.PerezによるICCP2014における「Accurate Disparity Estimation for Plenoptic Images」に述べられているような視差推定によって識別される)、
− ユーザによって選択された対象物(例えば特定のフレーム上でユーザによって手動で選択され、ビデオシーケンスに沿って追跡される対象物)。
同じシーン内で、1つまたはいくつかの関心のある対象物が検出され得る。フォーカルスタックに対するサンプリンググリッドは、シーン内で検出されたのと同数の関心のある対象物に適応することになる。
もちろん図9および10の実施形態では、図8の装置80によって使用される、または図7のプロセスにおけるステップS703で使用されるフォーカルスタックは、図1の通常のフォーカルスタック100ではなく、図10の適応されたフォーカルスタック500である。
この特有の実施形態では、装置80のプロセッサ81は、シーンのレイアウトに応じた適応型フォーカルスタックの計算の機能を具体化するためのユニットおよびモジュールのセット、ならびに特に下記をさらに備えることができる。
− シーンのレイアウトに従ってサンプリング間隔を減少また増加させるための調整モジュール、
− 調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像のセットとしてフォーカルスタックを決定するためのモジュール、
− シーン内の関心のある対象物を識別するためのモジュール、
− 関心のある対象物の深度を評価するためのモジュール、
− 各関心のある対象物に関連付けられることになる焦点の合った画像の数を決定するためのモジュール、
− 明視野データセットから、または明視野データセットから発生されたビューの行列から、視差を推定するための視差推定モジュール、
− 推定された視差からシーン内の関心のある対象物の位置を計算するための計算ユニット。
− 調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像のセットとしてフォーカルスタックを決定するためのモジュール、
− シーン内の関心のある対象物を識別するためのモジュール、
− 関心のある対象物の深度を評価するためのモジュール、
− 各関心のある対象物に関連付けられることになる焦点の合った画像の数を決定するためのモジュール、
− 明視野データセットから、または明視野データセットから発生されたビューの行列から、視差を推定するための視差推定モジュール、
− 推定された視差からシーン内の関心のある対象物の位置を計算するための計算ユニット。
当業者には理解されるように、本原理の態様は、システム、方法、またはコンピュータ可読媒体として具体化され得る。従って本原理の態様は、専らハードウェアの実施形態、専らソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または本明細書においてすべて一般に「回路」、「モジュール」、もしくは「システム」と呼ばれ得るソフトウェアおよびハードウェア態様を組み合わせた実施形態の形をとることができる。
本原理が1つまたはいくつかのハードウェア構成要素によって実施されるときは、ハードウェア構成要素は、中央処理装置などの集積回路であるプロセッサ、および/またはマイクロプロセッサ、および/または特定用途向け集積回路(ASIC)、および/または特定用途向け命令セットプロセッサ(ASIP)、および/またはグラフィックス処理装置(GPU)、および/または物理演算処理装置(PPU)、および/またはディジタル信号プロセッサ(DSP)、および/または画像プロセッサ、および/またはコプロセッサ、および/または浮動小数点ユニット、および/またはネットワークプロセッサ、および/またはオーディオプロセッサ、および/またはマルチコアプロセッサを備えることが留意され得る。さらにハードウェア構成要素は、ベースバンドプロセッサ(例えばメモリユニットおよびファームウェアを備える)、および/または無線信号を受信もしくは送信する無線電子回路(これはアンテナを備え得る)をさらに備えることができる。一実施形態ではハードウェア構成要素は、ISO/IEC18092/ECMA−340、ISO/IEC21481/ECMA−352、GSMA、StoLPaN、ETSI/SCP(スマートカードプラットフォーム)、GlobalPlatform(すなわちセキュアエレメント)などの1または複数の標準に準拠する。変形形態ではハードウェア構成要素は、無線周波数識別(RFID)タグである。一実施形態ではハードウェア構成要素は、ブルートゥース通信、および/またはWi−fi通信、および/またはZigBee通信、および/またはUSB通信および/またはFirewire通信および/またはNFC(ニアフィールドの略)通信を可能にする回路を備える。
さらに本原理の態様は、コンピュータ可読記憶媒体の形をとることができる。1または複数のコンピュータ可読記憶媒体の任意の組み合わせが利用され得る。
従って例えば、当業者には、本明細書において示されたブロック図は、本発明の原理を具体化する例示的システム構成要素および/または回路の概念的な図を表すことが理解されるであろう。同様にいずれのフローチャート、フロー図、状態遷移図、擬似コードなどは、コンピュータ可読記憶媒体内に実質的に表され得る様々なプロセスを表し、それに従ってコンピュータまたはプロセッサにより、そのようなコンピュータまたはプロセッサが明示的に示されているかどうかに関わらず、実行されることが理解されるであろう。
本開示は1または複数の例を参照して述べられたが、当業者は、本開示および/または添付の特許請求の範囲から逸脱せずに、形および詳細において変更がなされ得ることを認識するであろう。
Claims (14)
- ユーザのデバイス(52)に少なくとも1つの明視野ベースの画像を表示するための方法であって、前記デバイス(52)の姿勢に応じて決定される少なくとも1つの焦点合わせパラメータに従って焦点が合わされた前記画像を表示するステップ(S704)を含む、前記方法。
- 前記姿勢は、前記ユーザのデバイス(52)に埋め込まれた少なくとも1つの検知デバイス(705)を用いることによって推定される(S702)、請求項1に記載の方法。
- 前記検知デバイス(705)は、
− 慣性計測装置(IMU)、
− 少なくとも1つの基準要素に向いたカメラ、
− 内部モーションキャプチャシステム、
を含む群に属する、請求項2に記載の方法。 - 前記ユーザのデバイス(52)はハンドヘルドデバイスである、請求項1乃至3のいずれか一項に記載の方法。
- 前記表示される画像は、前記デバイスの少なくとも1つの姿勢パラメータに依存した交差面とのフォーカルスタック(100;500)の交差として決定されるスライス画像(110)である、請求項1乃至4のいずれか一項に記載の方法。
- 前記フォーカルスタック(500)はシーンの焦点の合った画像のセットを備え、2つの連続した焦点の合った画像は前記フォーカルスタック内でサンプリング間隔だけ互いに離間され、
− 前記シーンのレイアウトに応じて、前記サンプリング間隔を調整するステップと、
− 前記フォーカルスタックを、調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像の前記セットとして決定するステップと、
をさらに含む、請求項5に記載の方法。 - 少なくとも1つの明視野ベースの画像を表示するための装置であって、
− 前記装置の姿勢に応じて、前記画像に対する少なくとも1つの焦点合わせパラメータを決定するためのモジュール(81)と、
− 前記少なくとも1つの焦点合わせパラメータに応じて焦点が合わされた前記画像を表示するための表示ユニット(84)と、
を備える、前記装置。 - 前記姿勢を推定することを可能にする少なくとも1つの検知デバイス(705)を埋め込んだ、請求項7に記載の装置。
- 前記検知デバイス(705)は、
− 慣性計測装置(IMU)、
− 少なくとも1つの基準要素に向いたカメラ、
− 内部モーションキャプチャシステム、
を含む群に属する、請求項8に記載の装置。 - ハンドヘルドデバイスである、請求項7乃至9のいずれか一項に記載の装置。
- 前記デバイスの少なくとも1つの姿勢パラメータに依存した交差面とのフォーカルスタック(100)の交差として定義されるスライス画像(110)として、前記表示される画像を決定するためのユニットを備える、請求項7乃至10のいずれか一項に記載の装置。
- 前記フォーカルスタック(500)はシーンの焦点の合った画像のセットを備え、2つの連続した焦点の合った画像は前記フォーカルスタック内でサンプリング間隔だけ互いに離間され、
− 前記シーンのレイアウトに応じて、前記サンプリング間隔を調整するための調整モジュールと、
− 前記フォーカルスタックを、調整されたサンプリング間隔だけ互いに離間された、連続した焦点の合った画像の前記セットとして決定するためのモジュールと、
をさらに備える、請求項11に記載の装置。 - 通信ネットワークからダウンロード可能であり、および/またはコンピュータによって読み出し可能な媒体に記録され、および/またはプロセッサによって実行可能であるコンピュータプログラム製品であって、請求項1乃至6のいずれか一項に記載の方法を実施するためのプログラムコード命令を備えた、前記コンピュータプログラム製品。
- 非一時的コンピュータ可読媒体であって、それに記録され、プロセッサによって実行されることができるコンピュータプログラム製品を含み、請求項1乃至6のいずれか一項に記載の方法を実施するためのプログラムコード命令を含む、前記非一時的コンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15305825.0 | 2015-05-29 | ||
EP15305825.0A EP3099055A1 (en) | 2015-05-29 | 2015-05-29 | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017022694A true JP2017022694A (ja) | 2017-01-26 |
Family
ID=53433147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016104456A Pending JP2017022694A (ja) | 2015-05-29 | 2016-05-25 | ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10116867B2 (ja) |
EP (2) | EP3099055A1 (ja) |
JP (1) | JP2017022694A (ja) |
KR (1) | KR20160140452A (ja) |
CN (1) | CN106210538A (ja) |
TW (1) | TW201709718A (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10298834B2 (en) | 2006-12-01 | 2019-05-21 | Google Llc | Video refocusing |
US9858649B2 (en) | 2015-09-30 | 2018-01-02 | Lytro, Inc. | Depth-based image blurring |
US10334151B2 (en) | 2013-04-22 | 2019-06-25 | Google Llc | Phase detection autofocus using subaperture images |
CN104864849B (zh) * | 2014-02-24 | 2017-12-26 | 电信科学技术研究院 | 视觉导航方法和装置以及机器人 |
US10565734B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US10275898B1 (en) | 2015-04-15 | 2019-04-30 | Google Llc | Wedge-based light-field video capture |
US10412373B2 (en) | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
US10341632B2 (en) | 2015-04-15 | 2019-07-02 | Google Llc. | Spatial random access enabled video system with a three-dimensional viewing volume |
US10444931B2 (en) | 2017-05-09 | 2019-10-15 | Google Llc | Vantage generation and interactive playback |
US10567464B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
US10419737B2 (en) | 2015-04-15 | 2019-09-17 | Google Llc | Data structures and delivery methods for expediting virtual reality playback |
US10469873B2 (en) | 2015-04-15 | 2019-11-05 | Google Llc | Encoding and decoding virtual reality video |
US10440407B2 (en) | 2017-05-09 | 2019-10-08 | Google Llc | Adaptive control for immersive experience delivery |
US10546424B2 (en) | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
US11328446B2 (en) | 2015-04-15 | 2022-05-10 | Google Llc | Combining light-field data with active depth data for depth map generation |
US9979909B2 (en) | 2015-07-24 | 2018-05-22 | Lytro, Inc. | Automatic lens flare detection and correction for light-field images |
US10291845B2 (en) * | 2015-08-17 | 2019-05-14 | Nokia Technologies Oy | Method, apparatus, and computer program product for personalized depth of field omnidirectional video |
US10218968B2 (en) * | 2016-03-05 | 2019-02-26 | Maximilian Ralph Peter von und zu Liechtenstein | Gaze-contingent display technique |
US10275892B2 (en) | 2016-06-09 | 2019-04-30 | Google Llc | Multi-view scene segmentation and propagation |
US10147218B2 (en) * | 2016-09-29 | 2018-12-04 | Sony Interactive Entertainment America, LLC | System to identify and use markers for motion capture |
US10679361B2 (en) | 2016-12-05 | 2020-06-09 | Google Llc | Multi-view rotoscope contour propagation |
CN108335562A (zh) * | 2017-01-20 | 2018-07-27 | 长沙海商网络技术有限公司 | 一种基于高度仿真的列车模拟驾驶实训系统 |
US10594945B2 (en) | 2017-04-03 | 2020-03-17 | Google Llc | Generating dolly zoom effect using light field image data |
US10474227B2 (en) | 2017-05-09 | 2019-11-12 | Google Llc | Generation of virtual reality with 6 degrees of freedom from limited viewer data |
US10354399B2 (en) | 2017-05-25 | 2019-07-16 | Google Llc | Multi-view back-projection to a light-field |
EP3416371A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method for displaying, on a 2d display device, a content derived from light field data |
EP3416381A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
US10545215B2 (en) | 2017-09-13 | 2020-01-28 | Google Llc | 4D camera tracking and optical stabilization |
EP3462410A1 (en) * | 2017-09-29 | 2019-04-03 | Thomson Licensing | A user interface for manipulating light-field images |
EP3486866A1 (en) * | 2017-11-15 | 2019-05-22 | Thomson Licensing | A method for processing a light field video based on the use of a super-rays representation |
US10965862B2 (en) | 2018-01-18 | 2021-03-30 | Google Llc | Multi-camera navigation interface |
US10917571B2 (en) * | 2018-11-05 | 2021-02-09 | Sony Corporation | Image capture device control based on determination of blur value of objects in images |
CN115022616B (zh) * | 2022-08-08 | 2022-12-02 | 太原理工大学 | 一种基于人眼跟踪的图像聚焦增强显示装置和显示方法 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6198852B1 (en) | 1998-06-01 | 2001-03-06 | Yeda Research And Development Co., Ltd. | View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry |
FR2796797B1 (fr) | 1999-07-22 | 2001-09-07 | Eastman Kodak Co | Dispositif et procede pour afficher une image sur un ecran selon une perspective dependant de la position d'un utilisateur |
US20060182433A1 (en) * | 2005-02-15 | 2006-08-17 | Nikon Corporation | Electronic camera |
US7471292B2 (en) | 2005-11-15 | 2008-12-30 | Sharp Laboratories Of America, Inc. | Virtual view specification and synthesis in free viewpoint |
US8243157B2 (en) * | 2006-02-07 | 2012-08-14 | The Board Of Trustees Of The Leland Stanford Junior University | Correction of optical aberrations |
US10298834B2 (en) * | 2006-12-01 | 2019-05-21 | Google Llc | Video refocusing |
US8559705B2 (en) * | 2006-12-01 | 2013-10-15 | Lytro, Inc. | Interactive refocusing of electronic images |
US8189065B2 (en) * | 2008-01-23 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for full-resolution light-field capture and rendering |
WO2010065344A1 (en) * | 2008-11-25 | 2010-06-10 | Refocus Imaging, Inc. | System of and method for video refocusing |
US8289440B2 (en) * | 2008-12-08 | 2012-10-16 | Lytro, Inc. | Light field data acquisition devices, and methods of using and manufacturing same |
ATE551841T1 (de) | 2009-04-22 | 2012-04-15 | Raytrix Gmbh | Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US20110273466A1 (en) * | 2010-05-10 | 2011-11-10 | Canon Kabushiki Kaisha | View-dependent rendering system with intuitive mixed reality |
EP2403234A1 (en) * | 2010-06-29 | 2012-01-04 | Koninklijke Philips Electronics N.V. | Method and system for constructing a compound image from data obtained by an array of image capturing devices |
US9946076B2 (en) | 2010-10-04 | 2018-04-17 | Gerard Dirk Smits | System and method for 3-D projection and enhancements for interactivity |
JP5623313B2 (ja) | 2011-03-10 | 2014-11-12 | キヤノン株式会社 | 撮像装置および撮像光学系 |
US9313390B2 (en) * | 2011-04-08 | 2016-04-12 | Qualcomm Incorporated | Systems and methods to calibrate a multi camera device |
US20130076966A1 (en) | 2011-09-22 | 2013-03-28 | John Norvold Border | Digital imaging system with refocusable imaging mode |
US8995785B2 (en) | 2012-02-28 | 2015-03-31 | Lytro, Inc. | Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices |
JP6116277B2 (ja) * | 2012-06-07 | 2017-04-19 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US9858649B2 (en) * | 2015-09-30 | 2018-01-02 | Lytro, Inc. | Depth-based image blurring |
US9237263B2 (en) * | 2012-10-05 | 2016-01-12 | Vidinoti Sa | Annotation method and apparatus |
US8997021B2 (en) * | 2012-11-06 | 2015-03-31 | Lytro, Inc. | Parallax and/or three-dimensional effects for thumbnail image displays |
US9070050B2 (en) | 2012-12-20 | 2015-06-30 | Rovi Guides, Inc. | Methods and systems for customizing a plenoptic media asset |
US9136300B2 (en) * | 2013-01-11 | 2015-09-15 | Digimarc Corporation | Next generation imaging methods and systems |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US20150256764A1 (en) * | 2014-03-05 | 2015-09-10 | Guy M. Besson | Active-tracking based systems and methods for generating mirror image |
EP3059949A1 (en) * | 2015-02-23 | 2016-08-24 | Thomson Licensing | Method and apparatus for generating lens-related metadata |
JP2016161884A (ja) * | 2015-03-04 | 2016-09-05 | キヤノン株式会社 | 撮像装置及びその制御方法 |
-
2015
- 2015-05-29 EP EP15305825.0A patent/EP3099055A1/en not_active Withdrawn
-
2016
- 2016-05-20 TW TW105115641A patent/TW201709718A/zh unknown
- 2016-05-25 KR KR1020160064289A patent/KR20160140452A/ko unknown
- 2016-05-25 JP JP2016104456A patent/JP2017022694A/ja active Pending
- 2016-05-27 US US15/167,921 patent/US10116867B2/en active Active
- 2016-05-27 EP EP16171609.7A patent/EP3099056B1/en active Active
- 2016-05-27 CN CN201610637897.8A patent/CN106210538A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20160140452A (ko) | 2016-12-07 |
EP3099055A1 (en) | 2016-11-30 |
EP3099056B1 (en) | 2021-09-08 |
EP3099056A1 (en) | 2016-11-30 |
US20160353026A1 (en) | 2016-12-01 |
TW201709718A (zh) | 2017-03-01 |
US10116867B2 (en) | 2018-10-30 |
CN106210538A (zh) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3099056B1 (en) | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product | |
JP7043085B2 (ja) | 視点から距離情報を取得するための装置及び方法 | |
JP5260705B2 (ja) | 3次元拡張現実提供装置 | |
US9466114B2 (en) | Method and system for automatic 3-D image creation | |
JP5472328B2 (ja) | ステレオカメラ | |
US9813693B1 (en) | Accounting for perspective effects in images | |
KR20170005009A (ko) | 3d 라돈 이미지의 생성 및 사용 | |
KR20170135855A (ko) | 패닝 샷들의 자동 생성 | |
JP6655379B2 (ja) | 焦点スタックから適応スライス画像を生成する方法および装置 | |
KR102082300B1 (ko) | 삼차원 영상 생성 또는 재생을 위한 장치 및 방법 | |
WO2014008320A1 (en) | Systems and methods for capture and display of flex-focus panoramas | |
CN108028904B (zh) | 移动设备上光场增强现实/虚拟现实的方法和系统 | |
EP3067860B1 (en) | Hybrid depth estimation | |
KR20160125715A (ko) | 3차원 스캐너 및 스캐닝 방법 | |
EP3099054A1 (en) | Method and apparatus for determining a focal stack of images from light field data associated with a scene, and corresponding computer program product | |
JP2013175821A (ja) | 画像処理装置、画像処理方法およびプログラム | |
EP3099078A1 (en) | Method for collecting information on users of 4d light field data, corresponding apparatuses and computer programs | |
US20240137481A1 (en) | Method And Apparatus For Generating Stereoscopic Display Contents | |
JP6831792B2 (ja) | 撮像装置、および、撮像システム | |
Riou et al. | A four-lens based plenoptic camera for depth measurements | |
CN113132715A (zh) | 一种图像处理方法、装置、电子设备及其存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161202 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161202 |