JP2017229067A5 - - Google Patents

Download PDF

Info

Publication number
JP2017229067A5
JP2017229067A5 JP2017121820A JP2017121820A JP2017229067A5 JP 2017229067 A5 JP2017229067 A5 JP 2017229067A5 JP 2017121820 A JP2017121820 A JP 2017121820A JP 2017121820 A JP2017121820 A JP 2017121820A JP 2017229067 A5 JP2017229067 A5 JP 2017229067A5
Authority
JP
Japan
Prior art keywords
sub
light field
field camera
aperture
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017121820A
Other languages
English (en)
Other versions
JP2017229067A (ja
Filing date
Publication date
Application filed filed Critical
Publication of JP2017229067A publication Critical patent/JP2017229067A/ja
Publication of JP2017229067A5 publication Critical patent/JP2017229067A5/ja
Pending legal-status Critical Current

Links

Description

以上より、前述の説明は、本開示の原理を説明し、よって、当業者は、たとえ本明細書中で明示的に記載されていなくても、本開示の原理を具現化し且つその主旨及び適用範囲の中にある多数の代替の配置を思い付くことができると認識されるだろう。従って、多数の変更は、実例となる実施形態に対して行われ、他の配置は、本開示の適用範囲から逸脱することなしに想到され得ることが理解されるべきである。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法であって、
左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
前記ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
ことを有する方法。
(付記2)
前記サブアパーチャ画像についての前記実際のカメラパラメータは、
前記ライトフィールドカメラによって捕捉された前記画像におけるシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
ことによって推定される、
付記1に記載の方法。
(付記3)
前記実際のカメラパラメータ及び前記必要とされるカメラパラメータは、回転行列R及び並進ベクトルtを夫々有する、
付記1に記載の方法。
(付記4)
前記左ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記左ビューについての必要とされるカメラパラメータに対して最も近い値を有し、前記右ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記右ビューについての必要とされるカメラパラメータに対して最も近い値を有する、
付記1に記載の方法。
(付記5)
前記ライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
前記決定することは、
前記左ビューについての必要とされるカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記右ビューについての必要とされるカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
ことを更に含む、
付記1に記載の方法。
(付記6)
前記関連付けることは、
前記左ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記左ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列D Lrem を計算し、該伝達行列D Lrem は、左ビューについての夫々のサブアパーチャ画像について計算され、
前記右ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記右ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列D Rrem を計算し、該伝達行列D Rrem は、右ビューについての夫々のサブアパーチャ画像について計算され、
前記左ビューについての残りのサブアパーチャ画像を、前記D Rrem が前記D Lrem に対して最も近い値を有するところの前記右ビューについての残りのサブアパーチャ画像と関連付ける
ことを更に有する、
付記4に記載の方法。
(付記7)
前記ベストマッチングのサブアパーチャ画像以外である残りのサブアパーチャ画像を、左ビューについての残りのサブアパーチャ画像又は右ビューについての残りのサブアパーチャ画像のいずれかに分類することを更に有し、
前記分類することは、
前記残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるD Lrem を計算し、
前記残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるD Rrem を計算し、
前記D Lrem 及び前記D Rrem を比較し、前記残りのサブアパーチャ画像を、前記D Lrem が前記D Rrem よりも小さい場合には、前記左ビューについての残りのサブアパーチャ画像に分類し、前記D Lrem が前記D Rrem よりも小さくない場合には、前記右ビューについての残りのサブアパーチャ画像に分類する
ことを有する、
付記1に記載の方法。
(付記8)
前記D Lrem 及び前記D Rrem を比較し、前記D Lrem が前記D Rrem に等しい場合には、前記左ビューについての残りのサブアパーチャ画像にも、前記右ビューについての残りのサブアパーチャ画像にも分類しないことを更に有する
付記7に記載の方法。
(付記9)
前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像を、前記D Rrem が、前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像の前記D Lrem に対して最も近い値を有するところの、前記右ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像と関連付けることを更に有する
付記7に記載の方法。
(付記10)
一対の立体画像を生成するデバイスであって、
プロセッサを有し、該プロセッサは、
左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
よう構成される、デバイス。
(付記11)
前記サブアパーチャ画像についての前記実際のカメラパラメータは、
前記ライトフィールドカメラによって捕捉されたシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
ことによって推定される、
付記10に記載のデバイス。
(付記12)
コンピュータによって読み出し可能な及び/又はプロセッサによって実行可能な媒体に記録され且つ/あるいは通信ネットワークからダウンロードされるコンピュータプログラムであって、
付記1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を有する
コンピュータプログラム。
(付記13)
付記1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を含む、プロセッサによって実行されることが可能なコンピュータプログラムが記録されている非一時的なコンピュータ可読媒体。

Claims (13)

  1. 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法であって、
    ソースから、左ビュー及び右ビューについての夫々の理論上のライトフィールドカメラパラメータを受け取り、前記理論上のライトフィールドカメラパラメータは、理論上のステレオ画像対を定義し、
    前記少なくとも1つのライトフィールドカメラにより画像を取得し、
    前記少なくとも1つのライトフィールドカメラにより捕捉された前記画像に基づいて、前記少なくとも1つのライトフィールドカメラによって捕捉された前記画像から生成される夫々のサブアパーチャ画像についての夫々の実際のライトフィールドカメラパラメータを取得し、
    前記左ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
    前記一対の立体画像を生成するために、前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を連付け
    前記左ビューについての前記ベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、左ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有し、右ビューについての前記ベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、前記右ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有する、
    ことを有する方法。
  2. 前記サブアパーチャ画像についての前記実際のライトフィールドカメラパラメータは、
    前記少なくとも1つのライトフィールドカメラによって捕捉された前記画像におけるシーン内のオブジェクトの画像を受け取り、前記オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
    前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
    前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のライトフィールドカメラパラメータを推定する
    ことによって推定される、
    請求項1に記載の方法。
  3. 前記実際のライトフィールドカメラパラメータ及び前記理論上のライトフィールドカメラパラメータは、回転行列R及び並進ベクトルtを夫々有する、
    請求項1に記載の方法。
  4. 前記少なくとも1つのライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
    前記決定することは、
    前記左ビューについての前記理論上のライトフィールドカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
    前記右ビューについての前記理論上のライトフィールドカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
    ことを更に含む、
    請求項1に記載の方法。
  5. 前記関連付けることは、
    前記左ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記左ビューについての残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せる伝達行列DLremを計算し、前記伝達行列DLremは、左ビューについての夫々のサブアパーチャ画像について計算され、
    前記右ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記右ビューについての残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せる伝達行列DRremを計算し、前記伝達行列DRremは、右ビューについての夫々のサブアパーチャ画像について計算され、
    前記左ビューについての残りのサブアパーチャ画像を、前記DRremが前記DLremに対して最も近い値を有するところの前記右ビューについての残りのサブアパーチャ画像と関連付け
    前記残りのサブアパーチャ画像は、前記ベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である、
    ことを更に有する、
    請求項に記載の方法。
  6. 前記ベストマッチングのサブアパーチャ画像以外である残りのサブアパーチャ画像を、左ビューについての残りのサブアパーチャ画像又は右ビューについての残りのサブアパーチャ画像のいずれかに分類することを更に有し、
    前記分類することは、
    前記残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せるLremを計算し、
    前記残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せるRremを計算し、
    Lrem及びDRremを比較し、前記残りのサブアパーチャ画像を、前記DLremが前記DRremよりも小さい場合には、前記左ビューについての残りのサブアパーチャ画像に分類し、前記DLremが前記DRremよりも小さくない場合には、前記右ビューについての残りのサブアパーチャ画像に分類する
    ことを有する、
    請求項1に記載の方法。
  7. Lrem及びDRremを比較し、前記DLremが前記DRremに等しい場合には、前記左ビューについての残りのサブアパーチャ画像にも、前記右ビューについての残りのサブアパーチャ画像にも分類しないことを更に有する
    請求項に記載の方法。
  8. 前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像を、DRremが、前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像のDLremに対して最も近い値を有するところの、前記右ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像と関連付けることを更に有する
    請求項に記載の方法。
  9. 一対の立体画像を生成するデバイスであって、
    プロセッサを有し、前記プロセッサは、
    ソースから、左ビュー及び右ビューについての夫々の理論上のライトフィールドカメラパラメータを受け取り、前記理論上のライトフィールドカメラパラメータは、理論上のステレオ画像対を定義し、
    少なくとも1つのライトフィールドカメラにより捕捉された画像に基づいて、前記少なくとも1つのライトフィールドカメラによって捕捉された画像から生成される夫々のサブアパーチャ画像についての夫々の実際のライトフィールドカメラパラメータを取得し、
    前記左ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
    前記一対の立体画像を生成するために、前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を連付け
    前記左ビューについての前記決定されたベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、左ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有し、右ビューについての前記決定されたベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、前記右ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有する、
    よう構成される、デバイス。
  10. 前記サブアパーチャ画像についての前記実際のライトフィールドカメラパラメータは、
    前記少なくとも1つのライトフィールドカメラによって捕捉されたシーン内のオブジェクトの画像を受け取り、前記オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
    前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
    前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のライトフィールドカメラパラメータを推定する
    ことによって推定される、
    請求項に記載のデバイス。
  11. 前記少なくとも1つのライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
    前記決定することは、
    前記左ビューについての前記理論上のライトフィールドカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
    前記右ビューについての前記理論上のライトフィールドカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
    ことを更に含む、
    請求項9に記載のデバイス。
  12. コンピュータによって読み出し可能なプログラムコード命令を記録した媒体あって、
    前記プログラムコード命令は、請求項1乃至のうちいずれか一項に記載の方法を実行
    コンピュータプログラム。
  13. 請求項1乃至のうちいずれか一項に記載の方法を実行するプログラムコード命令を含む、プロセッサによって実行されることが可能なコンピュータプログラムが記録されている非一時的なコンピュータ可読媒体。
JP2017121820A 2016-06-23 2017-06-22 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置 Pending JP2017229067A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16305760 2016-06-23
EP16305760.7 2016-06-23

Publications (2)

Publication Number Publication Date
JP2017229067A JP2017229067A (ja) 2017-12-28
JP2017229067A5 true JP2017229067A5 (ja) 2020-08-06

Family

ID=56497690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017121820A Pending JP2017229067A (ja) 2016-06-23 2017-06-22 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置

Country Status (5)

Country Link
US (1) US10594999B2 (ja)
EP (1) EP3264761A1 (ja)
JP (1) JP2017229067A (ja)
KR (1) KR20180000696A (ja)
CN (1) CN108305293A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164332B2 (en) * 2017-08-25 2021-11-02 Chris Hsinlai Liu Stereo machine vision system and method for identifying locations of natural target elements
CN108257185A (zh) * 2018-01-03 2018-07-06 上海兴芯微电子科技有限公司 多棋盘格角点检测方法及摄像机标定方法
KR102617940B1 (ko) * 2019-01-24 2023-12-22 주식회사 케이티 멀티 mla 라이트 필드 카메라를 이용한 6-자유도 지원 360도 영상 생성 장치및 그 방법
KR20220121533A (ko) 2021-02-25 2022-09-01 삼성전자주식회사 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
BE1011175A3 (fr) * 1997-05-23 1999-07-06 Ursel Wauthier D Procede d'obtention d'images en relief et dispositif pour la mise en oeuvre de ce procede.
JP2003141527A (ja) 2001-11-07 2003-05-16 Japan Science & Technology Corp 多視点画像処理システムのキャリブレーション装置及びキャリブレーション方法
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7671893B2 (en) 2004-07-27 2010-03-02 Microsoft Corp. System and method for interactive multi-view video
DE102007001649A1 (de) * 2007-01-11 2008-07-17 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
EP2175632A1 (en) * 2008-10-10 2010-04-14 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8749620B1 (en) * 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
EP2375376B1 (en) 2010-03-26 2013-09-11 Alcatel Lucent Method and arrangement for multi-camera calibration
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012034215A (ja) * 2010-07-30 2012-02-16 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013038598A1 (ja) * 2011-09-14 2013-03-21 株式会社ニコン 撮像素子、撮像装置および画像処理装置
WO2013111229A1 (ja) * 2012-01-23 2013-08-01 日本電気株式会社 カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム
US9386297B2 (en) * 2012-02-24 2016-07-05 Casio Computer Co., Ltd. Image generating apparatus generating reconstructed image, method, and computer-readable recording medium
JP5310890B2 (ja) * 2012-02-24 2013-10-09 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
EP2835613B1 (de) * 2013-08-08 2019-01-16 Hexagon Technology Center GmbH Geodätisches Vermessungsgerät mit Mikrolinsenarray
JP2015056790A (ja) * 2013-09-12 2015-03-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
IN2013CH05313A (ja) * 2013-11-18 2015-05-29 Nokia Corp
KR20150088355A (ko) * 2014-01-23 2015-08-03 한국전자통신연구원 눈동자 이동 시점 생성을 지원하는 스테레오 라이트필드 입출력 장치 및 방법
JPWO2015128918A1 (ja) * 2014-02-28 2017-03-30 パナソニックIpマネジメント株式会社 撮像装置
US9390508B2 (en) * 2014-03-03 2016-07-12 Nokia Technologies Oy Method, apparatus and computer program product for disparity map estimation of stereo images
TWI527434B (zh) * 2014-03-21 2016-03-21 國立臺灣大學 利用光場相機產生立體影像的方法及光場相機
US9436987B2 (en) * 2014-04-30 2016-09-06 Seiko Epson Corporation Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
CN104089628B (zh) * 2014-06-30 2017-02-08 中国科学院光电研究院 光场相机的自适应几何定标方法
KR102240568B1 (ko) * 2014-08-18 2021-04-16 삼성전자주식회사 영상 처리 방법 및 장치
EP3026884A1 (en) * 2014-11-27 2016-06-01 Thomson Licensing Plenoptic camera comprising a light emitting device
US10085005B2 (en) * 2015-04-15 2018-09-25 Lytro, Inc. Capturing light-field volume image and video data using tiled light-field cameras
CN105488810B (zh) * 2016-01-20 2018-06-29 东南大学 一种聚焦光场相机内外参数标定方法

Similar Documents

Publication Publication Date Title
TWI345916B (en) Motion estimation method
JP2017229067A5 (ja)
KR102483641B1 (ko) 양안 시차 영상의 처리 방법 및 장치
JP2017045283A5 (ja)
US10595006B2 (en) Method, system and medium for improving the quality of 2D-to-3D automatic image conversion using machine learning techniques
JP2015215877A5 (ja)
JP2017520050A5 (ja)
CA2794659A1 (en) Apparatus and method for iris recognition using multiple iris templates
JP2018004310A5 (ja)
JP2011138500A5 (ja)
CN104657709B (zh) 人脸图像识别方法、装置及服务器
KR101932547B1 (ko) 카메라 시스템 및 이의 영상 정합 방법
JP6579950B2 (ja) カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法
JP2012023691A5 (ja)
JP2014112055A (ja) カメラ姿勢の推定方法およびカメラ姿勢の推定システム
US10764563B2 (en) 3D enhanced image correction
JP2019530059A5 (ja)
JP6431404B2 (ja) 姿勢推定モデル生成装置及び姿勢推定装置
JP2013101615A5 (ja) 画像処理方法および画像処理システム
JP2017021759A (ja) 画像処理装置、画像処理方法及びプログラム
JP2018113021A5 (ja)
JP2018195084A5 (ja)
JP2015106290A5 (ja)
JP6359985B2 (ja) デプス推定モデル生成装置及びデプス推定装置
JP2018022247A5 (ja)