JP2017229067A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2017229067A5 JP2017229067A5 JP2017121820A JP2017121820A JP2017229067A5 JP 2017229067 A5 JP2017229067 A5 JP 2017229067A5 JP 2017121820 A JP2017121820 A JP 2017121820A JP 2017121820 A JP2017121820 A JP 2017121820A JP 2017229067 A5 JP2017229067 A5 JP 2017229067A5
- Authority
- JP
- Japan
- Prior art keywords
- sub
- light field
- field camera
- aperture
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 5
- 230000000875 corresponding Effects 0.000 claims description 4
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 230000000576 supplementary Effects 0.000 description 1
Description
以上より、前述の説明は、本開示の原理を説明し、よって、当業者は、たとえ本明細書中で明示的に記載されていなくても、本開示の原理を具現化し且つその主旨及び適用範囲の中にある多数の代替の配置を思い付くことができると認識されるだろう。従って、多数の変更は、実例となる実施形態に対して行われ、他の配置は、本開示の適用範囲から逸脱することなしに想到され得ることが理解されるべきである。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法であって、
左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
前記ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
ことを有する方法。
(付記2)
前記サブアパーチャ画像についての前記実際のカメラパラメータは、
前記ライトフィールドカメラによって捕捉された前記画像におけるシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
ことによって推定される、
付記1に記載の方法。
(付記3)
前記実際のカメラパラメータ及び前記必要とされるカメラパラメータは、回転行列R及び並進ベクトルtを夫々有する、
付記1に記載の方法。
(付記4)
前記左ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記左ビューについての必要とされるカメラパラメータに対して最も近い値を有し、前記右ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記右ビューについての必要とされるカメラパラメータに対して最も近い値を有する、
付記1に記載の方法。
(付記5)
前記ライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
前記決定することは、
前記左ビューについての必要とされるカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記右ビューについての必要とされるカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
ことを更に含む、
付記1に記載の方法。
(付記6)
前記関連付けることは、
前記左ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記左ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列D Lrem を計算し、該伝達行列D Lrem は、左ビューについての夫々のサブアパーチャ画像について計算され、
前記右ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記右ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列D Rrem を計算し、該伝達行列D Rrem は、右ビューについての夫々のサブアパーチャ画像について計算され、
前記左ビューについての残りのサブアパーチャ画像を、前記D Rrem が前記D Lrem に対して最も近い値を有するところの前記右ビューについての残りのサブアパーチャ画像と関連付ける
ことを更に有する、
付記4に記載の方法。
(付記7)
前記ベストマッチングのサブアパーチャ画像以外である残りのサブアパーチャ画像を、左ビューについての残りのサブアパーチャ画像又は右ビューについての残りのサブアパーチャ画像のいずれかに分類することを更に有し、
前記分類することは、
前記残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるD Lrem を計算し、
前記残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるD Rrem を計算し、
前記D Lrem 及び前記D Rrem を比較し、前記残りのサブアパーチャ画像を、前記D Lrem が前記D Rrem よりも小さい場合には、前記左ビューについての残りのサブアパーチャ画像に分類し、前記D Lrem が前記D Rrem よりも小さくない場合には、前記右ビューについての残りのサブアパーチャ画像に分類する
ことを有する、
付記1に記載の方法。
(付記8)
前記D Lrem 及び前記D Rrem を比較し、前記D Lrem が前記D Rrem に等しい場合には、前記左ビューについての残りのサブアパーチャ画像にも、前記右ビューについての残りのサブアパーチャ画像にも分類しないことを更に有する
付記7に記載の方法。
(付記9)
前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像を、前記D Rrem が、前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像の前記D Lrem に対して最も近い値を有するところの、前記右ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像と関連付けることを更に有する
付記7に記載の方法。
(付記10)
一対の立体画像を生成するデバイスであって、
プロセッサを有し、該プロセッサは、
左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
よう構成される、デバイス。
(付記11)
前記サブアパーチャ画像についての前記実際のカメラパラメータは、
前記ライトフィールドカメラによって捕捉されたシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
ことによって推定される、
付記10に記載のデバイス。
(付記12)
コンピュータによって読み出し可能な及び/又はプロセッサによって実行可能な媒体に記録され且つ/あるいは通信ネットワークからダウンロードされるコンピュータプログラムであって、
付記1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を有する
コンピュータプログラム。
(付記13)
付記1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を含む、プロセッサによって実行されることが可能なコンピュータプログラムが記録されている非一時的なコンピュータ可読媒体。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法であって、
左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
前記ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
ことを有する方法。
(付記2)
前記サブアパーチャ画像についての前記実際のカメラパラメータは、
前記ライトフィールドカメラによって捕捉された前記画像におけるシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
ことによって推定される、
付記1に記載の方法。
(付記3)
前記実際のカメラパラメータ及び前記必要とされるカメラパラメータは、回転行列R及び並進ベクトルtを夫々有する、
付記1に記載の方法。
(付記4)
前記左ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記左ビューについての必要とされるカメラパラメータに対して最も近い値を有し、前記右ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記右ビューについての必要とされるカメラパラメータに対して最も近い値を有する、
付記1に記載の方法。
(付記5)
前記ライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
前記決定することは、
前記左ビューについての必要とされるカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記右ビューについての必要とされるカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
ことを更に含む、
付記1に記載の方法。
(付記6)
前記関連付けることは、
前記左ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記左ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列D Lrem を計算し、該伝達行列D Lrem は、左ビューについての夫々のサブアパーチャ画像について計算され、
前記右ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記右ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列D Rrem を計算し、該伝達行列D Rrem は、右ビューについての夫々のサブアパーチャ画像について計算され、
前記左ビューについての残りのサブアパーチャ画像を、前記D Rrem が前記D Lrem に対して最も近い値を有するところの前記右ビューについての残りのサブアパーチャ画像と関連付ける
ことを更に有する、
付記4に記載の方法。
(付記7)
前記ベストマッチングのサブアパーチャ画像以外である残りのサブアパーチャ画像を、左ビューについての残りのサブアパーチャ画像又は右ビューについての残りのサブアパーチャ画像のいずれかに分類することを更に有し、
前記分類することは、
前記残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるD Lrem を計算し、
前記残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるD Rrem を計算し、
前記D Lrem 及び前記D Rrem を比較し、前記残りのサブアパーチャ画像を、前記D Lrem が前記D Rrem よりも小さい場合には、前記左ビューについての残りのサブアパーチャ画像に分類し、前記D Lrem が前記D Rrem よりも小さくない場合には、前記右ビューについての残りのサブアパーチャ画像に分類する
ことを有する、
付記1に記載の方法。
(付記8)
前記D Lrem 及び前記D Rrem を比較し、前記D Lrem が前記D Rrem に等しい場合には、前記左ビューについての残りのサブアパーチャ画像にも、前記右ビューについての残りのサブアパーチャ画像にも分類しないことを更に有する
付記7に記載の方法。
(付記9)
前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像を、前記D Rrem が、前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像の前記D Lrem に対して最も近い値を有するところの、前記右ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像と関連付けることを更に有する
付記7に記載の方法。
(付記10)
一対の立体画像を生成するデバイスであって、
プロセッサを有し、該プロセッサは、
左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
よう構成される、デバイス。
(付記11)
前記サブアパーチャ画像についての前記実際のカメラパラメータは、
前記ライトフィールドカメラによって捕捉されたシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
ことによって推定される、
付記10に記載のデバイス。
(付記12)
コンピュータによって読み出し可能な及び/又はプロセッサによって実行可能な媒体に記録され且つ/あるいは通信ネットワークからダウンロードされるコンピュータプログラムであって、
付記1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を有する
コンピュータプログラム。
(付記13)
付記1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を含む、プロセッサによって実行されることが可能なコンピュータプログラムが記録されている非一時的なコンピュータ可読媒体。
Claims (13)
- 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法であって、
ソースから、左ビュー及び右ビューについての夫々の理論上のライトフィールドカメラパラメータを受け取り、前記理論上のライトフィールドカメラパラメータは、理論上のステレオ画像対を定義し、
前記少なくとも1つのライトフィールドカメラにより画像を取得し、
前記少なくとも1つのライトフィールドカメラにより捕捉された前記画像に基づいて、前記少なくとも1つのライトフィールドカメラによって捕捉された前記画像から生成される夫々のサブアパーチャ画像についての夫々の実際のライトフィールドカメラパラメータを取得し、
前記左ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記一対の立体画像を生成するために、前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を関連付け、
前記左ビューについての前記ベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、左ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有し、右ビューについての前記ベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、前記右ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有する、
ことを有する方法。 - 前記サブアパーチャ画像についての前記実際のライトフィールドカメラパラメータは、
前記少なくとも1つのライトフィールドカメラによって捕捉された前記画像におけるシーン内のオブジェクトの画像を受け取り、前記オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のライトフィールドカメラパラメータを推定する
ことによって推定される、
請求項1に記載の方法。 - 前記実際のライトフィールドカメラパラメータ及び前記理論上のライトフィールドカメラパラメータは、回転行列R及び並進ベクトルtを夫々有する、
請求項1に記載の方法。 - 前記少なくとも1つのライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
前記決定することは、
前記左ビューについての前記理論上のライトフィールドカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記右ビューについての前記理論上のライトフィールドカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
ことを更に含む、
請求項1に記載の方法。 - 前記関連付けることは、
前記左ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記左ビューについての残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せる伝達行列DLremを計算し、前記伝達行列DLremは、左ビューについての夫々のサブアパーチャ画像について計算され、
前記右ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記右ビューについての残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せる伝達行列DRremを計算し、前記伝達行列DRremは、右ビューについての夫々のサブアパーチャ画像について計算され、
前記左ビューについての残りのサブアパーチャ画像を、前記DRremが前記DLremに対して最も近い値を有するところの前記右ビューについての残りのサブアパーチャ画像と関連付け、
前記残りのサブアパーチャ画像は、前記ベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である、
ことを更に有する、
請求項1に記載の方法。 - 前記ベストマッチングのサブアパーチャ画像以外である残りのサブアパーチャ画像を、左ビューについての残りのサブアパーチャ画像又は右ビューについての残りのサブアパーチャ画像のいずれかに分類することを更に有し、
前記分類することは、
前記残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せるDLremを計算し、
前記残りのサブアパーチャ画像の実際のライトフィールドカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のライトフィールドカメラパラメータに移せるDRremを計算し、
DLrem及びDRremを比較し、前記残りのサブアパーチャ画像を、前記DLremが前記DRremよりも小さい場合には、前記左ビューについての残りのサブアパーチャ画像に分類し、前記DLremが前記DRremよりも小さくない場合には、前記右ビューについての残りのサブアパーチャ画像に分類する
ことを有する、
請求項1に記載の方法。 - DLrem及びDRremを比較し、前記DLremが前記DRremに等しい場合には、前記左ビューについての残りのサブアパーチャ画像にも、前記右ビューについての残りのサブアパーチャ画像にも分類しないことを更に有する
請求項6に記載の方法。 - 前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像を、DRremが、前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像のDLremに対して最も近い値を有するところの、前記右ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像と関連付けることを更に有する
請求項6に記載の方法。 - 一対の立体画像を生成するデバイスであって、
プロセッサを有し、前記プロセッサは、
ソースから、左ビュー及び右ビューについての夫々の理論上のライトフィールドカメラパラメータを受け取り、前記理論上のライトフィールドカメラパラメータは、理論上のステレオ画像対を定義し、
少なくとも1つのライトフィールドカメラにより捕捉された画像に基づいて、前記少なくとも1つのライトフィールドカメラによって捕捉された画像から生成される夫々のサブアパーチャ画像についての夫々の実際のライトフィールドカメラパラメータを取得し、
前記左ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての前記理論上のライトフィールドカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のライトフィールドカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記一対の立体画像を生成するために、前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を関連付け、
前記左ビューについての前記決定されたベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、左ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有し、右ビューについての前記決定されたベストマッチングのサブアパーチャ画像の前記実際のライトフィールドカメラパラメータは、前記右ビューについての前記理論上のライトフィールドカメラパラメータに対して最も近い値を有する、
よう構成される、デバイス。 - 前記サブアパーチャ画像についての前記実際のライトフィールドカメラパラメータは、
前記少なくとも1つのライトフィールドカメラによって捕捉されたシーン内のオブジェクトの画像を受け取り、前記オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のライトフィールドカメラパラメータを推定する
ことによって推定される、
請求項9に記載のデバイス。 - 前記少なくとも1つのライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
前記決定することは、
前記左ビューについての前記理論上のライトフィールドカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
前記右ビューについての前記理論上のライトフィールドカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての前記夫々の実際のライトフィールドカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
ことを更に含む、
請求項9に記載のデバイス。 - コンピュータによって読み出し可能なプログラムコード命令を記録した媒体であって、
前記プログラムコード命令は、請求項1乃至8のうちいずれか一項に記載の方法を実行する
コンピュータプログラム。 - 請求項1乃至8のうちいずれか一項に記載の方法を実行するプログラムコード命令を含む、プロセッサによって実行されることが可能なコンピュータプログラムが記録されている非一時的なコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16305760 | 2016-06-23 | ||
EP16305760.7 | 2016-06-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017229067A JP2017229067A (ja) | 2017-12-28 |
JP2017229067A5 true JP2017229067A5 (ja) | 2020-08-06 |
Family
ID=56497690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017121820A Pending JP2017229067A (ja) | 2016-06-23 | 2017-06-22 | 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10594999B2 (ja) |
EP (1) | EP3264761A1 (ja) |
JP (1) | JP2017229067A (ja) |
KR (1) | KR20180000696A (ja) |
CN (1) | CN108305293A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11164332B2 (en) * | 2017-08-25 | 2021-11-02 | Chris Hsinlai Liu | Stereo machine vision system and method for identifying locations of natural target elements |
CN108257185A (zh) * | 2018-01-03 | 2018-07-06 | 上海兴芯微电子科技有限公司 | 多棋盘格角点检测方法及摄像机标定方法 |
KR102617940B1 (ko) * | 2019-01-24 | 2023-12-22 | 주식회사 케이티 | 멀티 mla 라이트 필드 카메라를 이용한 6-자유도 지원 360도 영상 생성 장치및 그 방법 |
KR20220121533A (ko) | 2021-02-25 | 2022-09-01 | 삼성전자주식회사 | 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
BE1011175A3 (fr) * | 1997-05-23 | 1999-07-06 | Ursel Wauthier D | Procede d'obtention d'images en relief et dispositif pour la mise en oeuvre de ce procede. |
JP2003141527A (ja) | 2001-11-07 | 2003-05-16 | Japan Science & Technology Corp | 多視点画像処理システムのキャリブレーション装置及びキャリブレーション方法 |
US7643025B2 (en) * | 2003-09-30 | 2010-01-05 | Eric Belk Lange | Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates |
US7671893B2 (en) | 2004-07-27 | 2010-03-02 | Microsoft Corp. | System and method for interactive multi-view video |
DE102007001649A1 (de) * | 2007-01-11 | 2008-07-17 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera |
US9094675B2 (en) * | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
EP2175632A1 (en) * | 2008-10-10 | 2010-04-14 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US8749620B1 (en) * | 2010-02-20 | 2014-06-10 | Lytro, Inc. | 3D light field cameras, images and files, and methods of using, operating, processing and viewing same |
EP2375376B1 (en) | 2010-03-26 | 2013-09-11 | Alcatel Lucent | Method and arrangement for multi-camera calibration |
JP2011248723A (ja) * | 2010-05-28 | 2011-12-08 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2012034215A (ja) * | 2010-07-30 | 2012-02-16 | Sony Corp | 画像処理装置および方法、並びにプログラム |
WO2013038598A1 (ja) * | 2011-09-14 | 2013-03-21 | 株式会社ニコン | 撮像素子、撮像装置および画像処理装置 |
WO2013111229A1 (ja) * | 2012-01-23 | 2013-08-01 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
US9386297B2 (en) * | 2012-02-24 | 2016-07-05 | Casio Computer Co., Ltd. | Image generating apparatus generating reconstructed image, method, and computer-readable recording medium |
JP5310890B2 (ja) * | 2012-02-24 | 2013-10-09 | カシオ計算機株式会社 | 画像生成装置、画像生成方法及びプログラム |
EP2835613B1 (de) * | 2013-08-08 | 2019-01-16 | Hexagon Technology Center GmbH | Geodätisches Vermessungsgerät mit Mikrolinsenarray |
JP2015056790A (ja) * | 2013-09-12 | 2015-03-23 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
IN2013CH05313A (ja) * | 2013-11-18 | 2015-05-29 | Nokia Corp | |
KR20150088355A (ko) * | 2014-01-23 | 2015-08-03 | 한국전자통신연구원 | 눈동자 이동 시점 생성을 지원하는 스테레오 라이트필드 입출력 장치 및 방법 |
JPWO2015128918A1 (ja) * | 2014-02-28 | 2017-03-30 | パナソニックIpマネジメント株式会社 | 撮像装置 |
US9390508B2 (en) * | 2014-03-03 | 2016-07-12 | Nokia Technologies Oy | Method, apparatus and computer program product for disparity map estimation of stereo images |
TWI527434B (zh) * | 2014-03-21 | 2016-03-21 | 國立臺灣大學 | 利用光場相機產生立體影像的方法及光場相機 |
US9436987B2 (en) * | 2014-04-30 | 2016-09-06 | Seiko Epson Corporation | Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images |
CN104089628B (zh) * | 2014-06-30 | 2017-02-08 | 中国科学院光电研究院 | 光场相机的自适应几何定标方法 |
KR102240568B1 (ko) * | 2014-08-18 | 2021-04-16 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
EP3026884A1 (en) * | 2014-11-27 | 2016-06-01 | Thomson Licensing | Plenoptic camera comprising a light emitting device |
US10085005B2 (en) * | 2015-04-15 | 2018-09-25 | Lytro, Inc. | Capturing light-field volume image and video data using tiled light-field cameras |
CN105488810B (zh) * | 2016-01-20 | 2018-06-29 | 东南大学 | 一种聚焦光场相机内外参数标定方法 |
-
2017
- 2017-06-16 EP EP17176420.2A patent/EP3264761A1/en not_active Ceased
- 2017-06-22 JP JP2017121820A patent/JP2017229067A/ja active Pending
- 2017-06-23 KR KR1020170079757A patent/KR20180000696A/ko active IP Right Grant
- 2017-06-23 CN CN201710491073.9A patent/CN108305293A/zh active Pending
- 2017-06-23 US US15/631,009 patent/US10594999B2/en not_active Expired - Fee Related
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI345916B (en) | Motion estimation method | |
JP2017229067A5 (ja) | ||
KR102483641B1 (ko) | 양안 시차 영상의 처리 방법 및 장치 | |
JP2017045283A5 (ja) | ||
US10595006B2 (en) | Method, system and medium for improving the quality of 2D-to-3D automatic image conversion using machine learning techniques | |
JP2015215877A5 (ja) | ||
JP2017520050A5 (ja) | ||
CA2794659A1 (en) | Apparatus and method for iris recognition using multiple iris templates | |
JP2018004310A5 (ja) | ||
JP2011138500A5 (ja) | ||
CN104657709B (zh) | 人脸图像识别方法、装置及服务器 | |
KR101932547B1 (ko) | 카메라 시스템 및 이의 영상 정합 방법 | |
JP6579950B2 (ja) | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 | |
JP2012023691A5 (ja) | ||
JP2014112055A (ja) | カメラ姿勢の推定方法およびカメラ姿勢の推定システム | |
US10764563B2 (en) | 3D enhanced image correction | |
JP2019530059A5 (ja) | ||
JP6431404B2 (ja) | 姿勢推定モデル生成装置及び姿勢推定装置 | |
JP2013101615A5 (ja) | 画像処理方法および画像処理システム | |
JP2017021759A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2018113021A5 (ja) | ||
JP2018195084A5 (ja) | ||
JP2015106290A5 (ja) | ||
JP6359985B2 (ja) | デプス推定モデル生成装置及びデプス推定装置 | |
JP2018022247A5 (ja) |