JP2018510324A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2018510324A5 JP2018510324A5 JP2017537922A JP2017537922A JP2018510324A5 JP 2018510324 A5 JP2018510324 A5 JP 2018510324A5 JP 2017537922 A JP2017537922 A JP 2017537922A JP 2017537922 A JP2017537922 A JP 2017537922A JP 2018510324 A5 JP2018510324 A5 JP 2018510324A5
- Authority
- JP
- Japan
- Prior art keywords
- depth
- sensing
- map
- depth map
- depth sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims description 44
- 238000003384 imaging method Methods 0.000 claims description 34
- 230000004927 fusion Effects 0.000 claims description 13
- 230000001419 dependent Effects 0.000 claims description 5
- 238000000691 measurement method Methods 0.000 claims 1
- 230000003287 optical Effects 0.000 claims 1
- 230000000875 corresponding Effects 0.000 description 1
Description
[0076]前述は本開示の態様に関するが、本開示の他のおよびさらなる態様がその基本的な範囲から逸脱することなく考案され得、その範囲は以下の特許請求の範囲によって決定される。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
奥行きマップを生成するための装置であって、
イメージングデバイスの視野(FOV)中の光景の少なくとも画像を取り込むように構成された前記イメージングデバイスと、
複数の奥行き感知モジュールと、前記奥行き感知モジュールの各々が前記光景の奥行きマップを生成するように構成される、
プロセッサを備える処理システムとを備え、前記処理システムが、
前記複数の奥行き感知モジュールから第1の奥行き感知モジュールを選択し、
前記第1の選択された奥行き感知モジュールおよび前記イメージングデバイスを使用して、前記イメージングデバイスのFOV中の前記光景の第1の奥行き情報を感知し、
前記第1の奥行き情報に基づいて第1の奥行きマップを生成し、前記第1の奥行きマップが前記光景の複数のポイントの奥行き測定値を備える、
1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの少なくとも1つの領域を識別し、
前記識別された少なくとも1つの領域の特性に基づいて、前記複数の奥行き感知モジュールのうちの第2の選択された奥行き感知モジュールを使用して追加の奥行き感知を実行すべきかどうかを決定するように構成される、装置。
[C2]
前記処理システムが、
追加の奥行き感知を実行するという決定に基づいて、前記複数の奥行き感知モジュールから前記第2の奥行き感知モジュールを選択し、
前記第2の選択された奥行き感知モジュールを使用して、前記イメージングデバイスの前記FOV中の前記光景の第2の奥行き情報を感知し、
前記第2の奥行き情報に基づいて第2の奥行きマップを生成し、
前記第1の奥行きマップと前記第2の奥行きマップの少なくとも一部を一緒に使用して融合奥行きマップを作り出す、前記融合奥行きマップが、1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの前記少なくとも1つの領域に対応する前記第2の奥行きマップの少なくとも一部を使用する、ようにさらに構成される、C1に記載の装置。
[C3]
前記処理システムが、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの少なくとも第2の領域を識別し、
前記識別された第2の領域の特性に基づいて、第3の選択された奥行き感知モジュールを使用して追加の奥行き感知を実行すべきかどうかを決定するようにさらに構成される、C2に記載の装置。
[C4]
前記処理システムが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することによって、前記第1の奥行きマップと前記第2の奥行きマップとを融合させるようにさらに構成される、C2に記載の装置。
[C5]
前記処理システムが前記複数の奥行き感知モジュールから前記第2の奥行き感知モジュールを選択するように構成されることが、前記FOVの以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知モジュールのうちの1つまたは複数の奥行き感知モジュールを識別するように前記処理システムが構成されることを備える、C2に記載の装置。
[C6]
前記処理システムが前記複数の奥行き感知モジュールのうちの第3の選択された奥行き感知モジュールを介して追加の奥行き感知を実行すべきかどうかを決定するように構成されることは、前記複数の奥行き感知モジュールのうちのいずれかの奥行き感知モジュールが前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように前記処理システムが構成されることを備える、C3に記載の装置。
[C7]
前記処理システムが前記複数の奥行き感知モジュールのうちの第2の選択された奥行き感知モジュールを介して追加の奥行き感知を実行すべきかどうかを決定するように構成されることが、前記複数の奥行き感知モジュールのうちのいずれかの奥行き感知モジュールが前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように前記処理システムが構成されることを備える、C1に記載の装置。
[C8]
前記第1の奥行き感知モジュールが、ステレオビジョン奥行き感知モジュール、構造化光奥行き感知モジュール、または陰影奥行き感知モジュールのうちの少なくとも1つから選択される、C1に記載の装置。
[C9]
前記ステレオビジョン奥行き感知モジュール、前記構造化光奥行き感知モジュール、および前記陰影奥行き感知モジュールが、前記イメージングデバイスのハードウェア構成要素を共有する、C8に記載の装置。
[C10]
前記第1の奥行き感知モジュールの前記選択が、前記イメージングデバイスにおける利用可能な記憶空間、前記イメージングデバイスの利用可能なバッテリ電力、利用可能な奥行き分解能、前記イメージングデバイスの環境、または前記イメージングデバイスによって取り込まれるべき光景のうちの少なくとも1つに基づく、C1に記載の装置。
[C11]
前記第1の奥行き感知モジュールの前記選択が、前記少なくとも1つの対象物の奥行き、前記少なくとも1つの対象物の環境、前記少なくとも1つの対象物のフレーム内の場所、または前記イメージングデバイスの特性に少なくとも部分的に基づく、C1に記載の装置。
[C12]
前記イメージングデバイスが、ステレオイメージングシステムを備え、前記光景の2つ以上の画像を取り込み、前記処理システムが、前記2つ以上の画像に視差整合を実行することによって第1の奥行き情報を感知するように構成される、C1に記載の装置。
[C13]
奥行きマップを生成する方法であって、
イメージングデバイスの視野を識別することと、前記イメージングデバイスが前記視野の少なくとも1つの画像を取り込むように構成される、
複数の奥行き感知方法から第1の奥行き感知方法を選択することと、
前記第1の選択された奥行き感知方法を使用して前記イメージングデバイスの前記視野の第1の奥行きを感知することと、
前記第1の選択された奥行き感知方法の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成することと、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別することと、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとを備える、方法。
[C14]
前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することと、
追加の奥行き感知が保証されるという前記決定に基づいて、前記第2の選択された奥行き感知方法を使用して前記イメージングデバイスに対する前記少なくとも1つの視野の第2の奥行きを感知することと、
前記第2の選択された奥行き感知方法の前記第2の感知された奥行きに基づいて前記少なくとも1つの視野の第2の奥行きマップを生成することと、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させることと、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別することと、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別することに基づいて、第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとをさらに備える、C12に記載の方法。
[C15]
前記第1の奥行きマップと前記第2の奥行きマップとを前記融合させることが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することを備える、C13に記載の方法。
[C16]
前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することが、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記複数の奥行き感知方法のうちの奥行き感知方法を識別することを備える、C13に記載の方法。
[C17]
前記第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、C13に記載の方法。
[C18]
前記第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、C12に記載の方法。
[C19]
前記第1の奥行き感知方法が、ステレオビジョン奥行き感知方法、構造化光奥行き感知方法、および陰影奥行き感知方法のうちの少なくとも1つから選択される、C12に記載の方法。
[C20]
前記ステレオビジョン奥行き感知方法、前記構造化光奥行き感知方法、および前記陰影奥行き感知方法が、前記イメージングデバイスのハードウェア構成要素を共有する、C18に記載の方法。
[C21]
前記第1の奥行き感知方法の前記選択が、前記イメージングデバイスにおける利用可能な記憶空間、前記イメージングデバイスの利用可能なバッテリ電力、利用可能な奥行き分解能、前記イメージングデバイスの環境、および前記イメージングデバイスによって取り込まれるべき光景のうちの少なくとも1つに基づく、C12に記載の方法。
[C22]
前記第1の奥行き感知方法の前記選択が、前記少なくとも1つの対象物の奥行き、前記少なくとも1つの対象物の環境、前記少なくとも1つの対象物のフレーム内の場所、または前記イメージングデバイスの特性に少なくとも部分的に基づく、C12に記載の方法。
[C23]
前記少なくとも1つの視野の前記奥行きを感知することが、前記識別された少なくとも1つの視野に視差整合を適用することを備え、前記イメージングデバイスがステレオ光学部品を備える、C12に記載の方法。
[C24]
奥行きマップを生成するための装置であって、
視野の画像を取り込むための手段と、
奥行きを感知するための複数の手段と、前記複数の奥行き感知手段の各々が前記視野の奥行きマップを生成するように構成される、
前記複数の奥行き感知手段から第1の奥行き感知手段を選択するための手段と、
前記第1の選択された奥行き感知手段を使用して前記画像取込み手段の前記視野の第1の奥行きを感知するための手段と、
前記第1の選択された奥行き感知手段の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成するための手段と、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別するための手段と、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、前記複数の奥行き感知手段うちの第2の選択された奥行き感知手段を介した追加の奥行き感知が保証されるかどうかを決定するための手段とを備える、装置。
[C25]
前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための手段と、
追加の奥行き感知が保証されているという前記決定に基づいて、前記第2の選択された奥行き感知手段を使用して前記画像取込み手段に対する前記視野の第2の奥行きを感知するための手段と、
前記第2の選択された奥行き感知モジュールの前記感知された第2の奥行きに基づいて前記視野の第2の奥行きマップを生成するための手段と、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させるための手段と、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別するための手段と、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別すること基づいて、第3の選択された奥行き感知モジュールを介した追加の奥行き感知が保証されるかどうかを決定するための手段とをさらに備える、C23に記載の装置。
[C26]
前記第1の奥行きマップと前記第2の奥行きマップとを融合させるための手段が、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成するように構成される、C24に記載の装置。
[C27]
前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための前記手段が、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知手段のうちの1つまたは複数の奥行き感知手段を識別するように構成される、C24に記載の装置。
[C28]
前記複数の奥行き感知手段のうちの前記第3の選択された奥行き感知手段を介した追加の奥行き感知がどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、C24に記載の装置。
[C29]
前記複数の奥行き感知手段のうちの前記第2の選択された奥行き感知手段を介した追加の奥行き感知が必要とされるかどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、C23に記載の装置。
[C30]
前記第1の奥行き感知手段が、ステレオ奥行き画像を取り込むための手段、構造化光奥行き画像を取り込むための手段、および陰影奥行き画像を取り込むための手段のうちの少なくとも1つから選択される、C23に記載の装置。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
奥行きマップを生成するための装置であって、
イメージングデバイスの視野(FOV)中の光景の少なくとも画像を取り込むように構成された前記イメージングデバイスと、
複数の奥行き感知モジュールと、前記奥行き感知モジュールの各々が前記光景の奥行きマップを生成するように構成される、
プロセッサを備える処理システムとを備え、前記処理システムが、
前記複数の奥行き感知モジュールから第1の奥行き感知モジュールを選択し、
前記第1の選択された奥行き感知モジュールおよび前記イメージングデバイスを使用して、前記イメージングデバイスのFOV中の前記光景の第1の奥行き情報を感知し、
前記第1の奥行き情報に基づいて第1の奥行きマップを生成し、前記第1の奥行きマップが前記光景の複数のポイントの奥行き測定値を備える、
1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの少なくとも1つの領域を識別し、
前記識別された少なくとも1つの領域の特性に基づいて、前記複数の奥行き感知モジュールのうちの第2の選択された奥行き感知モジュールを使用して追加の奥行き感知を実行すべきかどうかを決定するように構成される、装置。
[C2]
前記処理システムが、
追加の奥行き感知を実行するという決定に基づいて、前記複数の奥行き感知モジュールから前記第2の奥行き感知モジュールを選択し、
前記第2の選択された奥行き感知モジュールを使用して、前記イメージングデバイスの前記FOV中の前記光景の第2の奥行き情報を感知し、
前記第2の奥行き情報に基づいて第2の奥行きマップを生成し、
前記第1の奥行きマップと前記第2の奥行きマップの少なくとも一部を一緒に使用して融合奥行きマップを作り出す、前記融合奥行きマップが、1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの前記少なくとも1つの領域に対応する前記第2の奥行きマップの少なくとも一部を使用する、ようにさらに構成される、C1に記載の装置。
[C3]
前記処理システムが、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの少なくとも第2の領域を識別し、
前記識別された第2の領域の特性に基づいて、第3の選択された奥行き感知モジュールを使用して追加の奥行き感知を実行すべきかどうかを決定するようにさらに構成される、C2に記載の装置。
[C4]
前記処理システムが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することによって、前記第1の奥行きマップと前記第2の奥行きマップとを融合させるようにさらに構成される、C2に記載の装置。
[C5]
前記処理システムが前記複数の奥行き感知モジュールから前記第2の奥行き感知モジュールを選択するように構成されることが、前記FOVの以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知モジュールのうちの1つまたは複数の奥行き感知モジュールを識別するように前記処理システムが構成されることを備える、C2に記載の装置。
[C6]
前記処理システムが前記複数の奥行き感知モジュールのうちの第3の選択された奥行き感知モジュールを介して追加の奥行き感知を実行すべきかどうかを決定するように構成されることは、前記複数の奥行き感知モジュールのうちのいずれかの奥行き感知モジュールが前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように前記処理システムが構成されることを備える、C3に記載の装置。
[C7]
前記処理システムが前記複数の奥行き感知モジュールのうちの第2の選択された奥行き感知モジュールを介して追加の奥行き感知を実行すべきかどうかを決定するように構成されることが、前記複数の奥行き感知モジュールのうちのいずれかの奥行き感知モジュールが前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように前記処理システムが構成されることを備える、C1に記載の装置。
[C8]
前記第1の奥行き感知モジュールが、ステレオビジョン奥行き感知モジュール、構造化光奥行き感知モジュール、または陰影奥行き感知モジュールのうちの少なくとも1つから選択される、C1に記載の装置。
[C9]
前記ステレオビジョン奥行き感知モジュール、前記構造化光奥行き感知モジュール、および前記陰影奥行き感知モジュールが、前記イメージングデバイスのハードウェア構成要素を共有する、C8に記載の装置。
[C10]
前記第1の奥行き感知モジュールの前記選択が、前記イメージングデバイスにおける利用可能な記憶空間、前記イメージングデバイスの利用可能なバッテリ電力、利用可能な奥行き分解能、前記イメージングデバイスの環境、または前記イメージングデバイスによって取り込まれるべき光景のうちの少なくとも1つに基づく、C1に記載の装置。
[C11]
前記第1の奥行き感知モジュールの前記選択が、前記少なくとも1つの対象物の奥行き、前記少なくとも1つの対象物の環境、前記少なくとも1つの対象物のフレーム内の場所、または前記イメージングデバイスの特性に少なくとも部分的に基づく、C1に記載の装置。
[C12]
前記イメージングデバイスが、ステレオイメージングシステムを備え、前記光景の2つ以上の画像を取り込み、前記処理システムが、前記2つ以上の画像に視差整合を実行することによって第1の奥行き情報を感知するように構成される、C1に記載の装置。
[C13]
奥行きマップを生成する方法であって、
イメージングデバイスの視野を識別することと、前記イメージングデバイスが前記視野の少なくとも1つの画像を取り込むように構成される、
複数の奥行き感知方法から第1の奥行き感知方法を選択することと、
前記第1の選択された奥行き感知方法を使用して前記イメージングデバイスの前記視野の第1の奥行きを感知することと、
前記第1の選択された奥行き感知方法の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成することと、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別することと、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとを備える、方法。
[C14]
前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することと、
追加の奥行き感知が保証されるという前記決定に基づいて、前記第2の選択された奥行き感知方法を使用して前記イメージングデバイスに対する前記少なくとも1つの視野の第2の奥行きを感知することと、
前記第2の選択された奥行き感知方法の前記第2の感知された奥行きに基づいて前記少なくとも1つの視野の第2の奥行きマップを生成することと、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させることと、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別することと、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別することに基づいて、第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとをさらに備える、C12に記載の方法。
[C15]
前記第1の奥行きマップと前記第2の奥行きマップとを前記融合させることが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することを備える、C13に記載の方法。
[C16]
前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することが、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記複数の奥行き感知方法のうちの奥行き感知方法を識別することを備える、C13に記載の方法。
[C17]
前記第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、C13に記載の方法。
[C18]
前記第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、C12に記載の方法。
[C19]
前記第1の奥行き感知方法が、ステレオビジョン奥行き感知方法、構造化光奥行き感知方法、および陰影奥行き感知方法のうちの少なくとも1つから選択される、C12に記載の方法。
[C20]
前記ステレオビジョン奥行き感知方法、前記構造化光奥行き感知方法、および前記陰影奥行き感知方法が、前記イメージングデバイスのハードウェア構成要素を共有する、C18に記載の方法。
[C21]
前記第1の奥行き感知方法の前記選択が、前記イメージングデバイスにおける利用可能な記憶空間、前記イメージングデバイスの利用可能なバッテリ電力、利用可能な奥行き分解能、前記イメージングデバイスの環境、および前記イメージングデバイスによって取り込まれるべき光景のうちの少なくとも1つに基づく、C12に記載の方法。
[C22]
前記第1の奥行き感知方法の前記選択が、前記少なくとも1つの対象物の奥行き、前記少なくとも1つの対象物の環境、前記少なくとも1つの対象物のフレーム内の場所、または前記イメージングデバイスの特性に少なくとも部分的に基づく、C12に記載の方法。
[C23]
前記少なくとも1つの視野の前記奥行きを感知することが、前記識別された少なくとも1つの視野に視差整合を適用することを備え、前記イメージングデバイスがステレオ光学部品を備える、C12に記載の方法。
[C24]
奥行きマップを生成するための装置であって、
視野の画像を取り込むための手段と、
奥行きを感知するための複数の手段と、前記複数の奥行き感知手段の各々が前記視野の奥行きマップを生成するように構成される、
前記複数の奥行き感知手段から第1の奥行き感知手段を選択するための手段と、
前記第1の選択された奥行き感知手段を使用して前記画像取込み手段の前記視野の第1の奥行きを感知するための手段と、
前記第1の選択された奥行き感知手段の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成するための手段と、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別するための手段と、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、前記複数の奥行き感知手段うちの第2の選択された奥行き感知手段を介した追加の奥行き感知が保証されるかどうかを決定するための手段とを備える、装置。
[C25]
前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための手段と、
追加の奥行き感知が保証されているという前記決定に基づいて、前記第2の選択された奥行き感知手段を使用して前記画像取込み手段に対する前記視野の第2の奥行きを感知するための手段と、
前記第2の選択された奥行き感知モジュールの前記感知された第2の奥行きに基づいて前記視野の第2の奥行きマップを生成するための手段と、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させるための手段と、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別するための手段と、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別すること基づいて、第3の選択された奥行き感知モジュールを介した追加の奥行き感知が保証されるかどうかを決定するための手段とをさらに備える、C23に記載の装置。
[C26]
前記第1の奥行きマップと前記第2の奥行きマップとを融合させるための手段が、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成するように構成される、C24に記載の装置。
[C27]
前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための前記手段が、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知手段のうちの1つまたは複数の奥行き感知手段を識別するように構成される、C24に記載の装置。
[C28]
前記複数の奥行き感知手段のうちの前記第3の選択された奥行き感知手段を介した追加の奥行き感知がどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、C24に記載の装置。
[C29]
前記複数の奥行き感知手段のうちの前記第2の選択された奥行き感知手段を介した追加の奥行き感知が必要とされるかどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、C23に記載の装置。
[C30]
前記第1の奥行き感知手段が、ステレオ奥行き画像を取り込むための手段、構造化光奥行き画像を取り込むための手段、および陰影奥行き画像を取り込むための手段のうちの少なくとも1つから選択される、C23に記載の装置。
Claims (15)
- 奥行きマップを生成する方法であって、
イメージングデバイスの視野を識別することと、前記イメージングデバイスが前記視野の少なくとも1つの画像を取り込むように構成される、
複数の奥行き感知方法から第1の奥行き感知方法を選択することと、
前記第1の選択された奥行き感知方法を使用して前記イメージングデバイスの前記視野の第1の奥行きを感知することと、
前記第1の選択された奥行き感知方法の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成することと、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別することと、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとを備える、方法。 - 前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することと、
追加の奥行き感知が保証されるという前記決定に基づいて、前記第2の選択された奥行き感知方法を使用して前記イメージングデバイスに対する前記少なくとも1つの視野の第2の奥行きを感知することと、
前記第2の選択された奥行き感知方法の前記第2の感知された奥行きに基づいて前記少なくとも1つの視野の第2の奥行きマップを生成することと、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させることと、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別することと、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別することに基づいて、第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとをさらに備える、請求項1に記載の方法。 - 前記第1の奥行きマップと前記第2の奥行きマップとを前記融合させることが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することを備える、請求項2に記載の方法。
- 前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することが、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記複数の奥行き感知方法のうちの奥行き感知方法を識別することを備える、請求項2に記載の方法。
- 前記第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、請求項2に記載の方法。
- 前記第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、請求項1に記載の方法。
- 前記第1の奥行き感知方法が、ステレオビジョン奥行き感知方法、構造化光奥行き感知方法、および陰影奥行き感知方法のうちの少なくとも1つから選択される、請求項1に記載の方法。
- 前記第1の奥行き感知方法の前記選択が、
前記イメージングデバイスにおける利用可能な記憶空間、
前記イメージングデバイスの利用可能なバッテリ電力、
利用可能な奥行き分解能、
前記イメージングデバイスの環境、
前記イメージングデバイスによって取り込まれるべき光景、
前記少なくとも1つの対象物の奥行き、
前記少なくとも1つの対象物の環境、
前記少なくとも1つの対象物のフレーム内の場所、および、
前記イメージングデバイスの特性、
のうちの少なくとも1つに少なくとも部分的に基づく、請求項1に記載の方法。 - 前記少なくとも1つの視野の前記奥行きを感知することが、前記識別された少なくとも1つの視野に視差整合を適用することを備え、前記イメージングデバイスがステレオ光学部品を備える、請求項1に記載の方法。
- 奥行きマップを生成するための装置であって、
視野の画像を取り込むための手段と、
奥行きを感知するための複数の手段と、前記複数の奥行き感知手段の各々が前記視野の奥行きマップを生成するように構成される、
前記複数の奥行き感知手段から第1の奥行き感知手段を選択するための手段と、
前記第1の選択された奥行き感知手段を使用して前記画像取込み手段の前記視野の第1の奥行きを感知するための手段と、
前記第1の選択された奥行き感知手段の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成するための手段と、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別するための手段と、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、前記複数の奥行き感知手段うちの第2の選択された奥行き感知手段を介した追加の奥行き感知が保証されるかどうかを決定するための手段とを備える、装置。 - 前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための手段と、
追加の奥行き感知が保証されているという前記決定に基づいて、前記第2の選択された奥行き感知手段を使用して前記画像取込み手段に対する前記視野の第2の奥行きを感知するための手段と、
前記第2の選択された奥行き感知モジュールの前記感知された第2の奥行きに基づいて前記視野の第2の奥行きマップを生成するための手段と、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させるための手段と、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別するための手段と、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別すること基づいて、第3の選択された奥行き感知モジュールを介した追加の奥行き感知が保証されるかどうかを決定するための手段とをさらに備える、請求項10に記載の装置。 - 前記第1の奥行きマップと前記第2の奥行きマップとを融合させるための手段が、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成するように構成される、請求項11に記載の装置。
- 前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための前記手段が、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知手段のうちの1つまたは複数の奥行き感知手段を識別するように構成される、請求項11に記載の装置。
- 前記複数の奥行き感知手段のうちの前記第1の選択された奥行き感知手段および前記第2の選択された奥行き感知手段を介した追加の奥行き感知が必要とされるかどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段がそれぞれの前記融合奥行きマップまたは第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、請求項10または11に記載の装置。
- 前記第1の奥行き感知手段が、ステレオ奥行き画像を取り込むための手段、構造化光奥行き画像を取り込むための手段、および陰影奥行き画像を取り込むための手段のうちの少なくとも1つから選択される、請求項10に記載の装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021096659A JP2021170007A (ja) | 2015-01-20 | 2021-06-09 | 複数技術奥行きマップ取得および融合のための方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/601,073 US10404969B2 (en) | 2015-01-20 | 2015-01-20 | Method and apparatus for multiple technology depth map acquisition and fusion |
US14/601,073 | 2015-01-20 | ||
PCT/US2016/012069 WO2016118313A1 (en) | 2015-01-20 | 2016-01-04 | Method and apparatus for multiple technology depth map acquisition and fusion |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021096659A Division JP2021170007A (ja) | 2015-01-20 | 2021-06-09 | 複数技術奥行きマップ取得および融合のための方法および装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018510324A JP2018510324A (ja) | 2018-04-12 |
JP2018510324A5 true JP2018510324A5 (ja) | 2019-01-24 |
JP6946188B2 JP6946188B2 (ja) | 2021-10-06 |
Family
ID=55182612
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017537922A Active JP6946188B2 (ja) | 2015-01-20 | 2016-01-04 | 複数技術奥行きマップ取得および融合のための方法および装置 |
JP2021096659A Ceased JP2021170007A (ja) | 2015-01-20 | 2021-06-09 | 複数技術奥行きマップ取得および融合のための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021096659A Ceased JP2021170007A (ja) | 2015-01-20 | 2021-06-09 | 複数技術奥行きマップ取得および融合のための方法および装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10404969B2 (ja) |
EP (1) | EP3248374B1 (ja) |
JP (2) | JP6946188B2 (ja) |
KR (1) | KR102565513B1 (ja) |
CN (1) | CN107113415B (ja) |
BR (1) | BR112017015501A2 (ja) |
CA (1) | CA2969482C (ja) |
WO (1) | WO2016118313A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015159323A1 (en) * | 2014-04-17 | 2015-10-22 | Sony Corporation | Depth assisted scene recognition for a camera |
US10531071B2 (en) * | 2015-01-21 | 2020-01-07 | Nextvr Inc. | Methods and apparatus for environmental measurements and/or stereoscopic image capture |
JP2016142676A (ja) * | 2015-02-04 | 2016-08-08 | ソニー株式会社 | 情報処理装置と情報処理方法とプログラムおよび撮像装置 |
US9716876B2 (en) * | 2015-04-01 | 2017-07-25 | Sony Corporation | Power efficient multiple camera system |
US9872011B2 (en) * | 2015-11-24 | 2018-01-16 | Nokia Technologies Oy | High-speed depth sensing with a hybrid camera setup |
US10701244B2 (en) | 2016-09-30 | 2020-06-30 | Microsoft Technology Licensing, Llc | Recolorization of infrared image streams |
CN106525004A (zh) * | 2016-11-09 | 2017-03-22 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉系统及深度测量方法 |
US11042984B2 (en) * | 2016-11-10 | 2021-06-22 | Movea | Systems and methods for providing image depth information |
US10389948B2 (en) * | 2016-12-06 | 2019-08-20 | Qualcomm Incorporated | Depth-based zoom function using multiple cameras |
US10992847B2 (en) * | 2017-05-25 | 2021-04-27 | Eys3D Microelectronics, Co. | Image device for generating a 360 degree depth map |
TWI647661B (zh) * | 2017-08-10 | 2019-01-11 | 緯創資通股份有限公司 | 影像深度感測方法與影像深度感測裝置 |
WO2019044608A1 (ja) * | 2017-08-29 | 2019-03-07 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
WO2019061064A1 (zh) * | 2017-09-27 | 2019-04-04 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备 |
CN109870116B (zh) * | 2017-12-05 | 2021-08-03 | 光宝电子(广州)有限公司 | 深度成像装置及其驱动方法 |
US10798368B2 (en) * | 2018-03-13 | 2020-10-06 | Lyft, Inc. | Exposure coordination for multiple cameras |
US10958897B2 (en) * | 2018-04-02 | 2021-03-23 | Mediatek Inc. | Method and apparatus of depth fusion |
CN110349196B (zh) * | 2018-04-03 | 2024-03-29 | 联发科技股份有限公司 | 深度融合的方法和装置 |
CN108924408B (zh) * | 2018-06-15 | 2020-11-03 | 深圳奥比中光科技有限公司 | 一种深度成像方法及系统 |
CN108924407B (zh) * | 2018-06-15 | 2020-12-18 | 深圳奥比中光科技有限公司 | 一种深度成像方法及系统 |
CN111630524A (zh) * | 2018-07-12 | 2020-09-04 | 华为技术有限公司 | 测量物体参数的方法及装置 |
CN110442235B (zh) * | 2019-07-16 | 2023-05-23 | 广东虚拟现实科技有限公司 | 定位跟踪方法、装置、终端设备及计算机可读取存储介质 |
KR102552923B1 (ko) * | 2018-12-03 | 2023-07-10 | 삼성전자 주식회사 | 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치 |
KR102606824B1 (ko) * | 2018-12-14 | 2023-11-27 | 삼성전자주식회사 | 멀티 카메라를 포함하는 장치 및 이의 이미지 처리방법 |
US11151993B2 (en) * | 2018-12-28 | 2021-10-19 | Baidu Usa Llc | Activating voice commands of a smart display device based on a vision-based mechanism |
US10686980B1 (en) | 2019-01-22 | 2020-06-16 | Daqri, Llc | Systems and methods for generating composite depth images based on signals from an inertial sensor |
EP3895416A4 (en) * | 2019-03-27 | 2022-03-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | THREE-DIMENSIONAL LOCATION USING LIGHT DEPTH IMAGERY |
WO2020209491A1 (en) | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head-mounted display device and operating method of the same |
CN111829456A (zh) | 2019-04-19 | 2020-10-27 | 株式会社三丰 | 三维形状测定装置以及三维形状测定方法 |
US10867220B2 (en) | 2019-05-16 | 2020-12-15 | Rpx Corporation | Systems and methods for generating composite sets of data from different sensors |
US11763433B2 (en) | 2019-11-14 | 2023-09-19 | Samsung Electronics Co., Ltd. | Depth image generation method and device |
CN113141496A (zh) * | 2020-01-20 | 2021-07-20 | 北京芯海视界三维科技有限公司 | 3d拍摄方法、装置及3d显示终端 |
US11836940B2 (en) * | 2020-06-15 | 2023-12-05 | Zebra Technologies Corporation | Three-dimensional sensor acuity recovery assistance |
KR20220030007A (ko) | 2020-09-02 | 2022-03-10 | 삼성전자주식회사 | 이미지 생성 장치 및 방법 |
US11496660B2 (en) | 2020-09-04 | 2022-11-08 | Altek Semiconductor Corp. | Dual sensor imaging system and depth map calculation method thereof |
KR102609829B1 (ko) * | 2020-11-27 | 2023-12-04 | 연세대학교 산학협력단 | 생성적 적대 신경망을 이용한 스테레오 매칭 신뢰도 추정 장치 및 방법 |
CN112598711B (zh) * | 2020-12-25 | 2022-12-20 | 南京信息工程大学滨江学院 | 一种基于联合光谱降维和特征融合的高光谱目标跟踪方法 |
CN113902785B (zh) * | 2021-09-15 | 2022-04-15 | 珠海视熙科技有限公司 | 一种深度图像的处理方法、系统、装置及计算机存储介质 |
JP2023104131A (ja) * | 2022-01-17 | 2023-07-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5852672A (en) * | 1995-07-10 | 1998-12-22 | The Regents Of The University Of California | Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects |
US6084979A (en) * | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
JPH10243281A (ja) * | 1997-02-28 | 1998-09-11 | Canon Inc | 測距装置及び測距方法 |
JP2000105105A (ja) * | 1998-09-29 | 2000-04-11 | Junichi Takeno | 回転・移動視差を用いた虚像とオクリュ―ジョンの発見手法およびその手法を現実化するための機構 |
US6868191B2 (en) * | 2000-06-28 | 2005-03-15 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for median fusion of depth maps |
AU2002303082A1 (en) * | 2001-01-26 | 2002-09-12 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
JP2006107093A (ja) * | 2004-10-05 | 2006-04-20 | Konica Minolta Medical & Graphic Inc | 画像処理装置、およびプログラム |
US20110057930A1 (en) | 2006-07-26 | 2011-03-10 | Inneroptic Technology Inc. | System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy |
JP4452951B2 (ja) * | 2006-11-02 | 2010-04-21 | 富士フイルム株式会社 | 距離画像生成方法及びその装置 |
GB2447434A (en) * | 2007-02-09 | 2008-09-17 | Vodafone Plc | Restricting access to telecommunications networks based upon network conditions |
US20090322859A1 (en) * | 2008-03-20 | 2009-12-31 | Shelton Damion M | Method and System for 3D Imaging Using a Spacetime Coded Laser Projection System |
US8774512B2 (en) * | 2009-02-11 | 2014-07-08 | Thomson Licensing | Filling holes in depth maps |
US8164617B2 (en) * | 2009-03-25 | 2012-04-24 | Cisco Technology, Inc. | Combining views of a plurality of cameras for a video conferencing endpoint with a display wall |
KR20110124473A (ko) * | 2010-05-11 | 2011-11-17 | 삼성전자주식회사 | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 |
US8447098B1 (en) | 2010-08-20 | 2013-05-21 | Adobe Systems Incorporated | Model-based stereo matching |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US9066086B2 (en) | 2010-12-08 | 2015-06-23 | Industrial Technology Research Institute | Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same |
JP2012123296A (ja) * | 2010-12-10 | 2012-06-28 | Sanyo Electric Co Ltd | 電子機器 |
US8878950B2 (en) * | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
KR101210625B1 (ko) * | 2010-12-28 | 2012-12-11 | 주식회사 케이티 | 빈공간 채움 방법 및 이를 수행하는 3차원 비디오 시스템 |
EP2487504A1 (en) * | 2011-02-10 | 2012-08-15 | Technische Universität München | Method of enhanced depth image acquisition |
WO2013022401A2 (en) * | 2011-08-10 | 2013-02-14 | Telefonaktiebolaget L M Ericsson (Publ) | Method and apparatus for creating a disocclusion map used for coding a three-dimensional video |
WO2013025149A1 (en) * | 2011-08-15 | 2013-02-21 | Telefonaktiebolaget L M Ericsson (Publ) | Encoder, method in an encoder, decoder and method in a decoder for providing information concerning a spatial validity range |
EP2761534B1 (en) * | 2011-09-28 | 2020-11-18 | FotoNation Limited | Systems for encoding light field image files |
US9098908B2 (en) | 2011-10-21 | 2015-08-04 | Microsoft Technology Licensing, Llc | Generating a depth map |
US9161010B2 (en) | 2011-12-01 | 2015-10-13 | Sony Corporation | System and method for generating robust depth maps utilizing a multi-resolution procedure |
US9117295B2 (en) * | 2011-12-20 | 2015-08-25 | Adobe Systems Incorporated | Refinement of depth maps by fusion of multiple estimates |
JP2013156109A (ja) * | 2012-01-30 | 2013-08-15 | Hitachi Ltd | 距離計測装置 |
ITTO20120413A1 (it) * | 2012-05-08 | 2013-11-09 | Sisvel Technology Srl | Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione. |
US8633970B1 (en) * | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
CN104662897A (zh) * | 2012-09-25 | 2015-05-27 | 日本电信电话株式会社 | 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质 |
RU2012154657A (ru) | 2012-12-17 | 2014-06-27 | ЭлЭсАй Корпорейшн | Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной |
US20140363097A1 (en) * | 2013-06-06 | 2014-12-11 | Etron Technology, Inc. | Image capture system and operation method thereof |
DE102013110615B3 (de) * | 2013-09-26 | 2014-11-27 | Sick Ag | 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten |
TWI573433B (zh) * | 2014-04-30 | 2017-03-01 | 聚晶半導體股份有限公司 | 優化深度資訊的方法與裝置 |
-
2015
- 2015-01-20 US US14/601,073 patent/US10404969B2/en active Active
-
2016
- 2016-01-04 JP JP2017537922A patent/JP6946188B2/ja active Active
- 2016-01-04 BR BR112017015501A patent/BR112017015501A2/pt unknown
- 2016-01-04 KR KR1020177019335A patent/KR102565513B1/ko active IP Right Grant
- 2016-01-04 EP EP16701215.2A patent/EP3248374B1/en active Active
- 2016-01-04 CN CN201680004749.0A patent/CN107113415B/zh active Active
- 2016-01-04 WO PCT/US2016/012069 patent/WO2016118313A1/en active Application Filing
- 2016-01-04 CA CA2969482A patent/CA2969482C/en active Active
-
2021
- 2021-06-09 JP JP2021096659A patent/JP2021170007A/ja not_active Ceased
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018510324A5 (ja) | ||
JP5260705B2 (ja) | 3次元拡張現実提供装置 | |
EP3248374B1 (en) | Method and apparatus for multiple technology depth map acquisition and fusion | |
US10762649B2 (en) | Methods and systems for providing selective disparity refinement | |
US9727585B2 (en) | Image processing apparatus and method for controlling the same | |
US20140368615A1 (en) | Sensor fusion for depth estimation | |
TWI393980B (zh) | The method of calculating the depth of field and its method and the method of calculating the blurred state of the image | |
JP6304244B2 (ja) | 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム | |
US9424469B2 (en) | Differing region detection system and differing region detection method | |
CN105744138B (zh) | 快速对焦方法和电子设备 | |
US9100563B2 (en) | Apparatus, method and computer-readable medium imaging through at least one aperture of each pixel of display panel | |
WO2013149866A2 (en) | Method and device for transforming an image | |
JPWO2016208404A1 (ja) | 情報処理装置および方法、並びにプログラム | |
JP6027952B2 (ja) | 拡張現実画像生成システム、3次元形状データ生成装置、拡張現実提示装置、拡張現実画像生成方法、及びプログラム | |
KR101578891B1 (ko) | 패턴 인식을 이용한 영상 정보의 차원 일치 장치 및 방법 | |
TWI604221B (zh) | 影像景深測量方法以及應用該方法的影像擷取裝置 | |
JP2011095131A (ja) | 画像処理方法 | |
JP2009301242A (ja) | 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体 | |
JPWO2015129062A1 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2019022147A (ja) | 光源方向推定装置 | |
JP2009068935A (ja) | ステレオ計測装置、ステレオ計測方法、及び、ステレオ計測処理プログラム | |
US10360719B2 (en) | Method and apparatus for obtaining high-quality textures | |
JP6358084B2 (ja) | 画像処理装置 | |
JP2015005200A (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体 | |
JP2014010806A (ja) | 光源情報抽出装置、光源情報抽出方法、および光源情報抽出プログラム |