JP2018510324A5 - - Google Patents

Download PDF

Info

Publication number
JP2018510324A5
JP2018510324A5 JP2017537922A JP2017537922A JP2018510324A5 JP 2018510324 A5 JP2018510324 A5 JP 2018510324A5 JP 2017537922 A JP2017537922 A JP 2017537922A JP 2017537922 A JP2017537922 A JP 2017537922A JP 2018510324 A5 JP2018510324 A5 JP 2018510324A5
Authority
JP
Japan
Prior art keywords
depth
sensing
map
depth map
depth sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017537922A
Other languages
English (en)
Other versions
JP2018510324A (ja
JP6946188B2 (ja
Filing date
Publication date
Priority claimed from US14/601,073 external-priority patent/US10404969B2/en
Application filed filed Critical
Publication of JP2018510324A publication Critical patent/JP2018510324A/ja
Publication of JP2018510324A5 publication Critical patent/JP2018510324A5/ja
Priority to JP2021096659A priority Critical patent/JP2021170007A/ja
Application granted granted Critical
Publication of JP6946188B2 publication Critical patent/JP6946188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

[0076]前述は本開示の態様に関するが、本開示の他のおよびさらなる態様がその基本的な範囲から逸脱することなく考案され得、その範囲は以下の特許請求の範囲によって決定される。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
奥行きマップを生成するための装置であって、
イメージングデバイスの視野(FOV)中の光景の少なくとも画像を取り込むように構成された前記イメージングデバイスと、
複数の奥行き感知モジュールと、前記奥行き感知モジュールの各々が前記光景の奥行きマップを生成するように構成される、
プロセッサを備える処理システムとを備え、前記処理システムが、
前記複数の奥行き感知モジュールから第1の奥行き感知モジュールを選択し、
前記第1の選択された奥行き感知モジュールおよび前記イメージングデバイスを使用して、前記イメージングデバイスのFOV中の前記光景の第1の奥行き情報を感知し、
前記第1の奥行き情報に基づいて第1の奥行きマップを生成し、前記第1の奥行きマップが前記光景の複数のポイントの奥行き測定値を備える、
1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの少なくとも1つの領域を識別し、
前記識別された少なくとも1つの領域の特性に基づいて、前記複数の奥行き感知モジュールのうちの第2の選択された奥行き感知モジュールを使用して追加の奥行き感知を実行すべきかどうかを決定するように構成される、装置。
[C2]
前記処理システムが、
追加の奥行き感知を実行するという決定に基づいて、前記複数の奥行き感知モジュールから前記第2の奥行き感知モジュールを選択し、
前記第2の選択された奥行き感知モジュールを使用して、前記イメージングデバイスの前記FOV中の前記光景の第2の奥行き情報を感知し、
前記第2の奥行き情報に基づいて第2の奥行きマップを生成し、

前記第1の奥行きマップと前記第2の奥行きマップの少なくとも一部を一緒に使用して融合奥行きマップを作り出す、前記融合奥行きマップが、1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの前記少なくとも1つの領域に対応する前記第2の奥行きマップの少なくとも一部を使用する、ようにさらに構成される、C1に記載の装置。
[C3]
前記処理システムが、
1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの少なくとも第2の領域を識別し、
前記識別された第2の領域の特性に基づいて、第3の選択された奥行き感知モジュールを使用して追加の奥行き感知を実行すべきかどうかを決定するようにさらに構成される、C2に記載の装置。
[C4]
前記処理システムが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することによって、前記第1の奥行きマップと前記第2の奥行きマップとを融合させるようにさらに構成される、C2に記載の装置。
[C5]
前記処理システムが前記複数の奥行き感知モジュールから前記第2の奥行き感知モジュールを選択するように構成されることが、前記FOVの以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知モジュールのうちの1つまたは複数の奥行き感知モジュールを識別するように前記処理システムが構成されることを備える、C2に記載の装置。
[C6]
前記処理システムが前記複数の奥行き感知モジュールのうちの第3の選択された奥行き感知モジュールを介して追加の奥行き感知を実行すべきかどうかを決定するように構成されることは、前記複数の奥行き感知モジュールのうちのいずれかの奥行き感知モジュールが前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように前記処理システムが構成されることを備える、C3に記載の装置。
[C7]
前記処理システムが前記複数の奥行き感知モジュールのうちの第2の選択された奥行き感知モジュールを介して追加の奥行き感知を実行すべきかどうかを決定するように構成されることが、前記複数の奥行き感知モジュールのうちのいずれかの奥行き感知モジュールが前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように前記処理システムが構成されることを備える、C1に記載の装置。
[C8]
前記第1の奥行き感知モジュールが、ステレオビジョン奥行き感知モジュール、構造化光奥行き感知モジュール、または陰影奥行き感知モジュールのうちの少なくとも1つから選択される、C1に記載の装置。
[C9]
前記ステレオビジョン奥行き感知モジュール、前記構造化光奥行き感知モジュール、および前記陰影奥行き感知モジュールが、前記イメージングデバイスのハードウェア構成要素を共有する、C8に記載の装置。
[C10]
前記第1の奥行き感知モジュールの前記選択が、前記イメージングデバイスにおける利用可能な記憶空間、前記イメージングデバイスの利用可能なバッテリ電力、利用可能な奥行き分解能、前記イメージングデバイスの環境、または前記イメージングデバイスによって取り込まれるべき光景のうちの少なくとも1つに基づく、C1に記載の装置。
[C11]
前記第1の奥行き感知モジュールの前記選択が、前記少なくとも1つの対象物の奥行き、前記少なくとも1つの対象物の環境、前記少なくとも1つの対象物のフレーム内の場所、または前記イメージングデバイスの特性に少なくとも部分的に基づく、C1に記載の装置。
[C12]
前記イメージングデバイスが、ステレオイメージングシステムを備え、前記光景の2つ以上の画像を取り込み、前記処理システムが、前記2つ以上の画像に視差整合を実行することによって第1の奥行き情報を感知するように構成される、C1に記載の装置。
[C13]
奥行きマップを生成する方法であって、
イメージングデバイスの視野を識別することと、前記イメージングデバイスが前記視野の少なくとも1つの画像を取り込むように構成される、
複数の奥行き感知方法から第1の奥行き感知方法を選択することと、
前記第1の選択された奥行き感知方法を使用して前記イメージングデバイスの前記視野の第1の奥行きを感知することと、
前記第1の選択された奥行き感知方法の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成することと、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別することと、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとを備える、方法。
[C14]
前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することと、
追加の奥行き感知が保証されるという前記決定に基づいて、前記第2の選択された奥行き感知方法を使用して前記イメージングデバイスに対する前記少なくとも1つの視野の第2の奥行きを感知することと、
前記第2の選択された奥行き感知方法の前記第2の感知された奥行きに基づいて前記少なくとも1つの視野の第2の奥行きマップを生成することと、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させることと、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別することと、

1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別することに基づいて、第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとをさらに備える、C12に記載の方法。
[C15]
前記第1の奥行きマップと前記第2の奥行きマップとを前記融合させることが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することを備える、C13に記載の方法。
[C16]
前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することが、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記複数の奥行き感知方法のうちの奥行き感知方法を識別することを備える、C13に記載の方法。
[C17]
前記第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、C13に記載の方法。
[C18]
前記第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、C12に記載の方法。
[C19]
前記第1の奥行き感知方法が、ステレオビジョン奥行き感知方法、構造化光奥行き感知方法、および陰影奥行き感知方法のうちの少なくとも1つから選択される、C12に記載の方法。
[C20]
前記ステレオビジョン奥行き感知方法、前記構造化光奥行き感知方法、および前記陰影奥行き感知方法が、前記イメージングデバイスのハードウェア構成要素を共有する、C18に記載の方法。
[C21]
前記第1の奥行き感知方法の前記選択が、前記イメージングデバイスにおける利用可能な記憶空間、前記イメージングデバイスの利用可能なバッテリ電力、利用可能な奥行き分解能、前記イメージングデバイスの環境、および前記イメージングデバイスによって取り込まれるべき光景のうちの少なくとも1つに基づく、C12に記載の方法。
[C22]
前記第1の奥行き感知方法の前記選択が、前記少なくとも1つの対象物の奥行き、前記少なくとも1つの対象物の環境、前記少なくとも1つの対象物のフレーム内の場所、または前記イメージングデバイスの特性に少なくとも部分的に基づく、C12に記載の方法。
[C23]
前記少なくとも1つの視野の前記奥行きを感知することが、前記識別された少なくとも1つの視野に視差整合を適用することを備え、前記イメージングデバイスがステレオ光学部品を備える、C12に記載の方法。
[C24]
奥行きマップを生成するための装置であって、
視野の画像を取り込むための手段と、
奥行きを感知するための複数の手段と、前記複数の奥行き感知手段の各々が前記視野の奥行きマップを生成するように構成される、
前記複数の奥行き感知手段から第1の奥行き感知手段を選択するための手段と、
前記第1の選択された奥行き感知手段を使用して前記画像取込み手段の前記視野の第1の奥行きを感知するための手段と、
前記第1の選択された奥行き感知手段の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成するための手段と、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別するための手段と、
1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、前記複数の奥行き感知手段うちの第2の選択された奥行き感知手段を介した追加の奥行き感知が保証されるかどうかを決定するための手段とを備える、装置。
[C25]
前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための手段と、
追加の奥行き感知が保証されているという前記決定に基づいて、前記第2の選択された奥行き感知手段を使用して前記画像取込み手段に対する前記視野の第2の奥行きを感知するための手段と、
前記第2の選択された奥行き感知モジュールの前記感知された第2の奥行きに基づいて前記視野の第2の奥行きマップを生成するための手段と、
融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させるための手段と、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別するための手段と、

1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別すること基づいて、第3の選択された奥行き感知モジュールを介した追加の奥行き感知が保証されるかどうかを決定するための手段とをさらに備える、C23に記載の装置。
[C26]
前記第1の奥行きマップと前記第2の奥行きマップとを融合させるための手段が、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成するように構成される、C24に記載の装置。
[C27]
前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための前記手段が、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知手段のうちの1つまたは複数の奥行き感知手段を識別するように構成される、C24に記載の装置。
[C28]
前記複数の奥行き感知手段のうちの前記第3の選択された奥行き感知手段を介した追加の奥行き感知がどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、C24に記載の装置。
[C29]
前記複数の奥行き感知手段のうちの前記第2の選択された奥行き感知手段を介した追加の奥行き感知が必要とされるかどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、C23に記載の装置。
[C30]
前記第1の奥行き感知手段が、ステレオ奥行き画像を取り込むための手段、構造化光奥行き画像を取り込むための手段、および陰影奥行き画像を取り込むための手段のうちの少なくとも1つから選択される、C23に記載の装置。

Claims (15)

  1. 奥行きマップを生成する方法であって、
    イメージングデバイスの視野を識別することと、前記イメージングデバイスが前記視野の少なくとも1つの画像を取り込むように構成される、
    複数の奥行き感知方法から第1の奥行き感知方法を選択することと、
    前記第1の選択された奥行き感知方法を使用して前記イメージングデバイスの前記視野の第1の奥行きを感知することと、
    前記第1の選択された奥行き感知方法の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成することと、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
    前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別することと、
    1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとを備える、方法。
  2. 前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することと、
    追加の奥行き感知が保証されるという前記決定に基づいて、前記第2の選択された奥行き感知方法を使用して前記イメージングデバイスに対する前記少なくとも1つの視野の第2の奥行きを感知することと、
    前記第2の選択された奥行き感知方法の前記第2の感知された奥行きに基づいて前記少なくとも1つの視野の第2の奥行きマップを生成することと、
    融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させることと、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
    前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別することと、
    1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別することに基づいて、第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することとをさらに備える、請求項に記載の方法。
  3. 前記第1の奥行きマップと前記第2の奥行きマップとを前記融合させることが、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成することを備える、請求項に記載の方法。
  4. 前記複数の奥行き感知方法から前記第2の奥行き感知方法を選択することが、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記複数の奥行き感知方法のうちの奥行き感知方法を識別することを備える、請求項に記載の方法。
  5. 前記第3の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記融合奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、請求項に記載の方法。
  6. 前記第2の選択された奥行き感知方法を介した追加の奥行き感知が保証されるかどうかを決定することは、前記複数の奥行き感知方法のうちのいずれかの奥行き感知方法が前記第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定することを備える、請求項に記載の方法。
  7. 前記第1の奥行き感知方法が、ステレオビジョン奥行き感知方法、構造化光奥行き感知方法、および陰影奥行き感知方法のうちの少なくとも1つから選択される、請求項に記載の方法。
  8. 前記第1の奥行き感知方法の前記選択が、
    前記イメージングデバイスにおける利用可能な記憶空間、
    前記イメージングデバイスの利用可能なバッテリ電力、
    利用可能な奥行き分解能、
    前記イメージングデバイスの環境、
    前記イメージングデバイスによって取り込まれるべき光景
    前記少なくとも1つの対象物の奥行き、
    前記少なくとも1つの対象物の環境、
    前記少なくとも1つの対象物のフレーム内の場所、および、
    前記イメージングデバイスの特性、
    のうちの少なくとも1つに少なくとも部分的に基づく、請求項に記載の方法。
  9. 前記少なくとも1つの視野の前記奥行きを感知することが、前記識別された少なくとも1つの視野に視差整合を適用することを備え、前記イメージングデバイスがステレオ光学部品を備える、請求項に記載の方法。
  10. 奥行きマップを生成するための装置であって、
    視野の画像を取り込むための手段と、
    奥行きを感知するための複数の手段と、前記複数の奥行き感知手段の各々が前記視野の奥行きマップを生成するように構成される、
    前記複数の奥行き感知手段から第1の奥行き感知手段を選択するための手段と、
    前記第1の選択された奥行き感知手段を使用して前記画像取込み手段の前記視野の第1の奥行きを感知するための手段と、
    前記第1の選択された奥行き感知手段の前記第1の感知された奥行きに基づいて前記視野の第1の奥行きマップを生成するための手段と、前記第1の奥行きマップが前記視野のすべてのポイントの奥行き測定値を備える、
    前記第1の奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記第1の奥行きマップの1つまたは複数のポイントの領域を識別するための手段と、
    1つまたは複数の不正確な奥行き測定値を有する1つまたは複数のポイントを有する前記領域を前記識別することに基づいて、前記複数の奥行き感知手段うちの第2の選択された奥行き感知手段を介した追加の奥行き感知が保証されるかどうかを決定するための手段とを備える、装置。
  11. 前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための手段と、
    追加の奥行き感知が保証されているという前記決定に基づいて、前記第2の選択された奥行き感知手段を使用して前記画像取込み手段に対する前記視野の第2の奥行きを感知するための手段と、
    前記第2の選択された奥行き感知モジュールの前記感知された第2の奥行きに基づいて前記視野の第2の奥行きマップを生成するための手段と、
    融合奥行きマップを作り出すために前記第1の奥行きマップと前記第2の奥行きマップとを一緒に融合させるための手段と、前記融合奥行きマップが、前記第1の奥行きマップおよび前記第2の奥行きマップの各々よりも少ない数の信頼できない領域を有するように構成される、
    前記融合奥行きマップにおいて1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの第2の領域を識別するための手段と、
    1つまたは複数の不正確な奥行き測定値を有する前記融合奥行きマップの1つまたは複数のポイントの前記第2の領域を前記識別すること基づいて、第3の選択された奥行き感知モジュールを介した追加の奥行き感知が保証されるかどうかを決定するための手段とをさらに備える、請求項10に記載の装置。
  12. 前記第1の奥行きマップと前記第2の奥行きマップとを融合させるための手段が、前記第1の奥行きマップと前記第2の奥行きマップとの空間依存融合を生成するように構成される、請求項11に記載の装置。
  13. 前記複数の奥行き感知手段から前記第2の奥行き感知手段を選択するための前記手段が、前記少なくとも1つの視野の以前に取り込まれたフレームのレビューに基づいて、前記第1の奥行きマップの前記奥行き測定値を改善しないことになる前記複数の奥行き感知手段のうちの1つまたは複数の奥行き感知手段を識別するように構成される、請求項11に記載の装置。
  14. 前記複数の奥行き感知手段のうちの前記第1の選択された奥行き感知手段および前記第2の選択された奥行き感知手段を介した追加の奥行き感知が必要とされるかどうかを決定するための前記手段が、前記複数の奥行き感知手段のうちのいずれかの奥行き感知手段がそれぞれの前記融合奥行きマップまたは第1の奥行きマップの前記奥行き測定値よりも良好な奥行き測定値を提供することになるかどうかを決定するように構成される、請求項10または11に記載の装置。
  15. 前記第1の奥行き感知手段が、ステレオ奥行き画像を取り込むための手段、構造化光奥行き画像を取り込むための手段、および陰影奥行き画像を取り込むための手段のうちの少なくとも1つから選択される、請求項10に記載の装置。
JP2017537922A 2015-01-20 2016-01-04 複数技術奥行きマップ取得および融合のための方法および装置 Active JP6946188B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021096659A JP2021170007A (ja) 2015-01-20 2021-06-09 複数技術奥行きマップ取得および融合のための方法および装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/601,073 US10404969B2 (en) 2015-01-20 2015-01-20 Method and apparatus for multiple technology depth map acquisition and fusion
US14/601,073 2015-01-20
PCT/US2016/012069 WO2016118313A1 (en) 2015-01-20 2016-01-04 Method and apparatus for multiple technology depth map acquisition and fusion

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021096659A Division JP2021170007A (ja) 2015-01-20 2021-06-09 複数技術奥行きマップ取得および融合のための方法および装置

Publications (3)

Publication Number Publication Date
JP2018510324A JP2018510324A (ja) 2018-04-12
JP2018510324A5 true JP2018510324A5 (ja) 2019-01-24
JP6946188B2 JP6946188B2 (ja) 2021-10-06

Family

ID=55182612

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017537922A Active JP6946188B2 (ja) 2015-01-20 2016-01-04 複数技術奥行きマップ取得および融合のための方法および装置
JP2021096659A Ceased JP2021170007A (ja) 2015-01-20 2021-06-09 複数技術奥行きマップ取得および融合のための方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021096659A Ceased JP2021170007A (ja) 2015-01-20 2021-06-09 複数技術奥行きマップ取得および融合のための方法および装置

Country Status (8)

Country Link
US (1) US10404969B2 (ja)
EP (1) EP3248374B1 (ja)
JP (2) JP6946188B2 (ja)
KR (1) KR102565513B1 (ja)
CN (1) CN107113415B (ja)
BR (1) BR112017015501A2 (ja)
CA (1) CA2969482C (ja)
WO (1) WO2016118313A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159323A1 (en) * 2014-04-17 2015-10-22 Sony Corporation Depth assisted scene recognition for a camera
US10531071B2 (en) * 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
JP2016142676A (ja) * 2015-02-04 2016-08-08 ソニー株式会社 情報処理装置と情報処理方法とプログラムおよび撮像装置
US9716876B2 (en) * 2015-04-01 2017-07-25 Sony Corporation Power efficient multiple camera system
US9872011B2 (en) * 2015-11-24 2018-01-16 Nokia Technologies Oy High-speed depth sensing with a hybrid camera setup
US10701244B2 (en) 2016-09-30 2020-06-30 Microsoft Technology Licensing, Llc Recolorization of infrared image streams
CN106525004A (zh) * 2016-11-09 2017-03-22 人加智能机器人技术(北京)有限公司 双目立体视觉系统及深度测量方法
US11042984B2 (en) * 2016-11-10 2021-06-22 Movea Systems and methods for providing image depth information
US10389948B2 (en) * 2016-12-06 2019-08-20 Qualcomm Incorporated Depth-based zoom function using multiple cameras
US10992847B2 (en) * 2017-05-25 2021-04-27 Eys3D Microelectronics, Co. Image device for generating a 360 degree depth map
TWI647661B (zh) * 2017-08-10 2019-01-11 緯創資通股份有限公司 影像深度感測方法與影像深度感測裝置
WO2019044608A1 (ja) * 2017-08-29 2019-03-07 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
WO2019061064A1 (zh) * 2017-09-27 2019-04-04 深圳市大疆创新科技有限公司 图像处理方法和设备
CN109870116B (zh) * 2017-12-05 2021-08-03 光宝电子(广州)有限公司 深度成像装置及其驱动方法
US10798368B2 (en) * 2018-03-13 2020-10-06 Lyft, Inc. Exposure coordination for multiple cameras
US10958897B2 (en) * 2018-04-02 2021-03-23 Mediatek Inc. Method and apparatus of depth fusion
CN110349196B (zh) * 2018-04-03 2024-03-29 联发科技股份有限公司 深度融合的方法和装置
CN108924408B (zh) * 2018-06-15 2020-11-03 深圳奥比中光科技有限公司 一种深度成像方法及系统
CN108924407B (zh) * 2018-06-15 2020-12-18 深圳奥比中光科技有限公司 一种深度成像方法及系统
CN111630524A (zh) * 2018-07-12 2020-09-04 华为技术有限公司 测量物体参数的方法及装置
CN110442235B (zh) * 2019-07-16 2023-05-23 广东虚拟现实科技有限公司 定位跟踪方法、装置、终端设备及计算机可读取存储介质
KR102552923B1 (ko) * 2018-12-03 2023-07-10 삼성전자 주식회사 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치
KR102606824B1 (ko) * 2018-12-14 2023-11-27 삼성전자주식회사 멀티 카메라를 포함하는 장치 및 이의 이미지 처리방법
US11151993B2 (en) * 2018-12-28 2021-10-19 Baidu Usa Llc Activating voice commands of a smart display device based on a vision-based mechanism
US10686980B1 (en) 2019-01-22 2020-06-16 Daqri, Llc Systems and methods for generating composite depth images based on signals from an inertial sensor
EP3895416A4 (en) * 2019-03-27 2022-03-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. THREE-DIMENSIONAL LOCATION USING LIGHT DEPTH IMAGERY
WO2020209491A1 (en) 2019-04-11 2020-10-15 Samsung Electronics Co., Ltd. Head-mounted display device and operating method of the same
CN111829456A (zh) 2019-04-19 2020-10-27 株式会社三丰 三维形状测定装置以及三维形状测定方法
US10867220B2 (en) 2019-05-16 2020-12-15 Rpx Corporation Systems and methods for generating composite sets of data from different sensors
US11763433B2 (en) 2019-11-14 2023-09-19 Samsung Electronics Co., Ltd. Depth image generation method and device
CN113141496A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 3d拍摄方法、装置及3d显示终端
US11836940B2 (en) * 2020-06-15 2023-12-05 Zebra Technologies Corporation Three-dimensional sensor acuity recovery assistance
KR20220030007A (ko) 2020-09-02 2022-03-10 삼성전자주식회사 이미지 생성 장치 및 방법
US11496660B2 (en) 2020-09-04 2022-11-08 Altek Semiconductor Corp. Dual sensor imaging system and depth map calculation method thereof
KR102609829B1 (ko) * 2020-11-27 2023-12-04 연세대학교 산학협력단 생성적 적대 신경망을 이용한 스테레오 매칭 신뢰도 추정 장치 및 방법
CN112598711B (zh) * 2020-12-25 2022-12-20 南京信息工程大学滨江学院 一种基于联合光谱降维和特征融合的高光谱目标跟踪方法
CN113902785B (zh) * 2021-09-15 2022-04-15 珠海视熙科技有限公司 一种深度图像的处理方法、系统、装置及计算机存储介质
JP2023104131A (ja) * 2022-01-17 2023-07-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
JPH10243281A (ja) * 1997-02-28 1998-09-11 Canon Inc 測距装置及び測距方法
JP2000105105A (ja) * 1998-09-29 2000-04-11 Junichi Takeno 回転・移動視差を用いた虚像とオクリュ―ジョンの発見手法およびその手法を現実化するための機構
US6868191B2 (en) * 2000-06-28 2005-03-15 Telefonaktiebolaget Lm Ericsson (Publ) System and method for median fusion of depth maps
AU2002303082A1 (en) * 2001-01-26 2002-09-12 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
JP2006107093A (ja) * 2004-10-05 2006-04-20 Konica Minolta Medical & Graphic Inc 画像処理装置、およびプログラム
US20110057930A1 (en) 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
JP4452951B2 (ja) * 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
GB2447434A (en) * 2007-02-09 2008-09-17 Vodafone Plc Restricting access to telecommunications networks based upon network conditions
US20090322859A1 (en) * 2008-03-20 2009-12-31 Shelton Damion M Method and System for 3D Imaging Using a Spacetime Coded Laser Projection System
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
US8164617B2 (en) * 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
KR20110124473A (ko) * 2010-05-11 2011-11-17 삼성전자주식회사 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법
US8447098B1 (en) 2010-08-20 2013-05-21 Adobe Systems Incorporated Model-based stereo matching
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9066086B2 (en) 2010-12-08 2015-06-23 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
JP2012123296A (ja) * 2010-12-10 2012-06-28 Sanyo Electric Co Ltd 電子機器
US8878950B2 (en) * 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
KR101210625B1 (ko) * 2010-12-28 2012-12-11 주식회사 케이티 빈공간 채움 방법 및 이를 수행하는 3차원 비디오 시스템
EP2487504A1 (en) * 2011-02-10 2012-08-15 Technische Universität München Method of enhanced depth image acquisition
WO2013022401A2 (en) * 2011-08-10 2013-02-14 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for creating a disocclusion map used for coding a three-dimensional video
WO2013025149A1 (en) * 2011-08-15 2013-02-21 Telefonaktiebolaget L M Ericsson (Publ) Encoder, method in an encoder, decoder and method in a decoder for providing information concerning a spatial validity range
EP2761534B1 (en) * 2011-09-28 2020-11-18 FotoNation Limited Systems for encoding light field image files
US9098908B2 (en) 2011-10-21 2015-08-04 Microsoft Technology Licensing, Llc Generating a depth map
US9161010B2 (en) 2011-12-01 2015-10-13 Sony Corporation System and method for generating robust depth maps utilizing a multi-resolution procedure
US9117295B2 (en) * 2011-12-20 2015-08-25 Adobe Systems Incorporated Refinement of depth maps by fusion of multiple estimates
JP2013156109A (ja) * 2012-01-30 2013-08-15 Hitachi Ltd 距離計測装置
ITTO20120413A1 (it) * 2012-05-08 2013-11-09 Sisvel Technology Srl Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione.
US8633970B1 (en) * 2012-08-30 2014-01-21 Google Inc. Augmented reality with earth data
CN104662897A (zh) * 2012-09-25 2015-05-27 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质
RU2012154657A (ru) 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
US20140363097A1 (en) * 2013-06-06 2014-12-11 Etron Technology, Inc. Image capture system and operation method thereof
DE102013110615B3 (de) * 2013-09-26 2014-11-27 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
TWI573433B (zh) * 2014-04-30 2017-03-01 聚晶半導體股份有限公司 優化深度資訊的方法與裝置

Similar Documents

Publication Publication Date Title
JP2018510324A5 (ja)
JP5260705B2 (ja) 3次元拡張現実提供装置
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
US10762649B2 (en) Methods and systems for providing selective disparity refinement
US9727585B2 (en) Image processing apparatus and method for controlling the same
US20140368615A1 (en) Sensor fusion for depth estimation
TWI393980B (zh) The method of calculating the depth of field and its method and the method of calculating the blurred state of the image
JP6304244B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
US9424469B2 (en) Differing region detection system and differing region detection method
CN105744138B (zh) 快速对焦方法和电子设备
US9100563B2 (en) Apparatus, method and computer-readable medium imaging through at least one aperture of each pixel of display panel
WO2013149866A2 (en) Method and device for transforming an image
JPWO2016208404A1 (ja) 情報処理装置および方法、並びにプログラム
JP6027952B2 (ja) 拡張現実画像生成システム、3次元形状データ生成装置、拡張現実提示装置、拡張現実画像生成方法、及びプログラム
KR101578891B1 (ko) 패턴 인식을 이용한 영상 정보의 차원 일치 장치 및 방법
TWI604221B (zh) 影像景深測量方法以及應用該方法的影像擷取裝置
JP2011095131A (ja) 画像処理方法
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JPWO2015129062A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2019022147A (ja) 光源方向推定装置
JP2009068935A (ja) ステレオ計測装置、ステレオ計測方法、及び、ステレオ計測処理プログラム
US10360719B2 (en) Method and apparatus for obtaining high-quality textures
JP6358084B2 (ja) 画像処理装置
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
JP2014010806A (ja) 光源情報抽出装置、光源情報抽出方法、および光源情報抽出プログラム