JP2018534699A - 誤りのある深度情報を補正するためのシステムおよび方法 - Google Patents

誤りのある深度情報を補正するためのシステムおよび方法 Download PDF

Info

Publication number
JP2018534699A
JP2018534699A JP2018526143A JP2018526143A JP2018534699A JP 2018534699 A JP2018534699 A JP 2018534699A JP 2018526143 A JP2018526143 A JP 2018526143A JP 2018526143 A JP2018526143 A JP 2018526143A JP 2018534699 A JP2018534699 A JP 2018534699A
Authority
JP
Japan
Prior art keywords
depth
information
depth map
map
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018526143A
Other languages
English (en)
Other versions
JP2018534699A5 (ja
Inventor
リンドナー、アルブレヒト・ヨハネス
アタナソフ、カリン・ミトコフ
ベラール、スティーブン・マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018534699A publication Critical patent/JP2018534699A/ja
Publication of JP2018534699A5 publication Critical patent/JP2018534699A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

補正された深度マップを生成するための電子デバイスが説明される。電子デバイスは、プロセッサを含む。プロセッサは、第1の深度マップを取得するように構成される。第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を含む。プロセッサはまた、第2の深度マップも取得するように構成される。第2の深度マップは、第2のサンプリングで深度センサによってサンプリングされたシーンの第2の部分の第2の深度情報を含む。プロセッサは、第1のサンプリングと第2のサンプリングとの間の深度センサの変位を示す変位情報を取得するようにさらに構成される。プロセッサはまた、第1の深度情報、第2の深度情報、および変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成するように構成される。

Description

[0001] 本開示は一般に、電子デバイスに関する。より具体的には、本開示は、誤りのある深度情報を補正するためのシステムおよび方法に関する。
[0002] 過去数10年間で、電子デバイスの使用は一般的となった。特に、電子技術の進歩は、ますます複雑化し有用性を増している電子デバイスのコストを削減してきた。コストの削減および消費者の需要は、電子デバイスが現在の社会において事実上ユビキタスになるほどに電子デバイスの使用を急増させた。電子デバイスの使用が拡大するにつれ、電子デバイスの新しい改善された特徴に対する需要も拡大した。より詳細には、新しい機能を実行する、および/またはより迅速に、より効率的に、またはより高い品質で機能を実行する電子デバイスが、しばしば求められている。
[0003] 深度(Depth)は、3次元(3D)空間の構成要素である。例えば、深度は、3D空間中の2点間の距離として表され得る。実世界の状況では、電子デバイスで深度を正確に測定しようと試みると、多くの問題が発生する。
[0004] 特に、動きおよび測定の機能停止(outages)は、深度測定を損なわせ(corrupt)、不正確なおよび/または無駄な深度測定をもたらし得る。この考察からわかるように、深度測定を改善することは有益であり得る。
[0005] 補正された深度マップを生成するための電子デバイスが説明される。電子デバイスは、深度センサを含む。電子デバイスはまた、深度センサに結合された動きセンサを含む。動きセンサは、動き情報を決定するように構成される。電子デバイスは、深度センサおよび動きセンサに結合されたプロセッサをさらに含む。プロセッサは、第1の深度マップを取得するように構成される。第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を含む。プロセッサはまた、第2の深度マップも取得するように構成される。第2の深度マップは、第2のサンプリングで深度センサによってサンプリングされたシーンの第2の部分の第2の深度情報を含む。プロセッサは、動き情報に基づいて、第1のサンプリングと第2のサンプリングとの間の深度センサの変位を示す変位情報を取得するようにさらに構成される。プロセッサは、第1の深度情報、第2の深度情報、および変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成するようにさらに構成される。
[0006] プロセッサは、変換された深度マップを作成するために、変位情報に基づいて第1の深度マップを変換するように構成され得る。プロセッサは、変換された深度マップに基づいて第2の深度マップの誤りのある深度情報を補正するように構成され得る。
[0007] プロセッサは、誤りのある深度情報を変換された深度マップの対応する深度情報に置き換えるように構成され得る。プロセッサは、変換された深度マップの対応する誤りのない深度情報を用いて、第2の深度マップの誤りのない深度情報を平均化するように構成され得る。
[0008] プロセッサは、第2の深度マップの深度を、変換された深度マップの深度と比較することによって、誤りのある深度情報を検出するように構成され得る。プロセッサは、第2の深度マップの深度が、変換された深度マップの深度から、閾値量を超えるかどうかを決定するように構成され得る。プロセッサは、変換された深度マップの少なくとも2つの深度と、第2の深度マップの少なくとも2つの深度との間の時空間的平均値に基づいて、誤りのある深度情報を検出するように構成され得る。
[0009] プロセッサは、1つまたは複数のワールド座標点を作成するために、深度センサプレーン上の1つまたは複数の点をワールド座標に投影するように構成され得る。プロセッサはまた、1つまたは複数のワールド座標点を回転させるように構成され得る。プロセッサは、1つまたは複数のワールド座標点を平行移動させるようにさらに構成され得る。プロセッサは、変換された深度マップを作成するために、1つまたは複数のワールド座標点を再投影するようにさらに構成され得る。
[0010] プロセッサは、第2の深度マップ中の2つ以上の深度の空間的平均値に基づいて、誤りのある深度情報を検出するように構成され得る。誤りのある深度情報は、深度センサの機能停止を含み得る。
[0011] 電子デバイスによって、補正された深度マップを生成するための方法もまた説明される。方法は、第1の深度マップを取得することを含む。第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を含む。方法はまた、第2の深度マップを取得することもまた含む。第2の深度マップは、第2のサンプリングで深度センサによってサンプリングされたシーンの第2の部分の第2の深度情報を含む。方法は、第1のサンプリングと第2のサンプリングとの間の深度センサの変位を示す変位情報を取得することをさらに含む。方法は、第1の深度情報、第2の深度情報、および変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成することをさらに含む。
[0012] 補正された深度マップを生成するための装置もまた説明される。装置は、第1の深度マップを取得するための手段を含む。第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を含む。装置は、第2の深度マップを取得するための手段もまた含む。第2の深度マップは、第2のサンプリングで深度センサによってサンプリングされたシーンの第2の部分の第2の深度情報を含む。装置は、第1のサンプリングと第2のサンプリングとの間の深度センサの変位を示す変位情報を取得するための手段をさらに含む。装置は、第1の深度情報、第2の深度情報、および変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成するための手段をさらに含む。
[0013] 補正された深度マップを生成するためのコンピュータプログラム製品もまた説明される。コンピュータプログラム製品は、命令を有する非一時的な有形のコンピュータ可読媒体を含む。命令は、電子デバイスに、第1の深度マップを取得させるためのコードを含む。第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を含む。命令は、電子デバイスに、第2の深度マップを取得させるためのコードもまた含む。第2の深度マップは、第2のサンプリングで深度センサによってサンプリングされたシーンの第2の部分の第2の深度情報を含む。命令は、電子デバイスに、第1のサンプリングと第2のサンプリングとの間の深度センサの変位を示す変位情報を取得させるためのコードをさらに含む。命令は、電子デバイスに、第1の深度情報、第2の深度情報、および変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成させるためのコードをさらに含む。
[0014] 図1は、誤りのある深度情報を補正するためのシステムおよび方法が実装され得る電子デバイスの一例を図示するブロック図である。 [0015] 図2は、誤りのある深度情報を補正するための方法の1つの構成を図示するフロー図である。 [0016] 図3は、深度センサ移動(depth sensor movement)の一例を図示する図である。 [0017] 図4は、深度センサ移動の別の例を図示する。 [0018] 図5は、誤りのある深度情報を有する深度マップ視覚化、単純な補正の視覚化、および変位情報を用いた補正の視覚化の例を図示する。 [0019] 図6は、本明細書で開示されるシステムおよび方法に従って実装され得るエレメントのより具体的な例を図示するブロック図である。 [0020] 図7は、誤りのある深度情報を補正するための方法の1つの構成を図示するフロー図である。 [0021] 図8は、本明細書で開示されるシステムおよび方法に従って行われ得る変換の一例を図示する図である。 [0022] 図9は、深度の例を図示する図である。 [0023] 図10は、本明細書で開示されるシステムおよび方法の様々な構成を実装するように構成された電子デバイス内に含まれ得る、ある特定の構成要素を図示する。
発明の詳細な説明
[0024] 本明細書で開示されるシステムおよび方法は、誤りのある深度情報を補正するためのアプローチを提供し得る。例えば、本明細書で開示されるシステムおよび方法は、動きセンサ(例えば、加速度計など)を使用する不安定な(unsteady)電子デバイスからの深度マップの時間的(temporal)フィルタリングのためのアプローチを提供し得る。深度センサは、機能停止を経験し(experience)得る。機能停止は、深度センサが誤りのある深度情報を作成した時に発生し得る。例えば、深度センサは、深度センサとオブジェクトとの間の深度(例えば、距離)を正確には表さない1つまたは複数の誤った深度測定値を作成し得る。例えば、機能停止は、実際の深度がある値(例えば、x)であるが深度センサは別の値(例えば、y)を提供する誤りのある深度検出であり得、および/または、機能停止は、いずれのものの検出も完全に失敗し得る。
[0025] 機能停止(例えば、深度マップにおけるエラー)は、使用される技術に依存し得る。アクティブなアプローチでは、デバイス自体が光パターン(例えば、赤外光パターン)を用いてシーンを照らし得る。アクティブなアプローチに関して、わずかな光しか反射しない暗い表面は、信号対雑音比が非常に低い可能性があるため、エラーになる傾向があり得る。デバイス(例えば、深度センサ)に対して直角ではなく、離れて傾斜している表面もまた、エラーになる傾向があり得る。他の技術(例えば、偏光方式の立体(passive stereoscopic))は、平坦なおよび/または均質なエリアで、並びに/あるいは、反復パターンを有するエリアで、エラーを有する傾向があり得る。
[0026] 深度センサは、深度情報(および/または深度情報を決定するための情報)をキャプチャし得る。いくつかの構成では、深度情報は、深度測定値(例えば、距離、深度、深度値など)のセットを含み得る。例えば、深度センサは、深度測定値のセットを作成するために、検出フィールド内のシーンをサンプリングし得る。深度測定値のセットが深度マップであり得る。深度マップはしばしば、解像度が低く、機能停止(例えば、ホール(holes))を有し得る。さらに、深度センサが移動するときにフレームからフレームへの機能停止ノイズが残り得る。時間的フィルタリング(例えば、フレーム間の情報を融合すること)は、品質を改善し得る。しかしながら、深度センサが不安定なとき(例えば、深度センサがハンドヘルドであるか、または車に搭載されているとき)、シンプルな平均化は、エッジをぼやけさせる(blurs)。
[0027] 本明細書で開示されるシステムおよび方法は、上述の問題を軽減するためのアプローチを提供し得る。深度センサの動きは、動きセンサ(例えば、加速度計、ジャイロ、内部動きセンサ、ビジュアルオドメトリセンサなど)を用いて推定され得る。例えば、深度センサの平行移動および/または回転が(例えば、6自由度(DOG:degrees of freedom)で)推定され得る。推定されたセンサ移動は、1つのフレームから後続の(例えば、次の)フレームに深度情報をマッピングするために利用され得る。それらの全ての3Dロケーションを用いて点が推定され得る(例えば、既知となる)ため、深度マップのコンテキストでは、本明細書で開示されるシステムおよび方法は、未知の変位(例えば、視差)を低減または排除し得る。
[0028] 本明細書で説明されるシステムおよび方法の利点のいくつかが下記に提示される。本明細書で開示されるシステムおよび方法は、深度マップ(典型的な深度マップであるが、通常、解像度が低く機能停止を含むものである)の品質を改善し得る。本明細書で開示されるシステムおよび方法のいくつかの構成は、追加のハードウェアを必要としないだろう。例えば、加速度計は、スマートフォン上に偏在する。本明細書で開示されるシステムおよび方法によると、フレーム間マッピングは、一旦深度センサ移動が既知になると、十分に決定論的となり得る。従って、視差を推定する必要はないだろう。本明細書で開示されるシステムおよび方法の様々な構成を実装するための計算コストは低くなり得る。
[0029] 様々な構成が図面を参照して説明され、ここで、同様の参照番号は、機能的に類似したエレメントを指し得る。本明細書の図において一般に説明され図示されるようなシステムおよび方法は、多種多様な異なる構成で配置および設計され得る。よって、図に表されるようないくつかの構成の下記のより詳細な説明は、特許請求の範囲に記載されるような範囲を制限することを意図するものではなく、単にシステムおよび方法を代表するものにすぎない。
[0030] 図1は、誤りのある深度情報を補正するためのシステムおよび方法が実装され得る電子デバイス102の一例を図示するブロック図である。電子デバイス102の例は、カメラ、ビデオカムコーダ、デジタルカメラ、セルラフォン、スマートフォン、コンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータなど)、タブレットデバイス、メディアプレイヤ、テレビジョン、車両、自動車、パーソナルカメラ、ウェアラブルカメラ、バーチャルリアリティデバイス(例えば、ヘッドセット)、拡張リアリティデバイス(例えば、ヘッドセット)、混合リアリティデバイス(例えば、ヘッドセット)、アクションカメラ、監視カメラ、搭載型カメラ、接続型カメラ、ロボット、飛行機、ドローン、無人機(UAVs:unmanned aerial vehicles)、スマート家電、ヘルスケア器具、ゲーミングコンソール、パーソナルデジタルアシスタント(PDAs)、セットトップボックス、測量デバイス、セキュリティデバイス、地形測量技師、マッピングデバイスなどを含む。電子デバイス102は、1つまたは複数の構成要素またはエレメントを含み得る。構成要素またはエレメントの1つまたは複数は、ハードウェア(例えば、回路)、またはハードウェアとソフトウェアとの組み合わせ(例えば、命令を有するプロセッサ)において実装され得る。
[0031] いくつかの構成では、電子デバイス102は、プロセッサ112、メモリ120、ディスプレイ122、1つまたは複数のイメージセンサ104、1つまたは複数の光学システム106、1つまたは複数の深度センサ108、1つまたは複数の動きセンサ110、および/または通信インターフェース126を含み得る。プロセッサ112は、メモリ120、ディスプレイ122、イメージセンサ104、光学システム106、深度センサ108、動きセンサ110、および/または通信インターフェース126に結合され(例えば、それらと電子通信し)得る。図1に図示される構成要素および/またはエレメントのうちの1つまたは複数が、いくつかの構成では任意であり得ることに留意されたい。例えば、電子デバイス102は、いくつかの構成では、イメージセンサ104、光学システム106、ディスプレイ122、および/または通信インターフェース126を含まない可能性がある。
[0032]いくつかの構成では、電子デバイス102は、図2および4−7のうちの1つまたは複数に関連して説明される機能、プロシージャ、方法、ステップなどのうちの1つまたは複数を行い得る。追加的にまたは代替的に、電子デバイス102は、図4−7のうちの1つまたは複数に関連して説明される構造のうちの1つまたは複数を含み得る。
[0033] 通信インターフェース126は、電子デバイス102が1つまたは複数の他の電子デバイスと通信することを可能にし得る。例えば、通信インターフェース126は、ワイヤードおよび/またはワイヤレス通信のためのインターフェースを提供し得る。いくつかの構成では、通信インターフェース126は、無線周波数(RF)信号を送信および/または受信するために、1つまたは複数のアンテナ128に結合され得る。追加的にまたは代替的に、通信インターフェース126は、1つまたは複数の種類のワイヤライン(例えば、ユニバーサルシリアルバス(USB)、イーサネット(登録商標)など)通信を可能にし得る。
[0034] いくつかの構成では、複数の通信インターフェース126が実装および/または利用され得る。例えば、ある通信インターフェース126は、セルラ(例えば、3G、ロングタームエボリューション(LTE(登録商標))、CDMAなど)通信インターフェース126であり得、別の通信インターフェース126は、イーサネットインターフェースであり得、別の通信インターフェース126は、ユニバーサルシリアルバス(USB)インターフェースであり得、さらに別の通信インターフェース126は、ワイヤレスローカルエリアネットワーク(WLAN)インターフェース(例えば、米国電気電子学会(IEEE)802.11インターフェース)であり得る。いくつかの構成では、通信インターフェース126は、別のデバイスに情報(例えば、イメージ情報、深度情報、深度マップ情報など)を送り、および/または別のデバイス(例えば、車両、スマートフォン、カメラ、ディスプレイ、遠隔サーバなど)から情報を受信し得る。
[0035] いくつかの構成では、電子デバイス102は、1つまたは複数のイメージ(例えば、デジタルイメージ、イメージフレーム、ビデオなど)を取得し得る。例えば、電子デバイス102は、イメージセンサ104と、光学システム106の視野内に位置するシーンおよび/またはオブジェクトのイメージをイメージセンサ104上に合焦させる光学システム106(例えば、レンズ)とを含み得る。カメラ(例えば、可視スペクトルカメラ)は、少なくとも1つのイメージセンサと少なくとも1つの光学システムとを含み得る。いくつかの構成では、イメージセンサ104は、1つまたは複数のイメージをキャプチャし得る。光学システム106は、プロセッサ112に結合され得る、および/またはプロセッサ112によって制御され得る。追加的にまたは代替的に、電子デバイス102は、別のデバイス(例えば、電子デバイス102に結合された1つまたは複数の外部イメージセンサ、ネットワークサーバ、交通カメラ、ドロップカメラ、車載カメラ、ウェブカメラなど)からの1つまたは複数のイメージを要求および/または受け取り得る。いくつかの構成では、電子デバイス102は、通信インターフェース126を介して1つまたは複数のイメージを要求および/または受け取り得る。例えば、電子デバイス102は、カメラ(例えば、イメージセンサ104および/または光学システム106)を含み得るかまたは含まない可能性があり、1つまたは複数の遠隔デバイスからイメージを受け取り得る。イメージ(例えば、イメージフレーム)の1つまたは複数は、1つまたは複数のシーンおよび/または1つまたは複数のオブジェクトを含み得る。イメージは、可視的領域中にあり得る。例えば、イメージは、可視光の1つまたは複数の態様(例えば、色空間、色モデル、色、明るさ、輝度など)を表すデータを含み得る。
[0036] いくつかの構成では、電子デバイス102は、イメージデータバッファ(図示されない)を含み得る。イメージデータバッファは、イメージセンサ104からのイメージデータをバッファ(例えば、記憶)し得る。バッファされたイメージデータは、プロセッサ112に提供され得る。
[0037] いくつかの構成では、電子デバイス102は、カメラソフトウェアアプリケーションおよび/またはディスプレイ122を含み得る。カメラアプリケーションが起動しているとき、光学システム106の視野内に位置するオブジェクトのイメージは、イメージセンサ104によってキャプチャされ得る。イメージセンサ104によってキャプチャされたイメージは、ディスプレイ122上に提示され得る。いくつかの構成では、これらのイメージは、時間内の任意の所与の瞬間に、光学システム106の視野内に位置するシーンおよび/またはオブジェクトがディスプレイ122上に提示されるように、比較的高いフレームレートで素早く連続して表示され得る。電子デバイス102によって取得された1つまたは複数のイメージは、1つまたは複数のビデオフレームおよび/または1つまたは複数の静止画であり得る。いくつかの構成では、ディスプレイ122は、追加的なまたは代替的な情報を提示し得る。例えば、ディスプレイ122は、1つまたは複数の検出されたおよび/または追跡されたオブジェクトに対応する1つまたは複数の関心領域(例えば、バウンディングボックス(bounding boxes))を提示し得る。追加的にまたは代替的に、ディスプレイ122は、深度情報(例えば、1つまたは複数のオブジェクト(例えば、選択されたオブジェクト)への1つまたは複数の推定された距離を表す数)を提示し得る。
[0038] 1つまたは複数の深度センサ108は、シーンの深度を感知し得る。例えば、深度センサ108は、検出フィールド内のシーン(例えば、1つまたは複数のオブジェクトおよび/または地形(terrain))の深度をサンプリングし得る。検出フィールドは、深度センサ108が深度を検出することが可能な範囲(例えば、深度センサ108に関連する水平範囲、垂直範囲、および/または角度範囲)であり得る。深度センサ108の例は、赤外線飛行時間(ToF:time-of-flight)型カメラ、ステレオカメラ(stereoscopic cameras)(例えば、イメージセンサ104および/または光学システム106)、レーダ、ライダ、干渉計などを含む。深度センサ108は、深度情報(および/または深度情報がそこから取得され得る他の情報)をプロセッサ112に提供し得る。深度情報および/または他の情報は、深度センサ108とシーンとの間の距離を示し得る。
[0039] いくつかの構成では、深度センサ108は、電子デバイス102内に含まれ得る。他の構成では、深度センサ108は、電子デバイス102から分離され、かつ電子デバイス102に結合され得る。例えば、深度センサ108は、深度情報(および/または深度情報がそこから取得され得る情報)をプロセッサ112に提供するために、(例えば、通信インターフェース126を介して)電子デバイス102と通信し得る。イメージセンサ104および/または光学システム106(例えば、カメラ)は、いくつかの構成では、深度センサ108であり得ることに留意されたい。
[0040] 深度センサ108は、複数のサンプリングにおいて深度を感知し得る。サンプリングは、深度が感知される時間であり得る。例えば、深度センサ108は、深度情報(および/または深度情報がそこから取得され得る情報)を、第1のサンプリングおよび第2のサンプリングにおいてサンプリングし得る。いくつかの場合には、深度センサ108(例えば、電子デバイス102)は、サンプリング間を移動している可能性がある。本明細書で使用される場合、「第1の」、「第2の」、「第3の」などのような序数的用語は、必ずしも順序を暗示しない可能性があることに留意されたい。例えば、「第1のサンプリング」は、「第2のサンプリング」の前、後、(例えば、重複する時間フレーム中で)同時または同じ時間に発生し得る。
[0041] 動きセンサ110は、動き情報を決定するために、動きを検出し得る。動き情報は、動きセンサ110および/または深度センサ108の動きを示し得る。例えば、動きセンサ110は、深度センサ108の動きを検出し得る。動きセンサ110のいくつかの例は、加速度計、ジャイロ、内部動きセンサ、ビジュアルオドメトリセンサなどを含む。動きセンサ110は、深度センサ108に結合され得る。例えば、動きセンサ110は、同じ電子デバイス102に統合されることにより、深度センサ108に物理的に結合され得る。代替的に、動きセンサ110は、電子デバイス102から分離され、かつ同様に電子デバイス102から分離した深度センサ108に物理的に結合され得る。動きセンサ110は、1つまたは複数の方向の動きを検出し得る。例えば、動きセンサ110は、ヨー、ロール、ピッチ、前方/後方平行移動、左右平行移動、上下平行移動などの6自由度(Dof)を用いた動きを検出し得る。動きセンサ110は、動き情報をプロセッサ112に提供し得る。
[0042] プロセッサ112は、変位情報取得器114を含み得るおよび/または実装し得る。動き情報は、変位情報取得器114に提供され得る。変位情報取得器114は、動き情報に基づいて変位情報を取得(例えば、決定)し得る。変位情報は、深度センサ108の変位を示し得る。例えば、変位情報は、(例えば、サンプリングからサンプリングへの、複数のサンプリングにわたる、などの)サンプリング間の深度センサ108の変位を示し得る。例えば、変位情報は、深度センサ108が第1のサンプリングから第2のサンプリングへ、どのように(例えば、平行移動、回転など)および/またはどの程度移動したかを示し得る。より具体的には、変位は、動きまたは移動による(例えば、第1のサンプリングから第2のサンプリングへの)時間にわたる位置差であり得る。いくつかの構成では、変位情報取得器114は、図2および4−7のうちの1つまたは複数に関連して説明されるアプローチ、機能、プロシージャ、ステップ、および/または構造のうちの1つまたは複数に従って動作し得る。
[0043] いくつかの構成では、動き情報自体が、変位情報であり得る。例えば、変位情報取得器114は、変位情報としてraw動き情報を受け取り得る。他の構成では、変位情報取得器114は、変位情報を取得するために、動き情報における1つまたは複数の動作を行い得る。例えば、変位情報取得器114は、時間にわたる(例えば、2つ以上のサンプリング間の)動き情報をフィルタリング(例えば、平滑化)し得る。
[0044] 追加的にまたは代替的に、変位情報取得器114は、変位情報を取得するために、動き情報に基づいて1つまたは複数の変換(例えば、平行移動、回転)を行い得る。例えば、深度センサ108は、動きセンサ110と物理的に結合され得、動きセンサ110に関連して移動する。いくつかの構成では、深度センサ108と動きセンサ110とは、厳密にはコロケートされてない可能性がある。例えば、動きセンサは、スマートフォンの中心付近に収容され得るが、一方深度センサは、スマートフォンの上縁部付近および片側に寄せて収容され得る。結果として、深度センサ108が異なる位置にあり、動きセンサ110によって感知されたものとは異なる動きを経験し得るため、動き情報自体は深度センサ108の動きを直接反映しない可能性があり得る。従って、変位情報取得器114は、深度センサ108の変位を取得するために、動き情報に基づいて1つまたは複数の変換(例えば、回転、平行移動など)を行い得る。
[0045] いくつかの場合には、変位情報取得器114は、変位情報を決定するために、変位情報および/または他の情報(例えば、測定された情報)を要求および/または受け取り得る。例えば、変位情報取得器114は、通信インターフェース126を介して、遠隔デバイス(例えば、外部深度センサ、遠隔サーバ、遠隔電子デバイスなど)から変位情報(および/または変位情報を決定するための他の情報)を要求および/または受け取り得る。
[0046] プロセッサ112は、深度情報取得器116を含むおよび/または実装し得る。深度情報取得器116は、深度情報を取得し得る。深度情報は、深度センサ108から(例えば、オブジェクト、地形、構造物などの)1つまたは複数の物理的本体まで(の深度測定値、深度、深度値など)の1つまたは複数の距離を示し得る。例えば、深度情報は、距離の単位(例えば、フィート、インチ、ヤード、マイル、メートル、センチメートル、キロメートルなど)における、1つまたは複数の距離の数値的インジケーションであり得る。いくつかの構成では、深度情報取得器116は、深度センサ108(および/またはイメージセンサ104)から深度情報(および/または深度情報がそこから決定され得る他の情報)を取得し得る。深度情報は、時間にわたる複数のサンプリング(例えば、第1のサンプリング、第2のサンプリングなど)に対応し得る。
[0047] 深度情報は、誤りのある深度情報を含み得る。誤りのある深度情報は、誤った深度(例えば、距離)を示す情報であり得る。例えば、誤りのある深度情報は、深度センサ108(および/またはイメージセンサ104)によって正確に測定されなかった情報および/またはその機能停止によって引き起こされ得る。いくつかの構成では、誤りのある深度情報は、望ましくないオブジェクトの正確に測定された深度を含まない可能性がある。例えば、干渉するオブジェクトが深度情報(および/または測定された情報(例えば、イメージ、飛行時間情報など)に反映される場合、干渉するオブジェクトに対応する深度情報は、結果として得られる深度情報がシーン中のそのオブジェクトの存在を正確に反映する(および、例えば、測定におけるエラーではない)ため、誤りのある深度情報ではない可能性がある。
[0048] いくつかの構成では、プロセッサ112(例えば、深度情報取得器116)は、誤りのある深度情報を検出し得る。例えば、所与のロケーション(例えば、ピクセル)において発生し得る、異なる(例えば、2つの)タイプのエラーが存在し得る。エラーのうちの1つのタイプは、誤測定(wrong measurement)であり得、エラーのうちのもう一方のタイプは、測定が行われない場合であり得る。誤測定について、深度情報は値を含み得るが、その値は誤った(例えば、その深度値は実際の深度を正確に反映していない)ものである。誤測定は、推定処理を損なわせるノイズによって発生し得る。
[0049] いくつかの構成では、深度情報取得器116は、誤測定が通常は単独のものであり得るため、深度値を1つまたは複数の近隣深度値と比較することによって、誤測定値を検出し得る。例えば、深度値が、1つまたは複数の隣接する深度値(例えば、隣接する深度値の補間値(例えば、平均値))から、閾値量より多く離れている場合(例えば、閾値量を超える、閾値量に満たないなど)、深度情報取得器116は、その深度値が誤りのある深度情報であると決定し得る。追加的にまたは代替的に、深度情報取得器116は、深度値(例えば、ピクセルに対応する)を、隣接するフレーム(例えば、前のおよび/または後続のフレーム)からの1つまたは複数の変換された(例えば、再投影された)深度値と比較し得る。いくつかの構成では、1つまたは複数の変換された深度値は、補間され(例えば、平均化され)得る。従って、深度情報取得器116は、深度値が、1つまたは複数の隣接する深度値、並びに/あるいは、前のおよび/または隣接するフレームからの1つまたは複数の変換された(例えば、再投影された)深度値と、大幅に異なる(例えば、1つまたは複数の異なる閾値よりも大きい)かどうかを決定することによって、その深度値(例えば、深度情報中の深度値のうちの1つまたは複数)が誤りであるかどうかを決定し得る。両方の基準を使用することは、比較のためのより多くのデータが存在するので、より高い信頼性をもたらし得る。誤りのある深度情報を検出することのより具体的な例は、本明細書で開示されるシステムおよび方法に従って(例えば、プロセッサ112中でおよび/またはプロセッサ112によって、および/または、深度情報取得器116において)実装され得る図9に関連して与えられる。
[0050] 発生し得るエラーのもう一方のタイプは、(例えば、対応するピクセル中に)深度値が存在しないときのものであり得る。例えば、深度情報(例えば、深度マップ)は、深度値が存在しない1つまたは複数のロケーションを含み得る。これは、信号が非常に低く、推定処理(例えば、深度センサ108)が深度値を信頼できないと分類する場合に発生し得る。このケースは、全ての深度感知技術に関して発生するわけではない可能性がある。例えば、いくつかの深度センサ108は、深度値が信頼できないと分類されるときに深度値を示さないように構成され得る。例えば、深度センサ108は、赤外線カメラを用いて取り出され復号される赤外(IR)光パターンを用いて、シーンを描き得る。IRコンテンツが非常に低い(例えば、閾値を下回る、センサノイズに埋もれるなど)場合、深度センサ108は、深度値ロケーションを空のままにし得る、および/または値を提供しない可能性がある。従って、深度情報取得器116は、値を有していないかどうかを確認することによって、および/または、深度値をその(近接した空間的なおよび/または再投影された)近隣と比較することによって機能停止を検出し得る。
[0051] いくつかの構成では、深度情報は、(例えば、立体深度決定のような)複数のイメージ、動き情報、および/または他の深度感知に基づいて取得され(例えば、決定され)得る。いくつかのアプローチでは、1つまたは複数のカメラ(例えば、イメージセンサ104および/または光学システム106)は、深度センサ108であり得る、および/または深度センサ108として利用され得る。いくつかの構成では、例えば、深度情報取得器116は、(イメージセンサ104からおよび/または遠隔イメージセンサから)複数のイメージを受け取り得る。深度情報取得器116は、イメージセンサと1つまたは複数のオブジェクトとの間の深度情報(例えば、距離、深度、深度値、深度測定値など)を決定するために、(例えば、イメージの重複するエリアにおいて)イメージ中の1つまたは複数のオブジェクトを三角測量し得る。例えば、特徴点の3D位置(第1のカメラ調整システムにおいて参照される)は、2つ(または以上)の較正カメラから計算され得る。次に、深度情報は、三角測量を通じて推定され得る。
[0052] いくつかの構成では、深度情報取得器116は、カメラ移動に基づいて深度情報を決定し得る(例えば、ストラクチャフロムモーション(SfM:structure from motion)と呼ばれるアプローチ)。例えば、深度は、カメラ動き(例えば、シーン中の1つまたは複数のオブジェクトに関するカメラの動き)によって、2つ以上のイメージフレームに基づいて推定され得る。例えば、時間にわたるオブジェクトの動きを(例えば、時間またはフレームにわたるイメージにおいて)観測することによって、深度情報取得器116は、イメージセンサ(例えば、イメージセンサ104および/または遠隔イメージセンサ)とオブジェクトとの間の距離を決定し得る。2つのビューからのオブジェクトポイントが一致し、関連するカメラ動きが推定され得る。次に、オブジェクトの深度情報(例えば、距離)が、三角測量によって推定され(例えば、生成され)得る。
[0053] いくつかの構成では、深度情報取得器116は、1つまたは複数の追加的なまたは代替的な深度感知アプローチを利用することによって、深度情報を取得し得る。例えば、深度情報取得器116は、シーンの1つまたは複数の距離を決定するために利用され得る深度センサ108(および/またはイメージセンサ104)からの情報(例えば、測定された情報)を受け取り得る。他のセンサの例は、飛行時間カメラ(例えば、赤外線飛行時間型カメラ)、干渉計、レーダ、ライダ、音波深度センサ、超音波深度センサなどを含む。1つまたは複数の深度センサ108は、いくつかの構成では、電子デバイス102に含まれ得、電子デバイス102と結合され得、および/または電子デバイス102と通信状態にあり得る。深度情報取得器116は、1つまたは複数の深度センサからの測定された情報に基づいて深度情報を推定(例えば、計算)し得る、および/または1つまたは複数の深度センサから深度情報を受け取り得る。例えば、深度情報取得器116は、飛行時間カメラから飛行時間情報を受け取り得、飛行時間情報に基づいて深度情報を計算し得る。
[0054] 追加的にまたは代替的に、深度情報取得器116は、(例えば、深度センサ108が深度情報を直接提供する構成では、)1つまたは複数の深度センサ108から直接深度情報を要求および/または受け取り得る。例えば、ステレオ可視スペクトルカメラ(例えば、イメージセンサ104および/または光学システム106)および/または1つまたは複数の深度センサ108は、測定された情報(例えば、イメージ、時間、飛行時間、位相シフト、ドップラシフトなど)に基づいて深度情報(例えば、距離)を計算し得る。従って、深度情報取得器116は、1つまたは複数の可視スペクトルカメラ、1つまたは複数の赤外線飛行時間型カメラ、干渉計、ライダ、レーダ、音波/超音波深度センサなどから直接深度情報を受け取り得る。
[0055] いくつかの構成では、深度情報(例えば、マルチモーダル深度(multi-modal depth))を取得するためのアプローチの組み合わせが実装され得る。例えば、SfMの組み合わせ、立体三角測量、およびレーダが実装され得る。他の組み合わせが実装され得る。マルチモーダル深度推定を利用することは、深度情報の品質を改善し得る。
[0056] 深度情報取得器116は、深度マップを取得(例えば、決定)し得る。深度マップは、深度情報を含み得る、および/または深度情報に基づいて決定され得る。例えば、深度マップは、シーンの範囲(例えば深度センサ108に関する水平範囲、垂直範囲、および/または角度範囲)にわたる深度情報(例えば、深度測定値、距離など)のセットであり得る。深度マップは、誤りのある深度情報(例えば、誤りのある深度情報と正しい(誤りのない)深度情報との混合)を含み得る。いくつかの構成では、深度情報取得器116は、深度センサ108から深度マップを受け取り得る。例えば、深度センサ108は、シーンの範囲にわたる深度情報(例えば、距離)を直接提供し得る。
[0057] 追加的にまたは代替的に、深度情報取得器116は、深度情報に基づいて深度マップを取得(例えば、決定)し得る。例えば、深度センサ108は、深度情報および/または深度マップを決定するために使用され得る、測定された情報を提供し得る。例えば、測定された情報は、飛行時間推定値、イメージデータ、受け取った(例えば、反映された)信号電力、受け取った(例えば、反映された)信号振幅、ドップラシフト、信号位相シフトなどを含み得る。深度情報取得器116は、推定された情報に基づいて、深度マップを決定し得る。例えば、深度情報取得器116は、受け取った(例えば、反映された)信号電力、受け取った(例えば、反映された)信号振幅、ドップラシフト、信号位相シフト、立体イメージ推定値(例えば、2つ以上のカメラによってキャプチャされたイメージデータ中の同じ点間の視差)、ストラクチャフロムモーション(SfM)などに基づいて、深度情報(例えば、距離、深度、深度値など)のセットを計算し得る。いくつかの構成では、深度マップは、深度情報(例えば、数値的距離、深度など)のセットを含み得、他の種類のデータ(例えば、可視領域データ、時間領域データ、周波数領域データなど)を含まない可能性があり得る。深度情報および/または深度マップは、いくつかの構成では可視領域に基づいて決定され得るが、深度情報および/または深度マップ自体は、可視領域データ(例えば、イメージデータ)を含まない可能性があることに留意されたい。
[0058] 深度マップのいくつかは、シーンのサンプリングに対応し得る。例えば、深度センサ108は、複数のサンプリングにおいて複数の深度マップをもたらすために、(例えば、上述されるような)複数のサンプリングにおけるシーンから情報(例えば、測定された情報、深度情報など)をサンプリングし得る。従って、深度マップは、複数のサンプリングにおいて、深度センサ108によってサンプリングされ得る。言い換えると、深度センサ108は、シーンをサンプリングし、そのサンプリングに対応する深度情報を作成することによって、深度マップをサンプリングし得、その深度情報は、深度マップとして利用され得るか、または深度マップを決定するために利用され得る。深度センサ108がシーンの一部分をサンプリングし得ることに留意されたい。例えば、深度センサは、第1のサンプリングでシーンの第1の部分をサンプリングし得、第2のサンプリングでシーンの第2の部分をサンプリングし得る。例えば、深度センサは、サンプリング間で深度センサが変位するとき、異なるサンプリングにおいてシーンの異なる部分をサンプリングし得る。本明細書で説明されるように、深度マップは、サンプリングで受け取った測定された情報(例えば、サンプル)であるおよび/またはそれから導出される、深度情報を含み得る。
[0059] いくつかの構成では、深度情報取得器116は、図2および4−7のうちの1つまたは複数に関連して説明されるアプローチ、機能、プロシージャ、ステップ、および/または構造のうちの1つまたは複数に従って動作し得る。深度情報は、いくつかの構成では深度センサのロケーションに関連し得る一方、深度情報は、いくつかの構成では別のポイントに関連してマッピング(例えば、変換)され得るか、またはされない可能性があることに留意されたい。例えば、電子デバイス102は、任意の点(例えば、車両の中心、デバイスの中心など)に関連する深度情報をマッピングし得る。
[0060] プロセッサ112は、深度情報補正器118を含み得る、および/または実装し得る。深度情報補正器118は、誤りのある深度情報を補正し得る。例えば、深度情報補正器118は、深度マップの誤りのある深度情報を補正し得る(例えば、深度マップの誤りのある深度情報中のエラーを低減し得る)。誤りのある深度情報を補正することは、補正された深度マップを生成し得る。例えば、深度情報補正器118は、シーンの一方の深度マップ中の誤りのある深度情報を、シーンのもう一方の深度マップおよび変位情報に基づいて補正し得る。
[0061] いくつかの構成では、深度情報補正器118は、シーンの第1の深度マップおよび変位情報に基づいて、シーンの第2の深度マップの誤りのある深度情報を補正し得る。例えば、シーンの第1の深度マップは、第1のサンプリングで深度センサ108(および/またはイメージセンサ104)によってサンプリングされ得、第2の深度マップは、第2のサンプリングで深度センサ108(および/またはイメージセンサ104)によってサンプリングされ得る。変位情報は、第1のサンプリングと第2のサンプリングとの間の深度センサ108(および/またはイメージセンサ104)の変位を示し得る。誤りのある深度情報を補正することは、いくつかの構成では可視領域データ(例えば、イメージ、ピクセルなど)を修正することを含まない可能性がある。追加的にまたは代替的に、誤りのある深度情報を補正することは、いくつかの構成では、正しい深度情報(correct depth information)を用いて誤りのある深度情報を平均化することを含まない可能性がある。追加的にまたは代替的に、誤りのある深度情報を補正することは、いくつかの構成では誤りのある深度情報にわたる同じフレームの正しい深度情報を単に補間することを含まない可能性がある。
[0062] 「補正すること(correcting)」、「補正(correction)」、「補正する(correct)」、および/または用語「補正する」の他のバリエーションは、エラーの低減および/または品質の改善を意味し得ることに留意されたい。しかしながら、「補正する」およびそのバリエーションは、いくつかの場合には、完全な、精密な、または正確な補正を、および/または本明細書で開示されるシステムおよび方法の構成を意味しない可能性がある。
[0063] 深度情報補正器118は、変換された深度マップを作成するために、変位情報に基づいて深度マップを変換し得る。例えば、深度情報補正器118は、第2の深度マップを補正するための変換された深度マップを作成するために、変位情報に基づいて第1の深度マップを変換し得る。代替的に、深度情報補正器118は、第1の深度マップを補正するための変換された深度マップを作成するために、変位情報に基づいて第2の深度マップを変換し得る。深度情報補正器118によって行われ得る変換の例は、平行移動、等方性スケール(isotropic scale)、非等方性スケール、類似性、アファイン、および/または投影変換を含み得る。第1の深度マップを変換することは、第2の深度マップとほぼアラインされた変換された深度マップをもたらすように、第1の深度マップを変更し得る。例えば、第1の深度マップを変換することは、第1のサンプリングと第2のサンプリングとの間の変位を考慮し得る。変換の一例が、図8に関連して与えられる。
[0064] 深度マップ(例えば、第2の深度マップまたは第1の深度マップ)を補正することは、変換された深度マップに基づき得る。例えば、深度情報補正器118は、誤りのある深度情報(例えば、機能停止、ホールなど)を、変換された深度マップの対応する深度情報に置き換え得る。例えば、第2の深度マップの誤りのある深度のうちの1つまたは複数は、変換された深度マップの1つまたは複数の対応する深度に置き換えられ得る。別のアプローチでは、第2の深度マップの誤りのある深度の1つまたは複数は、1つまたは複数の変換された深度マップに基づく1つまたは複数の補間された深度マップに置き換えられ得る。誤りのある深度情報を補正することのより具体的な例は、本明細書で開示されるシステムおよび方法に従って(例えば、プロセッサ112および/または深度情報補正器118において、および/またはそれらによって)実装され得る図9に関連して与えられる。
[0065] 補正は、同じフレーム中のピクセルを単に補間すること、または非変換フレームを単に平均化することよりも優れている可能性がある。例えば、近隣のみが使用される場合、誤りのある深度は、例えば、平均値で満たされ得、それは、微細部をぼかす傾向があり得る。これは、対応するロケーション(例えば、ピクセルのロケーション)を有する別のフレームからの変換された深度マップ(例えば、再投影)を使用することによって改善され得る。変換された深度は、エラー(例えば、誤測定および/または機能停止)が単一のロケーションのみ(例えば、ピクセル)よりも大きい場合に、さらにより有用であり得る。満たすパッチが大きいほど、近隣のみに基づいて値を正確に補正することがより困難になり得る。従って、より正確な情報を有し得る1つまたは複数の他のフレームからの変換(例えば、再投影)が有用であり得る。
[0066] いくつかの構成では、深度マップを補正することは、深度マップの一連の各隣接するペアに関して行われ得る。例えば、第2の深度マップは、第1の深度マップ、および第1の深度マップ(例えば、第1のサンプリング)と第2の深度マップ(第2のサンプリング)との間の変位に基づいて補正され得る。第3の深度マップは次に、第2の深度マップ(例えば、補正された第2の深度マップ)、および第2の深度マップ(例えば、第2のサンプリング)と第3の深度マップ(例えば、第3のサンプリング)との間の変位に基づいて補正され得る。このプロシージャは、後続のペアの深度マップに関して繰り返され得る。いくつかのアプローチでは、補正された深度は、1つまたは複数の隣の(例えば、後続のおよび/または前の)フレームに持ち越され得る。認識されるように、各後続の深度マップは、誤りのある深度情報が時間にわたり補正されるため、エラーが徐々に少なくなることを含み得る。
[0067] いくつかの構成では、補正は、1つまたは複数の(例えば、後続のおよび/または前の)フレームに持ち越されない可能性がある。例えば、これは、フレームのコンテンツ(例えば、補正されたコンテンツ)が、複数の前のフレーム(例えば、膨大な量の、またはそのセット数)ではなく、直接先行するフレームにのみ依存し得るため、よりロバストな(robust)アプローチであり得る。しかしながら、補正を持ち越すことと補正を持ち越さないことは、利点と不利点の両方を提示し得ることに留意されたい。
[0068] いくつかの構成では、処理がオフラインで行われる場合、(例えば、逆の順序で)隣のまたはあるフレームに基づいて補正を行う可能性があり得る。例えば、フレーム(例えば、ビュー n)は、先行するフレーム(例えば、ビュー n−1)、および/または後続のフレーム(例えば、ビュー n+1)に基づいて補正され得る。
[0069] いくつかの構成では、第1の深度マップおよび第2の深度マップの両方が、(例えば、同じ位置において)誤りのある深度情報を含み得る場合、誤りのある深度情報(例えば、機能停止、ホールなど)は、第2の深度マップ中に残り得る。代替的に、第2の深度マップは、別の深度マップ(例えば、第1の深度マップに先行する深度マップ)に基づいて補正され得る。例えば、深度センサ108がシーンに対して比較的ゆっくりと移動する場合、隣のフレームにだけでなく、N個隣のフレームに深度フレームを一致させることが可能である。従って、全く同じエラーが全てのN個のフレーム中に現れる可能性は、(例えば、N個のフレームの数に基づいて)極めて急速に減少し得る。
[0070] いくつかの構成では、電子デバイス102(例えば、プロセッサ112)は、変換された深度マップの対応する誤りのない深度情報を用いて、第2の深度マップの誤りのない深度情報を平均化し得る。これは、深度マップ間の誤りのない深度情報を平滑化し得る。
[0071] 本明細書で開示されるシステムおよび方法は、改善された深度情報(例えば、深度マップ)を提供し得る。例えば、深度マップ中の誤りのある深度情報は、上述されるように低減され得るおよび/または除去され得る。
[0072] いくつかの構成では、深度マップは、車両に適用され得る。例えば、電子デバイス102は、車両であり得るか、または車両に含まれ得る。深度マップは、車両の周囲のシーン中の、車両と1つまたは複数のオブジェクト(例えば、他の車両、歩行者、柵、建物、道路、障害物など)との間の距離を示すために利用され得る。いくつかの構成では、電子デバイス102は、アドバンストドライバ支援システム(ADAS:Advanced Driver Assistance System)であり得るか、またはそれに統合され得る。
[0073] いくつかの構成では、深度マップは、正確な動的深度情報を車両に提供し得る。例えば、車両(例えば、電子デバイス102、プロセッサ112、または電子デバイス102と通信状態にある別個のデバイス)は、深度マップに基づいて視覚化および/またはメッセージを提供し得る。例えば、車両は、1つまたは複数のオブジェクトへの距離を示す、サラウンドビュー視覚化(surround view visualization)を提供し得る。
[0074] より具体的には、車両は、(イメージセンサ104または他のイメージセンサから)イメージデータを取得し得、車両の周囲のシーンの視覚化を作成し得る。視覚化における1つまたは複数のオブジェクトは、深度マップに基づいて示され得る。例えば、視覚化は、駐車しようとしている(parking)(例えば、縦列駐車)ときの、車両から停車中の(parked)車までの数値的な距離、および/または運転中の近くの1つまたは複数のオブジェクト(例えば、他の車両)までの数値的な距離を示し得る。追加的にまたは代替的に、車両(例えば、電子デバイス102)は、深度情報に基づいて3D幾何学モデルを生成し得、3D視覚化を作成するために、その3D幾何学モデルにイメージデータをマッピングし得る。視覚化は、コンソールにおけるディスプレイ(例えば、ディスプレイ122)上、フロントガラス上、ハンドヘルドデバイス(例えば、スマートフォン)上、および/または頭部装着型ディスプレイ(例えば、バーチャルリアリティーディスプレイ、拡張されたリアリティーディスプレイ、オキュラスリフトデバイス、HoloLensデバイスなど)に提示され得る。
[0075] 追加的にまたは代替的に、車両は、深度マップに基づいて1つまたは複数のメッセージ(例えば、テキスト、オーディオ、ビジュアルなど)を提供し得る。例えば、(例えば、進行方向において)オブジェクトから、ある距離よりも車両が離れていないとき、その車両は、警告音(例えば、チャイム、ビープ音、音声警告(spoken warning)など)を出し得る。別の例では、車両は、深度マップに基づいて方向(例えば、どこに駐車するか、どこで曲がるかなど)を示すメッセージを出し得る。
[0076] 追加的にまたは代替的に、深度マップは、いくつかの構成では、自律的(例えば、自動運転)車両、半自律的(例えば、ユーザアシストを用いた自動運転)車両、および/または運転者補助車両に、正確な動的深度を提供し得る。例えば、車両(例えば、電子デバイス102、プロセッサ112、または電子デバイス102と通信状態にある別個のデバイス)は、深度マップに基づいて、道路を追跡し、および/またはオブジェクト(例えば、他の車両、柵、障害物など)との衝突を避け得る。例えば、車両は、別のオブジェクトがある特定の距離内にあることを深度マップが示すとき、そのオブジェクトを避け得る。追加的にまたは代替的に、車両は、オブジェクトとの衝突を避けるために、ブレーキおよび/または加速を適用し得る。追加的にまたは代替的に、車両は、深度マップに基づいて道路を追跡し得る(例えば、縁石または柵内に留まる、道路を走り去るのを回避するなど)。これは、自動運転車両(例えば、車)のための自動ナビゲーションに適用され得る。
[0077] いくつかの構成では、深度マップは、イメージのキャプチャおよび/または再生で利用され得る。一例では、深度マップは、シーンをモデル化するために利用され得る。例えば、電子デバイス102(例えば、カメラ、スマートフォン、調査デバイスなど)は、深度マップに基づいてシーンの3Dモデルを作成し得る。(例えば、イメージセンサ104からの)イメージデータは、いくつかの構成では、3Dモデルにマッピングされ得る、および/または3Dモデル上にレンダリングされ得る。これは、3D写真技術、3Dモデリング、バーチャルリアリティ、および/またはシーンの拡張されたリアリティの再現を可能にし得る(例えば、オキュラスリフトデバイス、HoloLensデバイスなどで使用するために)。
[0078] メモリ120は、命令および/またはデータを記憶し得る。プロセッサ112は、メモリ120にアクセスし得る(例えば、それから読み取るおよび/またはそれに書き込む)。メモリ120によって記憶され得る命令および/またはデータの例は、測定された情報、深度情報、深度マップ、イメージデータ、イメージ視覚化データ、オブジェクトデータ(例えば、ロケーション、サイズ、型など)、モデルデータ、変位情報取得器114命令、深度情報取得器116命令、および/または深度情報補正器118命令などを含み得る。
[0079] いくつかの構成では、電子デバイス102は、ディスプレイ122上のユーザインターフェース124を表し得る。例えば、ユーザインターフェース124は、ユーザが電子デバイス102と相互作用することを可能にし得る。いくつかの構成では、ユーザインターフェース124は、ユーザが選好(例えば、深度情報表示設定、イメージ視覚化設定など)を示すこと、並びに/あるいは、深度情報および/またはイメージ視覚化と相互作用することを可能にし得る。例えば、ユーザインターフェース124は、イメージ視覚化を変更するための1つまたは複数のコマンド(例えば、ズームインまたはズームアウトすること、イメージ視覚化を回転させること、イメージ視覚化をシフトすること、イメージ視覚化の形を変更すること、イメージ視覚化ビューポイントを変更することなど)を受け取り得る。追加的にまたは代替的に、ユーザインターフェース124は、イメージ視覚化中のオブジェクトの選択を示す入力(例えば、タップ)を受け取り得る。いくつかの構成では、選択されたオブジェクトが追跡され得る。
[0080] いくつかの構成では、ディスプレイ122は、(例えば、指、スタイラス、または他の道具による)物理的なタッチからの入力を受け取るタッチスクリーンであり得る。例えば、タッチスクリーンは、ユーザの選好および/または電子デバイス102の挙動の1つまたは複数の修正を示すタッチ入力を受け取る入力インターフェースであり得る。追加的にまたは代替的に、電子デバイス102は、別の入力インターフェースを含み得るか、またはそれに結合され得る。例えば、電子デバイス102は、ユーザに向いているカメラを含み得、ユーザのジェスチャ(例えば、手のジェスチャ、腕のジェスチャ、視線追跡、瞼の瞬きなど)を検出し得る。別の例では、電子デバイス102は、マウスに結合され、ある入力を示すマウスクリックを検出し得る。
[0081] いくつかの構成では、いずれのユーザ入力も必要ないことがあり得ることに留意されたい。例えば、電子デバイス102は、誤りのある深度情報を自動的に補正し得る。
[0082] いくつかの構成では、電子デバイス102(例えば、プロセッサ112)は、任意でアドバンストドライバ支援システム(ADAS)に結合され、その一部であり(例えば、それに統合され)、それを含むおよび/または実装し得る。例えば、電子デバイス102は、(インダッシュ型ディスプレイ、コンソールディスプレイ、フロントガラスプロジェクタ、ヘッドアップディスプレイ、光学頭部装着型ディスプレイなどにおいて)車両に深度情報を提示し得る。これは、ドライバが状況認識および/または衝突回避するのを支援し得る。
[0083] 電子デバイス102(例えば、プロセッサ112)は、任意で1つまたは複数の他の種類のデバイスに結合され、その一部であり(例えば、それに統合され)、それを含むおよび/または実装し得る。例えば、電子デバイス102は、深度センサ108を装備したドローンに実装され得る。深度情報は、ドローンとその周辺との間の深度を示し得る。従って、深度情報は、シーンモデリング、衝突回避、3D写真技術などのために利用され得る。例えば、これは、ドローンのための自動ナビゲーションに適用され得る。別の例では、電子デバイス102(例えば、プロセッサ112)は、(1つまたは複数のイメージセンサおよび/またはレンズを含む)アクションカメラ中に実装され得る。深度情報は、そのアクションカメラの周辺のバーチャルリアリティおよび/または拡張されたリアリティイメージを生成するために使用され得る。
[0084] 図2は、誤りのある深度情報を補正するための方法200の1つの構成を図示するフロー図である。方法200は、例えば、本明細書で説明される電子デバイス102によって行われ得る。
[0085] 電子デバイス102は、シーンの第1の深度マップを取得し(202)得る。これは、図1に関連して説明されるように達成され得る。例えば、電子デバイス102は、第1のサンプリングにおいて1つまたは複数の深度センサ108から深度情報および/または他の情報(例えば、深度情報を取得するために測定された情報)を取得し得る。第1の深度マップは、深度情報に基づいて決定され得る。例えば、第1の深度マップは、深度情報(例えば、深度情報の全てまたはサブセット)であり得る、および/または深度情報に基づき得る(例えば、第1の深度マップは深度情報の変換されたバージョンであり得る)。例えば、電子デバイス102は、第1の深度マップを取得し(202)得、ここで、第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を含む。追加的にまたは代替的に、電子デバイス102は、遠隔深度センサからおよび/または別のデバイスから、第1の深度マップを要求および/または受け取り得る。
[0086] 電子デバイス102は、シーンの第2の深度マップを取得し(204)得る。これは、図1に関連して説明されるように達成され得る。例えば、電子デバイス102は、第2のサンプリングにおいて1つまたは複数の深度センサ108から深度情報および/または他の情報(例えば、深度情報を取得するために測定された情報)を取得し得る。第2の深度マップは、深度情報に基づいて決定され得る。例えば、第2の深度マップは、深度情報(例えば、深度情報の全てまたはサブセット)であり得る、および/または深度情報に基づき得る(例えば、第2の深度マップは深度情報の変換されたバージョンであり得る)。例えば、電子デバイス102は、第2の深度マップを取得し(204)得、ここで、第2の深度マップは、第2のサンプリングで深度センサによってサンプリングされたシーンの第2の部分の第2の深度情報を含む。追加的にまたは代替的に、電子デバイス102は、遠隔深度センサからおよび/または別のデバイスから、第2の深度マップを要求および/または受け取り得る。
[0087] 電子デバイス102は、深度センサの変位を示す変位情報を取得し(206)得る。これは、図1に関連して説明されるように達成され得る。例えば、電子デバイス102は、1つまたは複数の動きセンサ110によって提供される動き情報に基づいて変位情報を取得し(206)得る。
[0088] 電子デバイス102は、誤りのある深度情報を補正することによって、補正された深度マップを生成し(208)得る。例えば、電子デバイス102は、(第1のサンプリングからの)第1の深度情報、(第2のサンプリングからの)第2の深度情報、および変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成(208)し得る。いくつかの構成では、これは、図1、5−7、および9のうちの1つまたは複数に関連して説明されるように達成され得る。いくつかの構成では、誤りのある深度情報を補正すること(206)は、深度マップを変換することを含み得る。例えば、電子デバイス102は、変換された深度マップを作成するために、変位情報に基づいて第1の深度マップを変換し得る。深度マップを変換することは、いくつかの構成では、図8に関連して説明されるように達成され得る。いくつかのアプローチでは、電子デバイス102は次に、第2の深度マップの誤りのある深度情報を、変換された深度マップの対応する深度情報(例えば、誤りのない深度情報)に置き換え得る。例えば、電子デバイス102は、第2の深度マップの機能停止(例えば、ホール)を、変換された深度マップからの深度で満たし得る。いくつかのアプローチでは、電子デバイス102は、誤りのある深度情報を、(例えば、同じ深度マップおよび/または1つまたは複数の変換された深度マップに基づいて)1つまたは複数の補間された深度に置き換え得る。いくつかのアプローチでは、電子デバイス102は、誤りのある深度情報を、(例えば、同じ深度マップおよび/または1つまたは複数の変換された深度マップからの)1つまたは複数の深度を用いて平均化し得る。従って、誤りのある深度情報を補正すること(206)は、深度マップを変換すること、誤りのある深度情報を置き換えること、および/または構成に従って、誤りのある深度情報を平均化することを含み得る。補正された深度マップを生成すること(208)(例えば、誤りのある深度情報を補正すること)が、いくつかの構成では補間および/または平均化することを含まない可能性があることに留意されたい。
[0089] いくつかの構成では、電子デバイス102は、深度マップに基づいてイメージ視覚化を生成し得る。これは、図1に関連して説明されるように達成され得る。例えば、電子デバイス102は、深度マップに基づいて3Dモデルを生成し得る。いくつかの構成では、電子デバイス102は、イメージ視覚化を作成するために、3Dモデル上にイメージデータをマッピングし、および/またはイメージデータを用いて3Dをレンダリングし得る。イメージ視覚化は、プレゼンテーションのためにディスプレイに提供され得る。例えば、電子デバイス102(例えば、プロセッサ112)は、イメージ視覚化をディスプレイに(例えば、電子デバイス102中に含まれるディスプレイ122、または電子デバイス102に結合されるおよび/または電子デバイス102と通信状態にあるディスプレイに)提供し得る。ディスプレイは、イメージ視覚化を示し得る。
[0090] 図3は、深度センサ移動332の一例を図示する図である。具体的には、図3は、深度センサ308を図示する。初めに、深度センサ308が図の左側にあり、シーン330へと向けられている。シーン330は、深度(例えば、深度シーン)を有する任意の空間であり得る。この例では、センサ移動332は、右への平行移動と、左への回転を含み得る。深度センサ308の移動332は、誤りのある深度情報(例えば、機能停止、ホールなど)を補正する際に問題を引き起こし得る。
[0091] 図4は、深度センサ移動432a−bの別の例を図示する。図4では、一連のイメージフレーム434a−nが図示されている。イメージフレーム434a−nは、深度センサの検出フィールドの例を図示し得る。上述されるように、深度センサの一例は、ステレオカメラのセットであり得る。深度センサの別のタイプが利用され、それは、可視領域情報の使用なしに深度を感知し得ることに留意されたい。図4では、深度センサは、いくつかのフレーム434a−nにわたって左から右へ移動する。具体的には、センサ移動A432aは、フレームA 434aとフレームM 434mとの間で発生する。センサ移動B 432bは、フレームM 434mとフレームN 434nとの間で発生する。フレームA 434aとフレームM 434mとの間、および/またはフレームM 434mとフレームN434nとの間に、1つまたは複数の追加のフレームが存在し得るか、または存在しない可能性がある。本明細書で開示されるシステムおよび方法に従って、動き情報(例えば、センサ移動A 432aおよびセンサ移動B 432b)は、動きセンサを用いて取得され得る(例えば、既知となり得る)。
[0092] 図4で見られるように、オブジェクトI−Vは、深度センサからの深度の範囲にわたって位置している。特に、オブジェクトIおよびIIは深度センサに最も近く、オブジェクトIIIは深度センサから遠く、オブジェクトIVはさらに遠く、そして、オブジェクトVは最も遠くにある。オブジェクトI−Vが異なる距離に位置するため、より近いオブジェクトは、フレーム中で時間にわたってより大きい移動を示し得る。例えば、フレームI 434aとフレームN 434nとの間で、オブジェクトIおよびIIは移動が最も大きく、一方オブジェクトVは移動が最も小さい。
[0093] 図5は、誤りのある深度情報を有する深度マップ視覚化536、単純な補正の視覚化538、および変位情報を用いた補正の視覚化542の例を図示する。具体的には、誤りのある深度情報を有する深度マップ視覚化536は、深度マップの視覚化であり、ここで、より短い距離(例えば、深度)が、薄い網掛けで描かれ、より遠い距離が、濃い網掛けで描かれている。図5では、誤りのある深度情報を有する深度マップ視覚化536は、深度センサの誤りのある深度情報(例えば、機能停止、ホールなど)が黒い点で描かれた、破損したフレーム(corrupted frame)である。
[0094] 単純な補正の視覚化538は、深度マップ間でのシンプルな平均をとる例を図示し、ここで、深度センサは、サンプリング間を移動している。単純な補正でわかるように、エラー540は、未知のオブジェクト変位に起因する深度の不連続性(discontinuities)において発生する。エラー540は、特に、オブジェクトの輪郭に沿って発生し得る。例えば、深度センサがシフトされると、最前面にあるオブジェクトは、背景にあるオブジェクトよりも大きく変位し得る。これらの異なる変位は、単純なフレーム間補正においてエラーを引き起こし得る。
[0095] 変位情報を用いた補正の視覚化542では、本明細書で開示されるシステムおよび方法に従って誤りのある深度情報を補正することが、低減されたエラー544をもたらし得ることがわかるだろう。例えば、加速度計深度情報からの相対的カメラ位置は、改善されたエラー補正のための、改善されたフレーム間マッピングをもたらす。
[0096] 図6は、本明細書で開示されるシステムおよび方法に従って実装され得るエレメント662のより具体的な例を図示するブロック図である。エレメント662は、カメラ646、変位情報取得器614、深度情報取得器616、および/または深度情報補正器618を含み得る。エレメント662のうちの1つまたは複数は、同じ電子デバイス上に、または別個の電子デバイス上に実装され得る。いくつかの構成では、エレメント662の1つまたは複数は、図1に関連して説明される対応するエレメントの例であり得る。例えば、図6に関連して説明されるエレメント662の1つまたは複数は、図1に関連して説明される電子デバイス102上に実装され得る。
[0097] 複数のカメラ646は、複数のイメージ648(例えば、カメラ入力)をキャプチャし得る。カメラ646は、図1に関連して説明されるイメージセンサ104および光学システム106の例であり得る。例えば、各カメラ646は、イメージセンサおよび光学システムを含み得る。この例では、カメラ646は、図1に関連して説明される深度センサ108の例であり得る。
[0098] カメラ646は、オーバーラップしているが異なるイメージ648をキャプチャし得る。いくつかの例では、2つのカメラ646は、ある距離だけ離れており、1つまたは複数のデバイスあるいはボディに搭載され得る。一例では、複数のカメラ646は、シーンのイメージ648をキャプチャするために、ドローンに搭載され得る。別の例では、複数の(アクション)カメラ646は、シーンのイメージ648をキャプチャするために、ユーザ(例えば、着用者)に取り付けられ得る。さらに別の例では、複数のカメラ646は、スマートフォン、ビデオカメラ、スチルカメラ、防犯カメラ、フレーム、頭部装着型デバイス(例えば、バーチャルリアリティヘッドセット、拡張リアリティヘッドセット、混合リアリティヘッドセット、ヘルメット、メガネ)、ゲーミングデバイス、テレビジョン、電化製品、飛行機、ボート、自転車、車両(例えば、車)、家、ビル、兵器(例えば、銃器)などの異なるロケーションに搭載され得る。これらのカメラ646は、カメラ646によって眺められるシーンの複数のイメージ648をキャプチャし得る。例えば、イメージ648は、シーンの近接するおよび/またはオーバーラップするエリアを描き得る。イメージ648は、深度情報取得器616に提供され得る。カメラ646が図6に関連して説明されるが、追加のまたは代替的な深度センサが本明細書で開示されるシステムおよび方法に従って利用され得ることに留意されたい。
[0099] 深度情報取得器616は、イメージ648に基づいて深度マップ654を取得し得る。図6に関連して説明される深度情報取得器616は、図1に関連して説明される深度情報取得器116の例であり得る。例えば、深度情報取得器616は、立体三角測量(stereoscopic triangulation)および/または他の深度感知に基づいて、深度マップ654を取得し得る。深度マップ654は、深度情報補正器618に提供され得る。いくつかの構成では、深度情報取得器616は、図1および9のうちの1つまたは複数に関連して説明されるような誤りのある深度情報を検出し得る。
[00100] 加速度計610は、動き情報650を取得し得る。図6に関連して説明される加速度計610は、図1に関連して説明される動きセンサ110の例であり得る。加速度計610は、動き情報650を作成し得る。動き情報650は、加速度計(例えば、時間にわたる平行移動および/または回転)の動きを示し得る。動き情報650は、変位情報取得器614に提供され得る。加速度計610が図6に関連して説明されるが、追加的なまたは代替的な動きセンサが本明細書で開示されるシステムおよび方法に従って利用され得ることに留意されたい。
[00101] 変位情報取得器614は、動き情報650に基づいて変位情報652を取得し得る。例えば、変位情報取得器614は、イメージ648に対応するサンプリングした時間の間の位置差(例えば、ピッチ、ヨー、および/またはロールのような回転差、並びに/あるいは、前/後、左/右、および/または上/下のような平行移動差)を決定し得る。いくつかの例では、動き情報650のキャプチャにおけるタイミングは、イメージ648のキャプチャ(または、例えば、測定された情報のキャプチャ)とほぼ同期し得る。図6に関連して説明される変位情報取得器614は、図1に関連して説明される変位情報取得器114の例であり得る。変位情報652は、深度情報補正器618に提供され得る。
[00102] 深度情報補正器618は、深度マップ654のうちの少なくとも1つ中の誤りのある深度情報を補正し得る。図6に関連して説明される深度情報補正器618は、図1に関連して説明される深度情報補正器118の例であり得る。いくつかの構成では、深度情報補正器618は、変換器655、および/または深度情報置換器658を含み得る。
[00103] 変換器655は、深度マップ654のうちの少なくとも1つを受信し得る。変換器655は、変位情報652を受け取り得る。変換器655は、変換された深度マップ656を作成するために、変位情報652に基づいて第1の深度マップ654を変換し得る。これは、例えば、図1および8のうちの1つまたは複数に関連して説明されるように達成され得る。変換器655は、変換された深度マップ656を、深度情報置換器658に提供し得る。
[00104] 深度情報置換器658は、第2の深度マップ654の誤りのある深度情報(例えば、1つまたは複数の誤りのある深度)を、変換された深度マップ656の対応する深度情報に置き換え得る。これは、例えば、図1−9のうちの1つまたは複数に関連して説明されるように達成され得る。第2の深度マップ654の誤りのある深度情報を、変換された深度マップ656の対応する深度情報に置き換えることは、補正された深度マップ660を作成し得る。
[00105] 補正された深度マップ660は、1つまたは複数のエレメントに提供され得る。例えば、補正された深度マップ660は、視覚化エレメントに提供され得る。視覚化エレメントは、補正された深度マップ660の視覚的表現を作成し得る。例えば、視覚化エレメントは、補正された深度マップ660中の深度情報(例えば、数値的深度)の1つまたはを提示し得る。追加的にまたは代替的に、視覚化エレメントは、補正された深度マップ660に基づいて3Dモデルを生成し得る。(例えば、イメージ648からの)イメージデータは、いくつかの構成では、補正された深度マップ上でレンダリングされ得る。
[00106] いくつかの構成では、補正された深度マップ660は、駆動素子(driving element)に提供され得る。駆動素子は、上述されるような補正された深度マップ660に基づいて車両および/または出力情報を制御し得る。
[00107] 図7は、誤りのある深度情報を補正するための方法700の1つの構成を図示するフロー図である。方法700は、図1に関連して説明される電子デバイス102、および/または図6に関連して説明される素子662のうちの1つまたは複数によって行われ得る。
[00108] 電子デバイス102は、深度センサ108によってシーンの第1のサンプリングから第1の深度マップを取得し(702)得る。これは、図1−2、および6のうちの1つまたは複数に関連して上述されるように達成され得る。例えば、電子デバイス102は、第1の深度マップを取得し(702)得、ここで、第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を含む。
[00109] 電子デバイス102は、深度センサ108によってシーンの第2のサンプリングから第2の深度マップを取得し(704)得る。これは、図1−2、および6のうちの1つまたは複数に関連して上述されるように達成され得る。例えば、電子デバイス102は、第2の深度マップを取得し(702)得、ここで、第2の深度マップは、第2のサンプリングで深度センサによってサンプリングされたシーンの第2の部分の第2の深度情報を含む。
[00110] 電子デバイス102は、(例えば、第1のサンプリングから第2のサンプリングまでの)第1のサンプリングと第2のサンプリングとの間の深度センサ108の変位を示す変位情報を取得し(706)得る。これは、図1−2、および6のうちの1つまたは複数に関連して上述されるように達成され得る。
[00111] 電子デバイス102は、変換された深度マップを作成するために、変位情報に基づいて第1の深度マップを変換し(708)得る。これは、図1−2、および6のうちの1つまたは複数に関連して上述されるように達成され得る。
[00112] 電子デバイス102は、第2の深度マップ中の誤りのある深度情報を検出し(710)得る。これは、図1および9のうちの1つまたは複数に関連して説明されるように達成され得る。例えば、電子デバイス102は、1つまたは複数の深度を、同じ深度マップ中の1つまたは複数の隣接する深度(例えば、空間的に補間された深度、空間的に平均化された深度)と比較することによって、および/または、1つまたは複数の深度を、1つまたは複数の変換された深度マップ(例えば、変換された前の深度マップおよび/または変換された後続の深度マップ)からの1つまたは複数の深度と比較することによって、誤りのある深度情報を検出し(710)得る。
[00113] 電子デバイス102は、変換された深度マップの対応する深度情報に基づいて、第2の深度マップの誤りのある深度情報を置き換え(712)得る。これは、図1−2、6および9のうちの1つまたは複数に関連して説明されるように達成され得る。例えば、電子デバイス102は、第2の深度マップの誤りのある深度情報を、変換された深度マップの対応する深度情報に置き換え得る。追加的にまたは代替的に、電子デバイス102は、変換された深度マップの対応する深度情報に基づいて、誤りのある深度情報を、1つまたは複数の深度補間値(例えば、時間的深度補間値、時空間的深度補間値、時間的平均値、時空間的平均値など)に置き換え得る。代替的に、電子デバイス102は、同じおよび/または異なる(例えば、前のおよび/または後続の)深度マップからの1つまたは複数の深度を用いて誤りのある深度情報を平均化し得る。
[00114] いくつかの構成では、電子デバイス102は、深度マップを補正するために、1つまたは複数の変換された深度値(例えば、変換された深度マップ、再投影された深度値など)およびローカル近隣深度値を利用し得る。例えば、電子デバイス102は、補正された深度値の合同評価を行うために、機能停止の付近の変換された深度値および1つまたは複数のローカル近隣深度値を利用し得る。
[00115] いくつかの構成では、電子デバイス102は、下記のように深度マップを補正し得る。電子デバイス102は、センサ移動に従って、複数の深度マップからの深度情報(例えば、ビュー、変換された深度マップなど)をアグリゲートし得る。次に、電子デバイス102は、正確な深度を推定するために、深度値間にフィルタリング(例えば、補間値、平均化、中央値(median)、平均値(mean)など)を適用し得る。補正された深度マップを生成すること、および/または誤りのある深度情報を補正することが、深度マップを変換すること(708)、および/または誤りのある深度情報を置き換えること(712)を含み得ることに留意されたい。
[00116] 図8は、本明細書で開示されるシステムおよび方法に従って行われ得る変換の一例を図示する図である。例えば、電子デバイス102(例えば、深度情報補正器118)は、変換された深度マップを作成するために、変位情報に基づいて第1の深度マップを変換し得る。いくつかの構成では、電子デバイス102は、図8に関連して説明されるアプローチに従って、1つまたは複数の深度マップ(例えば、深度情報)を変換し得る。
[00117] 例えば、電子デバイス102は、図1に関連して説明されるように、第1の深度マップを取得し得る。第1の深度マップは、第1のサンプリングにおけるシーンの第1の部分の深度のセットを含み得る。深度センサは、第1のサンプリングと第2のサンプリングとの間で移動し得る。動き情報(例えば、変位情報)は、第1のサンプリングと第2のサンプリングとの間の深度センサの変位を示し得る。例えば、動き情報および/または変位情報は、第1のサンプリングと第2のサンプリングとの間の変位を反映する、回転マトリクス(例えば、R)と平行移動マトリクス(例えば、T)であり得る、および/またはそれらを示し得る。電子デバイス102は、第2の深度マップを取得し得、それは、第2のサンプリングにおけるシーンの第2の部分の深度の別のセットを含み得る。
[00118] 具体的には、図8は、シーン中の点886を図示している。センサプレーン上の対応する点888(例えば、深度センサプレーン)もまた図示されている。この例では、fが光学システム(例えば、レンズを有するセンサ、カメラなど)の焦点距離である。深度センサ(例えば、光学システム、カメラなど)の焦点距離fは、既知であり得る、および/またはあらかじめ定められ得る。Zは、ワールド座標系における点886の深度であり得、x,yは、(例えば、第1のサンプリングにおける)センサプレーン上の点888の感知されたデータ(例えば、イメージ、深度など)のロケーションであり得る。例えば、第1の深度マップの深度(例えば、Z)の各々は、深度センサプレーン上の異なる点(例えば、x,y)に位置し得る。
[00119] 電子デバイス102(例えば、深度情報補正器118)は、変換された深度マップを作成するために、深度マップ(例えば、第1の深度マップ)を変換し得る。例えば、ワールド座標の点886(例えば、X,Y,Z)は、深度Zおよび対応する点888(x,y)に基づいて計算され得、ここで、X=Z*f/xであり、Y座標は、同様に計算され得る(例えば、Y=Z*f/y)。例えば、電子デバイス102(例えば、プロセッサ112)は、1つまたは複数のセンサプレーン点(x,y)を、1つまたは複数のワールド座標点P=(X,Y,Z)に投影し得る。
[00120] ワールド座標系中の点886 P=(X,Y,Z)を取得すると、電子デバイス102は、センサの回転および平行移動に従って、ワールド座標点886(例えば、第1の深度マップに対応するワールド座標点886のうちの1つまたは複数)を回転させ得る(例えば、R)および/または平行移動させ得る(例えば、T)。例えば、電子デバイス102は、1つまたは複数の回転された、および/または平行移動された点P’=(X’,Y’,Z’)=R*P+T(ここで、例えば、Rは、3×3(3 by 3)回転マトリクスであり、Tは、1×3(1 by 3)平行移動ベクトルである)を決定し得る。回転されたおよび/または平行移動された点P’=(X’,Y’,Z’)は次に、新規の視点のセンサプレーンに戻って投影され得、x’およびy’をもたらす。例えば、電子デバイス102は、x’=f*Z’/X’およびy’= f*Z’/Y’を計算し得る。新たな視点(例えば、第2のサンプリングでの視点(x’,y’))のセンサプレーンにおける深度Z’のセットは、変換された深度マップであり得る。
[00121] 図9は、深度984、986、988(例えば、深度値)の例を図示する図である。具体的には、図9は、誤りのある深度情報を検出するためのアプローチの例を図示する。図9では、深度(n−1) 984は、シーンの前のフレームおよび/または前のサンプリング(例えば、第1の深度マップ)に対応し、深度(n) 986は、シーンの現在のフレームおよび/または現在のサンプリング(例えば、第2の深度マップ)に対応し、深度(n+1) 988は、シーンの後続のフレームおよび/または後続のサンプリング(例えば、第3の深度マップ)に対応する。例えば、深度(n−1) 984は、前の深度マップ(または変換された前の深度マップ)の一部であり得、深度(n) 986は、現在の深度マップの一部であり得、深度(n+1) 988は、後続の深度マップ(または、変換された後続の深度マップ)の一部であり得る。以下の例のいくつかにおいて、深度dn,x,yは、深度dn,x,yが誤りである(例えば、誤りのある深度情報)か、またはそうでないかを決定するために、(例えば、プロセッサ112および/または深度情報取得器116によって)評価され得る。
[00122] いくつかの構成では、深度dn,x,yは、同じフレーム中(例えば、dn,x−1,y−1、dn,x,y−1、dn,x+1,y−1、dn,x−1,y、dn,x+1,y、dn,x−1,y+1、dn,x,y+1、および/または、dn,x+1,y+1)の1つまたは複数の深度(例えば、隣接する深度)に基づいて評価され得る。例えば、2つ以上の深度(例えば、隣接する深度)の補間値(例えば、アベレージ、平均値、中央値、重み付け平均、線形補間値、双線形補間値、スプライン補間値、多項式補間値など)が、空間的深度補間値(例えば、ds,int)を作成するために決定され得る。いくつかの構成では、2つの隣接する深度(例えば、dn,x−1,yとdn,x+1,y;dn,x−1,y−1とdn,x+1,y+1;dn,x,y−1とdn,x,y+1;dn,x+1,y−1とdn,x−1,y+1など)が、補間され(例えば、平均化され)得る。いくつかのアプローチでは、4つの隣接する深度(例えば、dn,x−1,y、dn,x+1,y、dn,x,y−1、およびdn,x,y+1;dn,x−1,y−1、dn,x+1,y+1;dn,x+1,y−1、およびdn,x−1,y+1など)が、補間され(例えば、平均化され)得る。いくつかの構成では、8個の隣接する深度(例えば、dn,x−1,y−1、dn,x,y−1、dn,x+1,y−1、dn,x−1,y、dn,x+1,y、dn,x−1,y+1、dn,x,y+1、およびdn,x+1,y+1)が、補間され(例えば、平均化され)得る。追加的にまたは代替的に、(例えば、dn,x−2,y、dn,x+2,y、dn,x,y−2、およびdn,x,y+2などのような)評価される深度から遠い(例えば、すぐ隣(immediate neighbors)よりも遠い)1つまたは複数の他の深度が、補間値計算に含まれ得る。
[00123] 電子デバイス102は、深度を空間的深度補間値(例えば、ds,int)と比較することによって、誤りのある深度情報を検出し得る。例えば、深度(例えば、dn,x,y)が空間的深度補間値(例えば、ds,int)から、閾値量より多く離れている場合、電子デバイス102は、その深度が誤りであると決定し得る。例えば、dn,x,y<ds,int−thresholds.lowである(ここで、thresholds,lowは第1の閾値である)場合、および/または、dn,x,y>ds,int+thresholds,highである(ここで、thresholds,highは第2の閾値である)場合、dn,x,yは、誤りのある深度情報として検出され得る。閾値は、距離の単位(例えば、インチ、フィート、メートルなど)であり得る。第1および第2の閾値は、同じであるか、または異なるものであり得る。
[00124] いくつかの構成では、深度dn,x,yは、1つまたは複数の前のフレーム(例えば、dn−1,x−1,y−1、dn−1,x,y−1、dn−1,x+1,y−1、dn−1,x−1,y、dn−1,x,y、dn−1,x+1,y、dn−1,x−1,y+1、dn−1,x,y+1、および/またはdn−1,x+1,y+1)からの、および/または1つまたは複数の後続のフレーム(例えば、dn+1,x−1,y−1、dn+1,x,y−1、dn+1,x+1,y−1、dn+1,x−1,y、dn+1,x,y、dn+1,x+1,y、dn+1,x−1,y+1、dn+1,x,y+1、および/またはdn+1,x+1,y+1)からの、1つまたは複数の変換された(例えば、再投影された)深度に基づいて評価され得る。例えば、電子デバイス102(例えば、プロセッサ112、深度情報取得器116など)は、評価されている深度(例えば、dn,x,y)を、前のフレームからの対応する変換された深度(例えば、dn−1,x,y)と比較し得る。深度(例えば、dn,x,y)が、対応する変換された深度(例えば、dn−1,x,y)から、閾値量より多く離れている場合、電子デバイス102は、深度が誤りであることを決定し得る。例えば、dn,x,y<dn−1,x,y−thresholdn−1,lowの場合、および/またはdn,x,y>dn−1,x,y+thresholdn−1,highの場合、dn,x,yは、誤りのある深度情報として検出され得る。同様のアプローチは、後続のフレーム(例えば、dn+1,x,y)について追加的にまたは代替的に行われ得る。
[00125] いくつかの構成では、深度dn,x,yは、1つまたは複数の前のフレームからの、および/または1つまたは複数の後続のフレームからの、変換された(例えば、再投影された)深度に基づいて評価され得る。例えば、電子デバイス102(例えば、プロセッサ112、深度情報取得器116など)は、1つまたは複数の前のフレームからの、および/または1つまたは複数の後続のフレームからの、2つ以上の変換された深度の補間値(例えば、アベレージ、平均値、中央値、重み付け平均、線形補間値、双線形補間値、スプライン補間値、多項式補間値など)を決定し得る。一例では、電子デバイス102は、時間的深度補間値(例えば、dt,int)を作成するために、前のフレーム(例えば、dn−1,x,y)からの対応する変換された深度、および後続のフレーム(例えば、dn+1,x,y)からの対応する変換された深度の時間的補間値を決定し得る。深度(例えば、dn,x,y)は、時間的深度補間値(例えば、dt,int)から、閾値量より多く離れている場合、電子デバイス102は、その深度が誤りであることを決定し得る。例えば、dn,x,y<dt,int−thresholdt,lowの場合、および/またはdn,x,y>dt,int+thresholdt,highの場合、dn,x,yは、誤りのある深度情報として検出され得る。いくつかの例では、複数の前のフレームからの深度、および/または複数の後続のフレームからの深度は、時間的深度補間値(例えば、dt,int)を作成するために補間され得る。
[00126] いくつかの構成では、深度dn,x,yは、同じフレーム中の1つまたは複数の深度と、1つまたは複数の前のフレームからの、および/または1つまたは複数の後続のフレームからの、1つまたは複数の変換された(例えば、再投影された)深度との組み合わせに基づいて評価され得る。例えば、電子デバイス102(例えば、プロセッサ112、深度情報取得器116など)は、同じフレームからの2つ以上の深度(例えば、隣接する深度)の空間的補間値(例えば、アベレージ、平均値、中央値、重み付け平均、線形補間値、双線形補間値、スプライン補間値、多項式補間値など)、1つまたは複数の前のフレームからの2つ以上の変換された深度の空間的補間値、および/または1つまたは複数の後続のフレームからの変換された深度の空間的補間値を決定し得る。例えば、電子デバイス102は、前のフレームの2つ以上の深度984(例えば、2−9個の深度)の空間的補間値、現在のフレームの2つ以上の深度986(例えば、2−9個の深度、2−8個の隣接する深度など)の空間的補間値、および/または後続のフレームの2つ以上の深度988(例えば、2−9個の深度など)の空間的補間値を決定し得る。電子デバイス102はさらに、前のフレーム、現在のフレーム、および/または後続のフレームからの2つ以上の深度(例えば、深度および/または空間的補間値深度)の空間的補間値を決定し得る。いくつかの例では、電子デバイス102は、前のフレーム、現在のフレーム、および/または後続のフレームからの深度の時空間的補間値(例えば、ds,t,int)を決定するために、空間的次元および時間的次元の両方で補間され得る。深度(例えば、dn,x,y)が時空間的深度補間値(例えば、ds,t,int)から、閾値量より多く離れている場合、、電子デバイス102は、その深度が誤りであることを決定し得る。例えば、dn,x,y<ds,t,int−thresholds,t,lowの場合、および/またはdn,x,y>ds,t,int+thresholds,t,highの場合、dn,x,yは、誤りのある深度情報として検出され得る。
[00127] いくつかの例では、空間的深度補間値ds,intと、時間的深度補間値(例えば、dt,int)とは、別個に決定され得る。電子デバイス102は、深度および空間的基準の組み合わせに基づいて、深度(例えば、dn,x,y)が誤りであるかどうかを決定し得る。例えば、dn,x,y<ds,int−thresholds.lowである(ここで、thresholds,lowは、第1の閾値である)場合、および/またはdn,x,y>ds,int+thresholds,highである(ここで、thresholds,highは、第2の閾値である)場合、あるいは、dn,x,y<dt,int−thresholdt,lowである場合、および/またはdn,x,y>dt,int+thresholdt,highである場合、dn,x,yは、誤りのある深度情報として検出され得る。
[00128] 下記の例のうちのいくつかにおいて、深度dn,x,yは、深度dn,x,yが誤りのある深度情報である場合に関して(例えば、プロセッサ112および/または深度情報補正器118によって)補正され得る。いくつかの構成では、深度dn,x,yは、同じフレーム中の1つまたは複数の深度(例えば、隣接する深度)(例えば、dn,x−1,y−1、dn,x,y−1、dn,x+1,y−1、dn,x−1,y、dn,x+1,y、dn,x−1,y+1、dn,x,y+1、および/または、dn,x+1,y+1)に基づいて補正され得る。例えば、隣接する深度のうちの2つ以上の補間値(例えば、アベレージ、平均値、中央値、重み付け平均、線形補間値、双線形補間値、スプライン補間値、多項式補間値など)が、近隣空間的深度補間(例えば、ds,int)を作成するために決定され得る。いくつかのアプローチでは、2つの隣接する深度(例えば、dn,x−1,yとdn,x+1,y;dn,x−1,y−1とdn,x+1,y+1;dn,x,y−1とdn,x,y+1;dn,x+1,y−1とdn,x−1,y+1など)が、補間され(例えば、平均化され)得る。いくつかのアプローチでは、4つの隣接する深度(例えば、dn,x−1,y、dn,x+1,y、dn,x,y−1、およびdn,x,y+1;dn,x−1,y−1、dn,x+1,y+1;dn,x+1,y−1、およびdn,x−1,y+1など)が、補間され(例えば、平均化され)得る。いくつかの構成では、8個の隣接する深度(例えば、dn,x−1,y−1、dn,x,y−1、dn,x+1,y−1、dn,x−1,y、dn,x+1,y、dn,x−1,y+1、dn,x,y+1、およびdn,x+1,y+1)が、補間され(例えば、平均化され)得る。追加的にまたは代替的に、(例えば、dn,x−2,y、dn,x+2,y、dn,x,y−2、およびdn,x,y+2などのような)評価される深度から遠い(例えば、すぐ隣よりも遠い)1つまたは複数の他の深度が、補間値計算に含まれ得る。電子デバイス102は、深度を、空間的深度補間値(例えば、ds,int)に置き換えることによって、誤りのある深度情報を補正し得る。
[00129] いくつかの構成では、誤りのある深度dn,x,yは、(例えば、1つまたは複数の前のフレームおよび/または1つまたは複数の後続のフレームからの)1つまたは複数の隣接する深度を用いて、および/または1つまたは複数の変換された深度マップからの1つまたは複数の深度値を用いて、誤りのある深度dn,x,yを平均化することによって、補正され得る。例えば、誤りのある深度は、(例えば、dn,x−1,y、dn,x,yおよびdn,x+1,yが平均化され得、dn,x−1,y−1、dn,x,yおよびdn,x+1,y+1が平均化され得、dn,x,y−1、dn,x,yおよびdn,x,y+1が平均化され得、dn,x+1,y−1、dn,x,yおよびdn,x−1,y+1が平均化されるなどのように)隣接する深度を用いて平均化され得る。追加的にまたは代替的に、誤りのある深度は、(例えば、dn,x−1,y、dn,x,yおよびdn,x+1,yが平均化され得、dn−1,x,yおよびdn,x,yが平均化され得、(例えば、対応する3×3の近隣において)変換された深度マップからの深度の平均値、およびdn,x,y(またはdn,x,yを含む3×3の近隣など)が平均化され得るなどの)1つまたは複数の他の変換された深度マップからの1つまたは複数の深度を用いて平均化され得る。いくつかの構成では、平均化は、重み付けされ得る。例えば、1つまたは複数の他の深度値(例えば、隣接する深度値および/または変換された深度マップからの深度値)に対して、誤りのある深度値に対してよりも、より大きい重みが与えられ得る。
[00130] いくつかの構成では、誤りのある深度dn,x,yは、1つまたは複数の前のフレーム(例えば、dn−1,x−1,y−1、dn−1,x,y−1、dn−1,x+1,y−1、dn−1,x−1,y、dn−1,x,y、dn−1,x+1,y、dn−1,x−1,y+1、dn−1,x,y+1、および/またはdn−1,x+1,y+1)からの、および/または1つまたは複数の後続のフレーム(例えば、dn+1,x−1,y−1、dn+1,x,y−1、dn+1,x+1,y−1、dn+1,x−1,y、dn+1,x,y、dn+1,x+1,y、dn+1,x−1,y+1、dn+1,x,y+1、および/またはdn+1,x+1,y+1)からの、1つまたは複数の変換された(例えば、再投影された)深度に基づいて補正され得る。例えば、電子デバイス102(例えば、プロセッサ112は、深度情報補正器118など)は、誤りのある深度(例えば、dn,x,y)を、前のフレーム(例えば、dn−1,x,y)からの対応する変換された深度、または後続のフレーム(例えば、dn+1,x,y)からの対応する変換された深度に置き換え得る。
[00131] いくつかの構成では、誤りのある深度dn,x,yは、1つまたは複数の前のフレームからの、および/または1つまたは複数の後続のフレームからの、変換された(例えば、再投影された)深度に基づいて補正され得る。例えば、電子デバイス102(例えば、プロセッサ112、深度情報取得器116、深度情報補正器118など)は、1つまたは複数の前のフレームからの、および/または1つまたは複数の後続のフレームからの、2つ以上の変換された深度の補間値(例えば、アベレージ、平均値、中央値、重み付け平均、線形補間値、双線形補間値、スプライン補間値、多項式補間値など)を決定し得る。一例では、電子デバイス102は、時間的深度補間値(例えば、dt,int)を作成するために、前のフレーム(例えば、dn−1,x,y)からの対応する変換された深度、および後続のフレーム(例えば、dn+1,x,y)からの対応する変換された深度の時間的補間値を決定し得る。電子デバイス102(例えば、プロセッサ112は、深度情報補正器118など)は、誤りのある深度(例えば、dn,x,y)を、時間的深度補間値(例えば、dt,int)に置き換え得る。
[00132] いくつかの構成では、誤りのある深度dn,x,yは、同じフレーム中の1つまたは複数の深度と、1つまたは複数の前のフレームからの、および/または1つまたは複数の後続のフレームからの、1つまたは複数の変換された(例えば、再投影された)深度との組み合わせに基づいて補正され得る。例えば、電子デバイス102(例えば、プロセッサ112、深度情報取得器116、深度情報補正器118など)は、同じフレームからの2つ以上の深度(例えば、隣接する深度)の空間的補間値(例えば、アベレージ、平均値、中央値、重み付け平均、線形補間値、双線形補間値、スプライン補間値、多項式補間値など)、1つまたは複数の前のフレームからの2つ以上の変換された深度の空間的補間値、および/または1つまたは複数の後続のフレームからの変換された深度の空間的補間値を決定し得る。例えば、電子デバイス102は、前のフレームの2つ以上の深度984(例えば、2−9個の深度)の空間的補間値、現在のフレームの2つ以上の深度986(例えば、2−9個の深度、2−8個の隣接する深度など)の空間的補間値、および/または後続のフレームの2つ以上の深度988(例えば、2−9個の深度など)の空間的補間値を決定し得る。電子デバイス102はさらに、前のフレーム、現在のフレーム、および/または後続のフレームからの2つ以上の深度(例えば、深度および/または空間的補間値深度)の空間的補間値を決定し得る。いくつかの例では、電子デバイス102は、前のフレーム、現在のフレーム、および/または後続のフレームからの深度の時空間的補間値(例えば、ds,t,int)を決定するために、空間的次元および時間的次元の両方で補間され得る。電子デバイス102(例えば、プロセッサ112、深度情報補正器118など)は、誤りのある深度(例えば、dn,x,y)を、時空間的深度補間値(例えば、dt,int)に置き換え得る。
[00133] いくつかの構成では、電子デバイス102(例えば、深度情報補正器118)は、誤りのある深度情報を補正するために、誤りのある深度検出(例えば、空間的深度補間(例えば、ds,int)、時間的深度補間値(例えば、dt,int)、および/または時空間的深度補間値(例えば、ds,t,int)など)において決定された補間を再利用し得る。いくつかの構成では、深度情報取得器116は、深度情報補正器118によって誤りのある深度情報を補正するために使用されるよりも、誤りのある深度情報を検出するために、異なる補間値を使用し得る。
[00134] 図10は、本明細書で開示されるシステムおよび方法の様々な構成を実装するように構成される電子デバイス1002内に含まれ得る、ある特定の構成要素を図示する。電子デバイス1002の例は、カメラ、ビデオカムコーダ、デジタルカメラ、セルラフォン、スマートフォン、コンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータなど)、タブレットデバイス、メディアプレイヤ、テレビジョン、車両、自動車、パーソナルカメラ、ウェアラブルカメラ、バーチャルリアリティデバイス(例えば、ヘッドセット)、拡張リアリティデバイス(例えば、ヘッドセット)、混合リアリティデバイス(例えば、ヘッドセット)、アクションカメラ、監視カメラ、搭載型カメラ、接続型カメラ、ロボット、飛行機、ドローン、無人機(UAV)、スマート家電、ヘルスケア器具、ゲーミングコンソール、パーソナルデジタルアシスタント(PDAs)、セットトップボックス、測量デバイス、地図作製者(mappers)などを含み得る。電子デバイス1002は、図1に関連して説明される電子デバイス102に従って、および/または図6に関連して説明されるエレメント662のうちの1つまたは複数に従って実装され得る。電子デバイス1002は、プロセッサ1082を含む。プロセッサ1082は、汎用単一またはマルチチップマイクロプロセッサ(例えば、ARM)、特殊用途向けマイクロプロセッサ(例えば、デジタルシグナルプロセッサ(DSP))、マイクロプロセッサ、マイクロコントローラ、プログラマブルゲートアレイなどであり得る。プロセッサ1082は、中央処理ユニット(CPU)と呼ばれ得る。電子デバイス1002中には単一のプロセッサ1082のみが示されているが、代替の構成では、プロセッサの組み合わせ(例えば、ARMとDSP)が実装され得る。
[00135] 電子デバイス1002はまた、メモリ1062も含む。メモリ1062は、電子情報を記憶することが可能な任意の電子コンポーネントであり得る。メモリ1062は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、磁気ディスク記憶媒体、光学記憶媒体、RAMにおけるフラッシュメモリデバイス、プロセッサと共に含まれるオンボードメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタ、およびそれらの組み合わせを含むその他のものとして実現され得る。
[00136] データ1066aおよび命令1064aは、メモリ1062に記憶され得る。命令1064aは、本明細書で説明される方法(例えば、方法200、方法700)、プロシージャ、ステップ、および/または機能のうちの1つまたは複数を実装するために、プロセッサ1082によって実行可能であり得る。命令1064aを実行することは、メモリ1062内に記憶されるデータ1066aの使用を含み得る。プロセッサ1082が命令1064を実行するとき、命令1064bの様々な部分がプロセッサ1082にロードされ、データ1066bの様々な部分がプロセッサ1082にロードされ得る。
[00137] 電子デバイス1002はまた、電子デバイス1002への信号の送信と、電子デバイス1002からの信号の受信を可能にするために、送信機1072および受信機1074を含み得る。送信機1072および受信機1074は、トランシーバ1076と総称され得る。1つまたは複数のアンテナ1737a−bは、トランシーバ1076に電気的に結合され得る。電子デバイス1002はまた、複数の送信機、複数の受信機、複数のトランシーバおよび/または追加のアンテナを含み得る(図示されない)。
[00138] 電子デバイス1002は、デジタルシグナルプロセッサ(DSP)1078を含み得る。電子デバイス1002はまた、通信インターフェース1080を含み得る。通信インターフェース1080は、入力および/または出力の1つまたは複数の種類を許可および/または利用可能にする。例えば、通信インターフェース1080は、他のデバイスを電子デバイス1002にリンク付けするための1つまたは複数ポートおよび/または通信デバイスを含み得る。いくつかの構成では、通信インターフェース1080は、送信機1072、受信機1074、または両方(トランシーバ1076)を含み得る。追加的にまたは代替的に、通信インターフェース1080は、1つまたは複数の他のインターフェース(例えば、タッチスクリーン、キーパッド、キーボード、マイクロフォン、カメラなど)を含み得る。例えば、通信インターフェース1080は、ユーザが電子デバイス1002と相互作用することを可能にし得る。
[00139] 電子デバイス1002の様々な構成要素は、電力バス、制御信号バス、ステータス信号バス、データバスなどを含み得る1つまたは複数のバスによって互いに結合され得る。明確化のために、様々なバスがバスシステム1068として図10に示される。
[00140] 「決定すること」という用語は、多種多様なアクションを包含し、従って「決定すること」は、計算すること、演算すること、処理すること、導出すること、調査すること、ルックアップすること(例えば、表、データベース、または別のデータ構造をルックアップすること)、確認することなどを含み得る。また、「決定すること」は、受信すること(例えば、情報を受信すること)、アクセスすること(例えば、メモリ内のデータにアクセスすること)などを含み得る。また、「決定すること」は、解決すること、選択すること、選ぶこと、確立することなどを含み得る。
[00141] 「〜に基づく」というフレーズは、そうではないと明確に指定されていない限り、「〜のみに基づく」ことを意味するわけではない。言い換えると、「〜に基づく」というフレーズは、「〜のみに基づく」および「〜に少なくとも基づく」の両方を説明する。
[00142] 「プロセッサ」という用語は、汎用プロセッサ、中央処理ユニット(CPU)、マイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、コントローラ、マイクロコントローラ、ステートマシンなどを包含するように広く解釈されるべきである。いくつかの状況下では、「プロセッサ」は、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)などを指し得る。「プロセッサ」という用語は、例えば、DSPと1つのマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと連結した1つまたは複数のマイクロプロセッサ、または、任意の他のそのような構成などの、処理デバイスの組み合わせを指し得る。
[00143] 「メモリ」という用語は、電子情報を記憶することができる任意の電子構成要素を包含するように広く解釈されるべきである。メモリという用語は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブル読取専用メモリ(PROM)、消去可能プログラマブル読取専用メモリ(EPROM)、電気的消去可能PROM(EEPROM)、フラッシュメモリ、磁気または光データストレージ、レジスタなどのような、様々なタイプのプロセッサ可読媒体を指し得る。メモリは、プロセッサがそのメモリから情報を読み取ることができるおよび/またはそれに情報を書き込むことができる場合に、そのプロセッサと電子通信中であると言える。プロセッサに統合されているメモリは、そのプロセッサと電子通信中である。
[00144] 「命令」および「コード」という用語は、任意のタイプのコンピュータ可読ステートメントを含むように広く解釈されるべきである。例えば、「命令」および「コード」という用語は、1つまたは複数のプログラム、ルーチン、サブルーチン、関数、プロシージャなどを指し得る。「命令」および「コード」は、単一のコンピュータ可読ステートメント、または多くのコンピュータ可読ステートメントを備え得る。
[00145] 本明細書で説明される機能は、ハードウェアによって実行されるソフトウェアまたはファームウェアにおいて実装され得る。これら機能は、コンピュータ可読媒体上で、1つまたは複数の命令として記憶され得る。「コンピュータ可読媒体」または「コンピュータプログラム製品」という用語は、コンピュータまたはプロセッサによってアクセスされ得る任意の有形の記憶媒体を指す。限定はされないが、例として、コンピュータ可読媒体は、命令またはデータ構造の形式で所望のプログラムコードを搬送あるいは記憶するために使用されることができ、かつ、コンピュータによってアクセスされることができる任意の媒体を備え得る。コンピュータ可読媒体は、有形および非一時的であり得ることに留意されたい。「コンピュータプログラム製品」という用語は、コンピューティングデバイスまたはプロセッサによって実行、処理、または計算され得るコードまたは命令(例えば、「プログラム」)と組み合わせたコンピューティングデバイスまたはプロセッサを指す。本明細書で使用される場合、「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能であるソフトウェア、命令、コード、またはデータを指し得る。
[00146] ソフトウェアまたは命令はまた、送信媒体上で送信され得る。例えば、ソフトウェアがウェブサイト、サーバ、または他の遠隔ソースから、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波のようなワイヤレス技術を使用して送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、あるいは赤外線、無線、およびマイクロ波のようなワイヤレス技術は、送信媒体の定義に含まれる。
[00147] 本明細書に開示された方法は、説明された方法を達成するための1つまたは複数のステップまたはアクションを備える。方法のステップおよび/またはアクションは、本願の特許請求の範囲から逸脱せずに、互いと交換可能であり得る。言い換えれば、ステップまたは動作の特定の順序が、説明されている方法の正常な動作のために必要とされない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく修正され得る。
[00148] さらに、本明細書で説明される方法および技法を実行するためのモジュールおよび/または他の適切な手段が、デバイスによってダウンロードされ得ること、および/または他の方法で取得され得ることが、認識されるべきである。例えば、デバイスは、本明細書で説明される方法を実行するための手段の転送を容易にするために、サーバに結合され得る。代替的に、本明細書で説明される様々な方法は、デバイスに記憶手段を結合または提供した際に、デバイスが様々な方法を取得し得るように、記憶手段(例えば、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、コンパクトディスク(CD)またはフロッピー(登録商標)ディスクのような物理記憶媒体など)を介して提供され得る。
[00149] 本願の請求項は、上記に図示されたとおりの構成および構成要素に限定されないことが理解されるべきである。本明細書において説明された、システム、方法、および装置の、配置、動作、詳細において、様々な修正、変更、および、バリエーションが、特許請求の範囲から逸脱することなく行われ得る。
[00149] 本願の請求項は、上記に図示されたとおりの構成および構成要素に限定されないことが理解されるべきである。本明細書において説明された、システム、方法、および装置の、配置、動作、詳細において、様々な修正、変更、および、バリエーションが、特許請求の範囲から逸脱することなく行われ得る。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
補正された深度マップを生成するための電子デバイスであって、
深度センサと、
前記深度センサに結合された動きセンサと、ここにおいて、前記動きセンサは、動き情報を決定するように構成され、
前記深度センサおよび前記動きセンサに結合されたプロセッサと、
を備え、ここにおいて、前記プロセッサは、
第1の深度マップを取得することと、ここにおいて、前記第1の深度マップは、第1のサンプリングで前記深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
第2の深度マップを取得することと、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
前記動き情報に基づいて、前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得することと、
前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成することと、
を行うように構成される、電子デバイス。
[C2]
前記プロセッサは、変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換するように構成され、前記プロセッサは、前記変換された深度マップに基づいて前記第2の深度マップの前記誤りのある深度情報を補正するように構成される、C1に記載の電子デバイス。
[C3]
前記プロセッサは、前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えるように構成される、C2に記載の電子デバイス。
[C4]
前記プロセッサは、前記変換された深度マップの対応する誤りのない深度情報を用いて、前記第2の深度マップの誤りのない深度情報を平均化するように構成される、C2に記載の電子デバイス。
[C5]
前記プロセッサは、前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出するように構成される、C2に記載の電子デバイス。
[C6]
前記プロセッサは、前記第2の深度マップの前記深度が、前記変換された深度マップの前記深度から、閾値量を超えるかどうかを決定するように構成される、C5に記載の電子デバイス。
[C7]
前記プロセッサは、前記変換された深度マップの少なくとも2つの深度と、前記第2の深度マップの少なくとも2つの深度との間の時空間的平均値に基づいて、前記誤りのある深度情報を検出するように構成される、C2に記載の電子デバイス。
[C8]
前記プロセッサは、
1つまたは複数のワールド座標点を作成するために、深度センサプレーン上の1つまたは複数の点をワールド座標に投影することと、
前記1つまたは複数のワールド座標点を回転させることと、
前記1つまたは複数のワールド座標点を平行移動させることと、
前記変換された深度マップを作成するために、前記1つまたは複数のワールド座標点を再投影することと
を行うように構成される、C2に記載の電子デバイス。
[C9]
前記プロセッサは、前記第2の深度マップ中の2つ以上の深度の空間的平均値に基づいて、前記誤りのある深度情報を検出するように構成される、C1に記載の電子デバイス。
[C10]
前記誤りのある深度情報は、深度センサの機能停止を備える、C1に記載の電子デバイス。
[C11]
電子デバイスによって、補正された深度マップを生成するための方法であって、
第1の深度マップを取得することと、ここにおいて、前記第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
第2の深度マップを取得することと、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得することと、
前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成することと、
を備える、方法。
[C12]
変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換することをさらに備え、ここにおいて、前記第2の深度マップの前記誤りのある深度情報を補正することは、前記変換された深度マップに基づく、C11に記載の方法。
[C13]
前記誤りのある深度情報を補正することは、前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えることを備える、C12に記載の方法。
[C14]
前記変換された深度マップの対応する誤りのない深度情報を用いて、前記第2の深度マップの誤りのない深度情報を平均化することをさらに備える、C12に記載の方法。
[C15]
前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出することをさらに備える、C12に記載の方法。
[C16]
前記誤りのある深度情報を検出することは、前記第2の深度マップの前記深度が、前記変換された深度マップの前記深度から、閾値量を超えるかどうかを決定することを備える、C15に記載の方法。
[C17]
前記変換された深度マップの少なくとも2つの深度と、前記第2の深度マップの少なくとも2つの深度との間の時空間的平均値に基づいて、前記誤りのある深度情報を検出することをさらに備える、C12に記載の方法。
[C18]
前記第1の深度マップを変換することは、
1つまたは複数のワールド座標点を作成するために、深度センサプレーン上の1つまたは複数の点をワールド座標に投影することと、
前記1つまたは複数のワールド座標点を回転させることと、
前記1つまたは複数のワールド座標点を平行移動させることと、
前記変換された深度マップを作成するために、前記1つまたは複数のワールド座標点を再投影することと
を備える、C12に記載の方法。
[C19]
前記第2の深度マップ中の2つ以上の深度の空間的平均値に基づいて、前記誤りのある深度情報を検出することをさらに備える、C11に記載の方法。
[C20]
前記誤りのある深度情報は、深度センサの機能停止を備える、C11に記載の方法。
[C21]
補正された深度マップを生成するための装置であって、
第1の深度マップを取得するための手段と、ここにおいて、前記第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
第2の深度マップを取得するための手段と、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得するための手段と、
前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成するための手段と
を備える、装置。
[C22]
変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換するための手段をさらに備え、ここにおいて、前記第2の深度マップの前記誤りのある深度情報を補正するための前記手段は、前記変換された深度マップに基づく、C21に記載の装置。
[C23]
前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えるための手段をさらに備える、C22に記載の装置。
[C24]
前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出するための手段をさらに備える、C22に記載の装置。
[C25]
前記誤りのある深度情報は、深度センサの機能停止を備える、C21に記載の装置。
[C26]
命令を有する非一時的な有形のコンピュータ可読媒体を備える、補正された深度マップを生成するためのコンピュータプログラム製品であって、前記命令は、
電子デバイスに、第1の深度マップを取得させるためのコードと、ここにおいて、前記第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
前記電子デバイスに、第2の深度マップを取得させるためのコードと、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
前記電子デバイスに、前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得させるためのコードと、
前記電子デバイスに、前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成させるためのコードと、
を備える、コンピュータプログラム製品。
[C27]
前記電子デバイスに、変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換させるためのコードをさらに備え、前記電子デバイスに、前記第2の深度マップの前記誤りのある深度情報を補正させるための前記コードは、前記変換された深度マップに基づく、C26に記載のコンピュータプログラム製品。
[C28]
前記電子デバイスに、前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えさせるためのコードをさらに備える、C27に記載のコンピュータプログラム製品。
[C29]
前記電子デバイスに、前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出させるためのコードをさらに備える、C27に記載のコンピュータプログラム製品。
[C30]
前記誤りのある深度情報は、深度センサの機能停止を備える、C26に記載のコンピュータプログラム製品。

Claims (30)

  1. 補正された深度マップを生成するための電子デバイスであって、
    深度センサと、
    前記深度センサに結合された動きセンサと、ここにおいて、前記動きセンサは、動き情報を決定するように構成され、
    前記深度センサおよび前記動きセンサに結合されたプロセッサと、
    を備え、ここにおいて、前記プロセッサは、
    第1の深度マップを取得することと、ここにおいて、前記第1の深度マップは、第1のサンプリングで前記深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
    第2の深度マップを取得することと、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
    前記動き情報に基づいて、前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得することと、
    前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成することと、
    を行うように構成される、電子デバイス。
  2. 前記プロセッサは、変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換するように構成され、前記プロセッサは、前記変換された深度マップに基づいて前記第2の深度マップの前記誤りのある深度情報を補正するように構成される、請求項1に記載の電子デバイス。
  3. 前記プロセッサは、前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えるように構成される、請求項2に記載の電子デバイス。
  4. 前記プロセッサは、前記変換された深度マップの対応する誤りのない深度情報を用いて、前記第2の深度マップの誤りのない深度情報を平均化するように構成される、請求項2に記載の電子デバイス。
  5. 前記プロセッサは、前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出するように構成される、請求項2に記載の電子デバイス。
  6. 前記プロセッサは、前記第2の深度マップの前記深度が、前記変換された深度マップの前記深度から、閾値量を超えるかどうかを決定するように構成される、請求項5に記載の電子デバイス。
  7. 前記プロセッサは、前記変換された深度マップの少なくとも2つの深度と、前記第2の深度マップの少なくとも2つの深度との間の時空間的平均値に基づいて、前記誤りのある深度情報を検出するように構成される、請求項2に記載の電子デバイス。
  8. 前記プロセッサは、
    1つまたは複数のワールド座標点を作成するために、深度センサプレーン上の1つまたは複数の点をワールド座標に投影することと、
    前記1つまたは複数のワールド座標点を回転させることと、
    前記1つまたは複数のワールド座標点を平行移動させることと、
    前記変換された深度マップを作成するために、前記1つまたは複数のワールド座標点を再投影することと
    を行うように構成される、請求項2に記載の電子デバイス。
  9. 前記プロセッサは、前記第2の深度マップ中の2つ以上の深度の空間的平均値に基づいて、前記誤りのある深度情報を検出するように構成される、請求項1に記載の電子デバイス。
  10. 前記誤りのある深度情報は、深度センサの機能停止を備える、請求項1に記載の電子デバイス。
  11. 電子デバイスによって、補正された深度マップを生成するための方法であって、
    第1の深度マップを取得することと、ここにおいて、前記第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
    第2の深度マップを取得することと、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
    前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得することと、
    前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成することと、
    を備える、方法。
  12. 変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換することをさらに備え、ここにおいて、前記第2の深度マップの前記誤りのある深度情報を補正することは、前記変換された深度マップに基づく、請求項11に記載の方法。
  13. 前記誤りのある深度情報を補正することは、前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えることを備える、請求項12に記載の方法。
  14. 前記変換された深度マップの対応する誤りのない深度情報を用いて、前記第2の深度マップの誤りのない深度情報を平均化することをさらに備える、請求項12に記載の方法。
  15. 前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出することをさらに備える、請求項12に記載の方法。
  16. 前記誤りのある深度情報を検出することは、前記第2の深度マップの前記深度が、前記変換された深度マップの前記深度から、閾値量を超えるかどうかを決定することを備える、請求項15に記載の方法。
  17. 前記変換された深度マップの少なくとも2つの深度と、前記第2の深度マップの少なくとも2つの深度との間の時空間的平均値に基づいて、前記誤りのある深度情報を検出することをさらに備える、請求項12に記載の方法。
  18. 前記第1の深度マップを変換することは、
    1つまたは複数のワールド座標点を作成するために、深度センサプレーン上の1つまたは複数の点をワールド座標に投影することと、
    前記1つまたは複数のワールド座標点を回転させることと、
    前記1つまたは複数のワールド座標点を平行移動させることと、
    前記変換された深度マップを作成するために、前記1つまたは複数のワールド座標点を再投影することと
    を備える、請求項12に記載の方法。
  19. 前記第2の深度マップ中の2つ以上の深度の空間的平均値に基づいて、前記誤りのある深度情報を検出することをさらに備える、請求項11に記載の方法。
  20. 前記誤りのある深度情報は、深度センサの機能停止を備える、請求項11に記載の方法。
  21. 補正された深度マップを生成するための装置であって、
    第1の深度マップを取得するための手段と、ここにおいて、前記第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
    第2の深度マップを取得するための手段と、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
    前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得するための手段と、
    前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成するための手段と
    を備える、装置。
  22. 変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換するための手段をさらに備え、ここにおいて、前記第2の深度マップの前記誤りのある深度情報を補正するための前記手段は、前記変換された深度マップに基づく、請求項21に記載の装置。
  23. 前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えるための手段をさらに備える、請求項22に記載の装置。
  24. 前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出するための手段をさらに備える、請求項22に記載の装置。
  25. 前記誤りのある深度情報は、深度センサの機能停止を備える、請求項21に記載の装置。
  26. 命令を有する非一時的な有形のコンピュータ可読媒体を備える、補正された深度マップを生成するためのコンピュータプログラム製品であって、前記命令は、
    電子デバイスに、第1の深度マップを取得させるためのコードと、ここにおいて、前記第1の深度マップは、第1のサンプリングで深度センサによってサンプリングされたシーンの第1の部分の第1の深度情報を備え、
    前記電子デバイスに、第2の深度マップを取得させるためのコードと、ここにおいて、前記第2の深度マップは、第2のサンプリングで前記深度センサによってサンプリングされた前記シーンの第2の部分の第2の深度情報を備え、
    前記電子デバイスに、前記第1のサンプリングと前記第2のサンプリングとの間の前記深度センサの変位を示す変位情報を取得させるためのコードと、
    前記電子デバイスに、前記第1の深度情報、前記第2の深度情報、および前記変位情報に基づいて、誤りのある深度情報を補正することによって、補正された深度マップを生成させるためのコードと、
    を備える、コンピュータプログラム製品。
  27. 前記電子デバイスに、変換された深度マップを作成するために、前記変位情報に基づいて前記第1の深度マップを変換させるためのコードをさらに備え、前記電子デバイスに、前記第2の深度マップの前記誤りのある深度情報を補正させるための前記コードは、前記変換された深度マップに基づく、請求項26に記載のコンピュータプログラム製品。
  28. 前記電子デバイスに、前記誤りのある深度情報を前記変換された深度マップの対応する深度情報に置き換えさせるためのコードをさらに備える、請求項27に記載のコンピュータプログラム製品。
  29. 前記電子デバイスに、前記第2の深度マップの深度を、前記変換された深度マップの深度と比較することによって、前記誤りのある深度情報を検出させるためのコードをさらに備える、請求項27に記載のコンピュータプログラム製品。
  30. 前記誤りのある深度情報は、深度センサの機能停止を備える、請求項26に記載のコンピュータプログラム製品。
JP2018526143A 2015-11-20 2016-10-10 誤りのある深度情報を補正するためのシステムおよび方法 Pending JP2018534699A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/948,195 US10341633B2 (en) 2015-11-20 2015-11-20 Systems and methods for correcting erroneous depth information
US14/948,195 2015-11-20
PCT/US2016/056250 WO2017087088A1 (en) 2015-11-20 2016-10-10 Systems and methods for correcting erroneous depth information

Publications (2)

Publication Number Publication Date
JP2018534699A true JP2018534699A (ja) 2018-11-22
JP2018534699A5 JP2018534699A5 (ja) 2019-11-07

Family

ID=57233840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018526143A Pending JP2018534699A (ja) 2015-11-20 2016-10-10 誤りのある深度情報を補正するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US10341633B2 (ja)
EP (1) EP3378033B1 (ja)
JP (1) JP2018534699A (ja)
KR (1) KR20180084805A (ja)
CN (1) CN108352056B (ja)
WO (1) WO2017087088A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201921A (ja) * 2019-06-11 2020-12-17 株式会社Mujin 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム
WO2021140543A1 (ja) * 2020-01-06 2021-07-15 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法
JP2022517327A (ja) * 2019-01-22 2022-03-08 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 慣性センサーからの信号に基づいて合成深度画像を生成するためのシステムおよび方法

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10269257B1 (en) * 2015-08-11 2019-04-23 Gopro, Inc. Systems and methods for vehicle guidance
US10705528B2 (en) * 2015-12-15 2020-07-07 Qualcomm Incorporated Autonomous visual navigation
US10360700B2 (en) * 2016-02-11 2019-07-23 Biosense Webster (Israel) Ltd. Interpolation of dynamic three-dimensional maps
US10304335B2 (en) 2016-04-12 2019-05-28 Ford Global Technologies, Llc Detecting available parking spaces
WO2017197630A1 (en) * 2016-05-19 2017-11-23 SZ DJI Technology Co., Ltd. Autofocus initialization based on target detection
US10074183B1 (en) * 2016-06-03 2018-09-11 Amazon Technologies, Inc. Image alignment correction for imaging processing during operation of an unmanned aerial vehicle
US10129523B2 (en) 2016-06-22 2018-11-13 Microsoft Technology Licensing, Llc Depth-aware reprojection
US10237531B2 (en) 2016-06-22 2019-03-19 Microsoft Technology Licensing, Llc Discontinuity-aware reprojection
US10503245B2 (en) * 2016-09-21 2019-12-10 Apple Inc. Relative intertial measurement system
US10623723B2 (en) 2016-09-29 2020-04-14 Intel Corporation Hybrid stereo rendering for depth extension in dynamic light field displays
US10228693B2 (en) * 2017-01-13 2019-03-12 Ford Global Technologies, Llc Generating simulated sensor data for training and validation of detection models
US10664993B1 (en) 2017-03-13 2020-05-26 Occipital, Inc. System for determining a pose of an object
AU2018237067B2 (en) * 2017-03-21 2022-11-10 Magic Leap, Inc. Depth sensing techniques for virtual, augmented, and mixed reality systems
US10411798B2 (en) * 2017-07-13 2019-09-10 Qualcomm Incorporated Power optimized VLC signal processing with efficient handling of ISP/VFE
US10992916B2 (en) * 2017-07-26 2021-04-27 Google Llc Depth data adjustment based on non-visual pose data
US20190124313A1 (en) 2017-10-19 2019-04-25 Intel Corporation Three dimensional glasses free light field display using eye location
JP7224840B2 (ja) * 2017-10-27 2023-02-20 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP6835455B2 (ja) * 2017-12-25 2021-02-24 Kddi株式会社 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法
US10628920B2 (en) * 2018-03-12 2020-04-21 Ford Global Technologies, Llc Generating a super-resolution depth-map
US11435752B2 (en) 2018-03-23 2022-09-06 Motional Ad Llc Data fusion system for a vehicle equipped with unsynchronized perception sensors
US20190339362A1 (en) * 2018-05-03 2019-11-07 Mediatek Inc. Signature-based object detection method and associated apparatus
FR3083352B1 (fr) * 2018-06-29 2020-06-05 Continental Automotive France Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
KR102473494B1 (ko) * 2018-08-17 2022-12-02 삼성전자주식회사 심도센싱장치 및 심도센싱장치의 동작 방법
US10360714B1 (en) * 2018-09-14 2019-07-23 Lyft, Inc. Systems and methods for displaying autonomous vehicle environmental awareness
US11520041B1 (en) * 2018-09-27 2022-12-06 Apple Inc. Correcting depth estimations derived from image data using acoustic information
JP2021508027A (ja) 2018-11-16 2021-02-25 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 不十分な照明条件下で車両を測位するシステムおよび方法
JP7346021B2 (ja) * 2018-11-22 2023-09-19 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置、プログラムおよび記録媒体
US10861176B2 (en) * 2018-11-27 2020-12-08 GM Global Technology Operations LLC Systems and methods for enhanced distance estimation by a mono-camera using radar and motion data
JP7241517B2 (ja) * 2018-12-04 2023-03-17 三菱電機株式会社 航法装置、航法パラメータ計算方法およびプログラム
US11158075B2 (en) * 2019-06-03 2021-10-26 Zebra Technlogies Corporation Method, system and apparatus for depth sensor artifact removal
KR20190089791A (ko) * 2019-07-11 2019-07-31 엘지전자 주식회사 삼차원 어라운드 뷰 제공 장치 및 방법
US11416998B2 (en) 2019-07-30 2022-08-16 Microsoft Technology Licensing, Llc Pixel classification to reduce depth-estimation error
US11164383B2 (en) * 2019-08-30 2021-11-02 Lg Electronics Inc. AR device and method for controlling the same
CN110708384B (zh) * 2019-10-12 2020-12-15 西安维度视界科技有限公司 一种基于ar的远程协助系统的交互方法、系统和存储介质
US11503266B2 (en) 2020-03-06 2022-11-15 Samsung Electronics Co., Ltd. Super-resolution depth map generation for multi-camera or other environments
US11508077B2 (en) * 2020-05-18 2022-11-22 Samsung Electronics Co., Ltd. Method and apparatus with moving object detection
JP2023546693A (ja) * 2020-10-23 2023-11-07 グーグル エルエルシー 深度データの、送信側での幾何学的融合
US11943565B2 (en) * 2021-07-12 2024-03-26 Milestone Systems A/S Computer implemented method and apparatus for operating a video management system
CN113946151A (zh) * 2021-10-20 2022-01-18 北京百度网讯科技有限公司 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
US12008777B2 (en) * 2021-10-22 2024-06-11 Argo AI, LLC Validating an SfM map using lidar point clouds

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141710A (ja) * 2010-01-07 2011-07-21 National Institute Of Information & Communication Technology 奥行推定装置、奥行推定方法および奥行推定プログラム
JP2013012045A (ja) * 2011-06-29 2013-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置及びコンピュータプログラム
JP2013024608A (ja) * 2011-07-15 2013-02-04 Technodream 21 Co Ltd 3次元形状の取得装置、処理方法およびプログラム
US20130208129A1 (en) * 2012-01-24 2013-08-15 Wesdyne Trc Ab Image enhancement device for reduction of noise in digital images
US20150178900A1 (en) * 2012-11-29 2015-06-25 Korea Institute Of Science And Technology Depth image processing apparatus and method based on camera pose conversion

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US785530A (en) * 1904-09-29 1905-03-21 Robert Peel Wakeman Window-screen.
US20070047834A1 (en) 2005-08-31 2007-03-01 International Business Machines Corporation Method and apparatus for visual background subtraction with one or more preprocessing modules
CN101706246A (zh) * 2009-11-02 2010-05-12 一重集团大连设计研究院有限公司 一种磁滞式位移传感器震动失效的解决方法
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9191646B2 (en) * 2011-08-29 2015-11-17 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US9213883B2 (en) * 2012-01-10 2015-12-15 Samsung Electronics Co., Ltd. Method and apparatus for processing depth image
US9639959B2 (en) 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data
US9237330B2 (en) 2012-02-21 2016-01-12 Intellectual Ventures Fund 83 Llc Forming a stereoscopic video
RU2012145349A (ru) * 2012-10-24 2014-05-10 ЭлЭсАй Корпорейшн Способ и устройство обработки изображений для устранения артефактов глубины
CN103458261B (zh) * 2013-09-08 2015-04-08 华东电网有限公司 一种基于立体视觉的视频场景变化检测方法
JP6308748B2 (ja) * 2013-10-29 2018-04-11 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
TWI530909B (zh) 2013-12-31 2016-04-21 財團法人工業技術研究院 影像合成系統及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141710A (ja) * 2010-01-07 2011-07-21 National Institute Of Information & Communication Technology 奥行推定装置、奥行推定方法および奥行推定プログラム
JP2013012045A (ja) * 2011-06-29 2013-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置及びコンピュータプログラム
JP2013024608A (ja) * 2011-07-15 2013-02-04 Technodream 21 Co Ltd 3次元形状の取得装置、処理方法およびプログラム
US20130208129A1 (en) * 2012-01-24 2013-08-15 Wesdyne Trc Ab Image enhancement device for reduction of noise in digital images
US20150178900A1 (en) * 2012-11-29 2015-06-25 Korea Institute Of Science And Technology Depth image processing apparatus and method based on camera pose conversion

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022517327A (ja) * 2019-01-22 2022-03-08 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 慣性センサーからの信号に基づいて合成深度画像を生成するためのシステムおよび方法
JP2020201921A (ja) * 2019-06-11 2020-12-17 株式会社Mujin 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム
US11080876B2 (en) 2019-06-11 2021-08-03 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera
US11688089B2 (en) 2019-06-11 2023-06-27 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera
WO2021140543A1 (ja) * 2020-01-06 2021-07-15 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法
JPWO2021140543A1 (ja) * 2020-01-06 2021-07-15
JP7072737B2 (ja) 2020-01-06 2022-05-20 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法

Also Published As

Publication number Publication date
CN108352056A (zh) 2018-07-31
US10341633B2 (en) 2019-07-02
EP3378033A1 (en) 2018-09-26
CN108352056B (zh) 2023-03-14
EP3378033B1 (en) 2019-08-14
US20170148168A1 (en) 2017-05-25
WO2017087088A1 (en) 2017-05-26
KR20180084805A (ko) 2018-07-25

Similar Documents

Publication Publication Date Title
CN108352056B (zh) 用于校正错误深度信息的系统和方法
US11915502B2 (en) Systems and methods for depth map sampling
CN108140235B (zh) 用于产生图像视觉显示的系统和方法
US11725956B2 (en) Apparatus for acquiring 3-dimensional maps of a scene
EP3627180B1 (en) Sensor calibration method and device, computer device, medium, and vehicle
US10445928B2 (en) Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10630962B2 (en) Systems and methods for object location
JP2019028861A (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
US20190387209A1 (en) Deep Virtual Stereo Odometry
CN108603933B (zh) 用于融合具有不同分辨率的传感器输出的系统和方法
WO2019026715A1 (ja) 制御装置、および制御方法、プログラム、並びに移動体
US20220292629A1 (en) Image processing apparatus, image processing method, and recording medium
WO2022160232A1 (zh) 一种检测方法、装置和车辆
US20240098231A1 (en) Image processing device, image processing method, and computer-readable medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210427