JP6883608B2 - 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム - Google Patents

深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム Download PDF

Info

Publication number
JP6883608B2
JP6883608B2 JP2019099196A JP2019099196A JP6883608B2 JP 6883608 B2 JP6883608 B2 JP 6883608B2 JP 2019099196 A JP2019099196 A JP 2019099196A JP 2019099196 A JP2019099196 A JP 2019099196A JP 6883608 B2 JP6883608 B2 JP 6883608B2
Authority
JP
Japan
Prior art keywords
depth
depth map
pixel
map
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019099196A
Other languages
English (en)
Other versions
JP2020042772A (ja
Inventor
昊 孫
昊 孫
建華 林
建華 林
崇仰 林
崇仰 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ArcSoft Corp Ltd
Original Assignee
ArcSoft Hangzhou Multimedia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ArcSoft Hangzhou Multimedia Technology Co Ltd filed Critical ArcSoft Hangzhou Multimedia Technology Co Ltd
Publication of JP2020042772A publication Critical patent/JP2020042772A/ja
Application granted granted Critical
Publication of JP6883608B2 publication Critical patent/JP6883608B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、深度データ処理システムに関し、より具体的には、深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システムに関する。
電子装置の進歩及びマルチメディア技術の発展により、益々多くのアプリケーションが、三次元ディスプレイ技術による豊富な視覚効果をユーザに提供している。その技術は現実及び仮想世界を統合して新しい経験をユーザに提供する。電子装置によって現実世界の外観を捉えるために、従来技術では、カメラによって画像データを取得することに加えて、大抵の場合に、対象物の距離を検出するために深度センサが適用される。対象物の距離データを取得した後に、電子装置は、異なる焦点距離で画像を計算するために、又は仮想現実において対応する画像フレームを生成するために、動き認識をさらに行うことができる。
しかしながら、従来技術では、単一の深度センサが限られた範囲の被写体深度を取り込み、深度センサがハードウェアによって制限されることがあるので、テクスチャが繰り返される領域又は光が殆ど吸収される領域においてより大きな誤差範囲を有することがある。そのため、有効な深度値を特定できない可能性がある。さらに、単一の深度データはベースラインを有していないので、得られた深度値の正確さを検証することは容易ではなく、これはその後のアプリケーションにおいてエラーを引き起こす可能性がある。
一実施形態は、深度データ処理システムの動作方法を開示する。深度データ処理システムは、第1の深度取込み装置(depth capture device)と、第2の深度取込み装置と、深度処理ユニットとを有する。方法は、少なくとも第1の深度取込み装置によって第1の深度マップを生成するステップと、少なくとも第2の深度取込み装置によって第2の深度マップを生成するステップと、深度処理ユニットが、第1の深度マップ及び第2の深度マップに対して画像位置合せを行って、第1の深度マップの画素に対応する第2の深度マップの変換座標を求めるステップと、深度処理ユニットが、第1の深度マップの深度データと第2の深度マップの深度データとを位置合わせして、第1の深度マップの画素に対応する第2の深度マップの変換座標に従って、最適化された深度マップを生成するステップと、を含む。
本発明のこれら及び他の目的は、様々な図及び図面に示される好ましい実施形態の以下の詳細な説明を読んだ後に、当業者には確かに明らかになるだろう。
本発明の一実施形態による深度データ処理システムの図である。 一実施形態による第1の深度マップと第2の深度マップとの相関図である。 一実施形態による第1の深度マップの一部の図である。 一実施形態による第2の深度マップの一部の図である。 第1の深度マップ及び第2の深度マップに従って生成された最適化された深度マップを示す図である。 一実施形態による第1の深度マップと第2の深度マップとの相関図である。 別の実施形態による深度データ処理システムの図である。 別の実施形態による深度データ処理システムの図である。 図1又は図2の深度データ処理システムの動作方法のフローチャートである。 図9のステップS430のサブステップのフローチャートである。
図1は、本発明の一実施形態による深度データ処理システム100の図である。深度データ処理システム100は、第1の深度取込み装置110、第2の深度取込み装置120、及び深度処理ユニット130を有する。
深度データ処理システム100は、第1の深度取込み装置110によって第1の深度マップD1を生成し、第2の深度取込み装置120によって第2の深度マップD2を生成することができる。図1の実施形態では、第1の深度取込み装置110は、飛行時間(TOF)センサ又は構造化光センサであり得る内部深度センサ112によって第1の深度マップD1を生成することができる。第1の深度取込み装置110は、深度センサ112によって感知された結果を直接的に解析し、第1の深度マップD1を生成することができる。
また、第2の深度取込み装置120は、共通の可視光カメラ122及び124を含み、これらカメラによって取り込まれた画像を深度処理ユニット130に送信することができる。深度処理ユニット130は、取り込んだ画像を左眼画像及び右眼画像として指定し、立体視(binocular vision)アルゴリズムを適用して、図2に示されるような第2の深度マップD2を生成することができる。しかしながら、本発明は、第2の深度取込み装置120が2つのカメラ122及び124だけを含み、又は立体視アルゴリズムだけを適用して第2の深度マップD2を生成することに限定するものではない。他の実施形態では、第2の深度取込み装置120は、単一のカメラによって取り込まれた画像によって、及び他の相関アルゴリズムを使用することによって、第2の深度マップD2を生成することもできる。
換言すれば、図1の実施形態では、第1の深度取込み装置110は深度データを生成するように特に設計されたハードウェアを含み得、第2の深度取込み装置120は画像を取り込むために元々使用される可視光カメラを含み得る。従って、画像を取り込んだ後に深度処理ユニット130による更なる計算処理が必要となり、それによって深度データ処理システム100が必要とする第2の深度マップD2を生成することができる。このようにして、第1の深度取込み装置110に加えて、深度データ処理システム100は、既存の電子装置に設けられたカメラを使用して深度データ最適化のための追加の深度データを生成し、追加のハードウェア要素を減らすことができる。
第1の深度マップD1及び第2の深度マップD2が生成された後に、深度処理ユニット130は、第1の深度マップD1及び第2の深度マップD2に対して画像位置合せを行い、第1の深度マップD1の画素に対応する第2の深度マップD2の変換座標を求めることができる。次に、その深度処理ユニット130は、第1の深度マップD1の深度データと第2の深度マップD2の深度データとを位置合わせして、図5に示されるように変換座標に従って、最適化された深度マップDAを生成することができる。
いくつかの実施形態では、深度処理ユニット130は、第1の深度マップD1の画素の座標を第1の深度取込み装置110の第1の三次元座標系の座標に変換して、第1の深度取込み装置110の内部パラメータに従って、第1の深度マップD1の画素の第1の三次元座標を生成することができる。次に、深度処理ユニット130は、第1の深度取込み装置110及び第2の深度取込み装置120の外部パラメータに従って、第1の深度マップD1の画素の第1の三次元座標を第2の深度取込み装置120の第2の三次元座標系の第2の三次元座標に変換することができる。最後に、深度処理ユニット130は、第2の深度取込み装置120の内部パラメータに従って、第1の深度マップD1の画素の第2の三次元座標を第1の深度マップD1の画素に対応する第2の深度マップD2の変換座標に変換することができる。
図2は、一実施形態における第1の深度マップD1と第2の深度マップD2との相関図である。図2において、第1の深度マップD1の画素P1を例にとると、画素P1の深度値が無限大に近づくと、画素P1は三次元空間内の点Aに対応し得る。第2の深度マップD2の点Aは、画素PAの位置にくる。画素P1の深度値がZである場合に、画素P1は三次元空間内の点Bに対応し、点Bは第2の深度マップD2の画素PBの位置にくる。さらに、画素P1の深度が、第1の深度取込み装置110が取得することができる最小有効深度値Zminである場合に、画素P1は、三次元空間内の点Cに対応し得、第2の深度マップD2の点Cは、画素PCの位置にくる。
換言すれば、第1の深度マップD1の画素P1は、三次元空間内でのその深さの差のために、第2の深度マップD2の異なる位置に対応し得る。いくつかの実施形態では、第2の深度マップD2における画素P1に対応する画素PBと第2の深度マップD2の画素PAとの間の距離Δxは、式1によって表すことができる。
Figure 0006883608
式1において、パラメータBは、第1の深度マップD1に対応するカメラと第2の深度マップD2に対応するカメラとの間のベースライン距離を表す。パラメータf2は、第2の深度取込み装置120の焦点距離を表し、パラメータZは、第2の深度マップD2における画素P1の深度値である。式1及び図2によれば、深度値Zが無限大に近づくと、画素P1は第2の深度マップD2の画素PAの位置に対応し、こうして距離Δxはゼロに近づく。深度値Zが最小有効深度Zminである場合に、画素P1は第2の深度マップD2の画素PCの位置に対応し、距離Δxは図2に示される距離Δxminに等しくなる。
この場合に、第2の深度マップD2の画素PAの座標を(xmax,ymax)と表し、第2の深度マップD2の画素PCの座標を(xmin,ymin)と表すことができる場合に、次に、第2の深度マップD2の画素PBの座標は、(x,y)と表すことができる。座標は式2及び式3から導出することができる。
Figure 0006883608
Figure 0006883608
このようにして、深度処理ユニット130は、第1の深度マップD1の画素に対応する第2の深度マップの変換座標を求めることができる。いくつかの実施形態では、深度処理ユニット130は、計算の複雑さを減らすためにルックアップテーブルを使用し得る。変換座標を求めた後に、深度処理ユニット130は、第1の深度マップD1の深度データと第2の深度マップD2の深度データとを位置合わせして、変換座標に従って、最適化された深度マップを生成することができる。
図3は、一実施形態による第1の深度マップD1の図の一部を示す。図4は、一実施形態による第2の深度マップD2の図の一部を示す。第1の深度マップD1及び第2の深度マップD2がそれぞれ第1の深度取込み装置110及び第2の深度取込み装置120によって生成されるので、2つの深度マップは、僅かに異なる可能性があり、互いに補完して最適化された深度マップDAを生成することができる。図5は、第1の深度マップD1及び第2の深度マップD2に従って生成された最適化された深度マップDAを示す。
なお、図3〜図5において、画素内の三角形は、その画素が深度マップの前景に属していることを示す。画素内の円は、その画素が深度マップの背景に属していることを示す。画素内の四角形は、その画素に不合理な(unreasonable)深度値(計算誤差)があることを示す。画素にマークがない場合は、画素に値が与えられていないことを意味する。
第1の深度マップD1の画素PD1が第2の深度マップD2の画素PD2に対応しており、画素PD2に深度値が与えられていないのならば、次に、深度処理ユニット130は、最適化された深度マップDAの対応する画素PDAに画素PD1の深度値に応じた深度値をレンダリングする。このようにして、最適化された深度マップDAにおける画素PD1及び画素PD2に対応する画素PDAは、画素PD1の深度値に応じた深度値にレンダリングされ、円としてマークされることになる。
同様に、第1の深度マップD1の画素PD1が第2の深度マップD2の画素PD2に対応しており、画素PD1に深度値が与えられていないのならば、次に、深度処理ユニット130は、最適化された深度マップDAの対応する画素PDAに画素PD2の深度値に応じた深度値をレンダリングする。このようにして、最適化された深度マップDAにおける画素PD1及び画素PD2に対応する画素PDAは、画素PD2の深度値に応じた深度値にレンダリングされ、円としてマークされることになる。
さらに、第1の深度マップD1の画素PD1が第2の深度マップD2の画素PD2に対応しており、画素PD2に不合理な深度値が与えられているのならば、次に、深度処理ユニット130は、最適化された深度マップDAの対応する画素PDAに画素PD1の深度値に応じた深度値をレンダリングする。このようにして、最適化された深度マップDAにおいて、画素PD1及び画素PD2に対応する画素PDAは、画素PD1の深度値に応じた深度値にレンダリングされ、丸としてマークされることになる。
いくつかの実施形態では、第1の深度取込み装置110が特に深度データを取得して第1の深度マップD1を生成するためのハードウェアであるため、第1の深度マップD1の信頼度は、第2の深度マップD2の信頼度より可能性が高い。この場合に、最適化された深度マップDAは、第1の深度マップD1に基づくものであり、且つ第2の深度マップD2によって補完され得る。第1の深度マップD1と第2の深度マップD2との両方に深度値が与えられている場合に、深度処理ユニット130は、深度マップDAの画素に第1の深度マップD1の深度データに応じた値を優先的にレンダリングしてもよい。しかしながら、他の実施形態では、深度処理ユニット130は、第2の深度マップD2によって第1の深度マップD1を補完して、システムの実際の状態に応じた最適化された深度マップDAを生成するようにも変更され得、又は適切な重付けで、両方の深度データを位置合わせしてもよい。
以上の方法により、深度処理ユニット130は、第1の深度マップD1と第2の深度マップD2とを互いに補完することができ、それにより第1の深度マップD1及び第2の深度マップD2における空白画素及び不合理な深度値を減らすことができる。その深度処理ユニット130は、最適化された深度マップDAにより多くの有効な画素を与え、深度データ処理システム100がより完全で正確な深度マップを生成するのを可能にする。
また、第1の深度マップD1及び第2の深度マップD2の解像度は異なる可能性がある。例えば、第1の深度マップD1の解像度が第2の深度マップD2の解像度より小さい場合に、第1の深度マップD1の各画素は、第2の深度マップD2の複数の画素に対応し得る。例えば、図6は、一実施形態による第1の深度マップD1’と第2の深度マップD2’との相関図である。
図6において、第1の深度マップD1’の画素PD1’は、第2の深度マップD2の複数の画素PD2’、PD2’、PD2’、及びPD2’に実質的に対応する。この場合に、深度データ処理システム100は、最適化された深度マップDAの対応する画素に、第1の深度マップD1’の画素PD1’及び第2の深度マップD2’の画素PD2’、PD2’、PD2’、PD2’の深度値に応じた値をレンダリングする。換言すれば、深度データ処理システム100は、第1の深度マップD1’及び第2の深度マップD2’の解像度に応じて、異なる深度マップの間の画素の相関を調整することができる。
さらに、図1の実施形態では、第1の深度取込み装置110は、深度データを取得して第1の深度マップD1を生成するように特に設計されたハードウェアであり、第2の深度取込み装置120は、画像を取り込む可視光カメラである。次に、ソフトウェア処理により第2の深度マップD2が生成される。しかしながら、本発明は、第1の深度取込み装置110が深度データを生成するように特に設計されたハードウェアであるように限定するものではない。
図7は、別の実施形態による深度データ処理システム200の図である。深度データ処理システム100及び200は、同様の構成を有しており、且つ同様の原理に従って動作することができる。深度データ処理システム200は、第1の深度取込み装置210、第2の深度取込み装置220、及び深度処理ユニット230を含むことができる。第1の深度取込み装置210と第2の深度取込み装置220との両方は、可視光を用いて画像を取り込み、且つ深度処理ユニット230によって第1の深度マップD1及び第2の深度マップD2を生成することができる。
換言すると、図7において、第1の深度取込み装置210は、少なくとも1つのカメラで第1の画像IMGR1、IMGL1を取り込むことができるが、2つのカメラ212、214に限定されるものではない。深度処理ユニット230は、第1の画像IMGR1、IMGL1に従って第1の深度マップD1を生成することができる。同様に、第2の深度取込み装置220は、カメラ222及び224によって第2の画像IMGR2、IMGL2を取り込むことができ、深度処理ユニット230は、第2の画像IMGR2、IMGL2に従って第2の深度マップD2を生成することができる。
図8の実施形態では、深度データ処理システム300は3つの深度取込み装置を含むことができるが、これら3つの深度取込み装置に限定されるものではない。いくつかの実施形態では、深度データ処理システムは、より多くの深度取込み装置を含み得る。図8は、別の実施形態による深度データ処理システム300の図である。深度データ処理システム100及び300は、同様の構成を有しており、且つ同様の原理に従って動作することができる。もっとも、深度データ処理システム300は、第1の深度取込み装置310、第2の深度取込み装置320、深度処理ユニット330、及び第3の深度取込み装置340を含むことができる。第1の深度取込み装置310、第2の深度取込み装置320、及び第3の深度取込み装置340は、可視光カメラを用いて画像を取り込むことができ、深度処理ユニット330によって第1の深度マップD1、第2の深度マップD2、及び第3の深度マップD3を生成することができる。しかしながら、本発明は、これらに限定されるものではない。
さらに、図8の実施形態では、深度処理ユニット330は、第1の深度マップD1、第2の深度マップD2、及び第3の深度マップD3の深度データに応じて、最適化された深度マップを生成することができる。例えば、深度処理ユニット330は、第1の深度マップD1及び第2の深度マップD2に対して画像位置合せを行って、第1の深度マップの画素に対応する第2の深度マップの変換座標を求めることができる。同じ方法を使用して、その深度処理ユニット330は、第3の深度マップD3及び第2の深度マップD2に対して画像位置合せを行って、第3の深度マップD3の画素に対応する第2の深度マップD2の変換座標を求めることができる。次に、深度処理ユニット330は、第1の深度マップD1、第2の深度マップD2、及び第3の深度マップD3の深度データを位置合わせして、第1の深度マップD1及び第3の深度マップD3の画素に対応する第2の深度マップD2の変換座標に従って、最適化された深度マップを生成する。
深度データ処理システム100及び200は、単一の深度マップ内の欠陥を補償するために異なる深度マップに対して画像位置合せを行うことができるので、最適化された深度マップを生成することができる。その最適化された深度マップは、深度データをより正確にするだけでなく、より広範囲の深度データも提供する。
図9は、本発明の一実施形態による深度データ処理システム100(又は200)を動作させる方法400のフローチャートである。方法400はステップS410〜S440を含む。
S410:少なくとも第1の深度取込み装置110(又は210)によって第1の深度マップD1を生成する。
S420:少なくとも第2の深度取込み装置120(又は220)によって第2の深度マップD2を生成する。
S430:深度処理ユニット130(又は230)は、第1の深度マップD1及び第2の深度マップD2に対して画像位置合せを行い、第1の深度マップD1の画素に対応する第2の深度マップD2の変換座標を求める。
S440:深度処理ユニット130(又は230)は、第1の深度マップD1の深度データと第2の深度マップD2の深度データとを位置合わせして、変換座標に従って最適化された深度マップDAを生成する。
図10は、ステップS430におけるサブステップS432〜S436のフローチャートである。
S432:第1の深度マップD1の画素の座標を第1の深度取込み装置110(又は210)の第1の三次元座標系の座標に変換して、第1の深度取込み装置110(又は210)の内部パラメータに従って第1の深度マップの画素の第1の三次元座標を生成する。
S434:第1の深度取込み装置110(又は210)及び第2の深度取込み装置120(又は220)の外部パラメータに従って、第1の深度マップD1の画素の第1の三次元座標を、第2の深度取込み装置120(又は220)の第2の三次元座標系の第2の三次元座標に変換する。
S436:第2の深度取込み装置120(又は220)の内部パラメータに従って、第1の深度マップD1の画素の第2の三次元座標を、第1の深度マップD1の画素に対応する第2の深度マップD2の変換座標に変換する。
図2を例にとると、深度処理ユニット130は、S432〜S436において第1の深度マップD1及び第2の深度マップD2に対応するそれら三次元座標を位置合わせし、次に、その深度処理ユニット130は、第1の深度マップD1の画素の第2の三次元座標を、式2及び式3に従って、第1の深度マップD1の画素に対応する第2の深度マップD2の変換座標に変換する。
また、ステップS440において、第1の深度マップの解像度が第2の深度マップの解像度よりも小さい場合に、第1の深度マップの第1の画素に対応する第2の深度マップの変換座標は、第2の深度マップの複数の第2の画素に対応する。最適化された深度マップにおける複数の第2の画素に対応する複数の第3の画素に、第1の画素の深度値及び複数の第2の画素の深度値に応じた深度値をレンダリングすることができる。図6を例にとると、深度データ処理システム100は、画素PD2’、PD2’、PD2’、及びPD2’に対応する最適化された深度マップにおける画素に、第1の深度マップD1’の画素PD1’の深度値、及び第2の深度マップD2’の画素PD2’、PD2’、PD2’、PD2’の深度値に応じた深度値をレンダリングする。換言すれば、深度データ処理システム100は、第1の深度マップD1’及び第2の深度マップD2’の解像度に従って、異なる深度マップの画素同士の間の相関を調整することができる。
さらに、ステップS440において、第1の深度マップの第1の画素が第2の深度マップの第2の画素に対応しており、第2の画素に深度値が与えられていないのならば、次に、深度処理ユニットは、最適化された深度マップにおける第1の画素及び第2の画素に対応する第3の画素に第1の画素の深度値に応じた深度値をレンダリングするだろう。さらに、第1の深度マップの第1の画素が第2の深度マップの第2の画素に対応しており、第2の画素に不合理な深度値が与えられているのならば、深度処理ユニットは、最適化された深度マップにおける第1の画素及び第2の画素に対応する第3の画素に第1の画素の深度値に応じた深度値をレンダリングするだろう。
図3〜図5を例にとると、第1の深度マップD1の画素PD1は第2の深度マップD2の画素PD2に対応しており、画素PD1には深度値が与えられていない。サブステップS444において、深度処理ユニット130は、最適化された深度マップDAの対応する画素PDAに画素PD2の深度値に応じた深度値をレンダリングすることができる。
方法400によって、深度データ処理システム100及び200は、単一の深度マップ内の欠陥を補償するために異なる深度マップに対して画像位置合せを行って、最適化された深度マップを生成することができる。その深度データ処理システムは、深度データをより正確にするだけでなく、より広範囲の深度データも提供する。
さらに、方法400は、深度データ処理システム300にも適用することができる。ステップS430と同様の方法で、その深度データ処理システム300は、第2の深度マップD2及び第3の深度マップD3に対して画像位置合せを行って、第3の深度マップD3の各画素に対応する第2の深度マップD2の変換座標を求めることができる。次に、深度処理ユニット330は、第1の深度マップD1、第2の深度マップD2、及び第3の深度マップD3の深度データを位置合わせして、第1の深度マップD1及び第3の深度マップD3の画素に対応する第2の深度マップD2の変換座標に従って、最適化された深度マップを生成する。
要約すると、本発明の実施形態によって提供される深度データ処理システム及びその動作方法は、異なる深度マップの深度データを補完し、それによって最適化された深度マップを生成することができる。その深度データ処理システム及びその動作方法は、深度データをより正確にするだけでなく、より広範囲の深度データも提供し、これは様々な用途によってより効率的に使用され得る。
当業者は、本発明の教示を保持しながら、装置及び方法の多数の修正及び変更をなし得ることを容易に理解するであろう。従って、上記の開示は、添付の特許請求の範囲の境界及び範囲によってのみ限定されると解釈すべきである。

Claims (8)

  1. 深度データ処理システムを動作させるための方法であって、前記深度データ処理システムは、第1の深度取込み装置、第2の深度取込み装置、及び深度処理ユニットを有しており、当該方法は、
    深度センサを含む少なくとも第1の深度取込み装置によって第1の深度マップを生成するステップと、
    少なくとも1つのカメラを含む第2の深度取込み装置によって第2の深度マップを生成するステップと、
    前記深度処理ユニットが、第1の深度マップ及び第2の深度マップに対して画像位置合せを行って、第1の深度マップの画素に対応する第2の深度マップの変換座標を生成するステップと
    前記深度処理ユニットが、第1の深度マップの深度データと第2の深度マップの深度データとを位置合わせして、第1の深度マップの前記画素に対応する第2の深度マップの前記変換座標に従って、最適化された深度マップを生成するステップであって、第1の深度マップの第1の画素に対応する第2の深度マップの座標が第2の深度マップの第2の画素に対応しており、且つ第2の画素に深度値が与えられていない場合に、前記深度処理ユニットが、前記最適化された深度マップにおける第1の画素及び第2の画素に対応する第3の画素に第1の画素の深度値に応じた深度値をレンダリングするステップを含む、生成するステップと、を含
    第1の深度マップの画素に対応する第2の深度マップの前記変換座標は、以下の式から導き出され、
    Figure 0006883608
    Figure 0006883608
    min は、第1の深度取込み装置によって取得された第1の深度マップの画素の最小有効深度値であり、x min 及びy min は、前記最小有効深度値での前記画素の前記変換座標であり、x max 及びy max は、深度値が無限大になるときの前記画素の変換座標であり、Z は、第1の深度取込み装置によって取得された第1の深度マップの前記画素の深度値であり、x 及びy は、第2の深度マップの前記画素の前記変換座標である、
    方法。
  2. 前記深度処理ユニットが、第1の深度マップ及び第2の深度マップに対して画像位置合せを行って、第1の深度マップの前記画素に対応する第2の深度マップの前記変換座標を生成するステップは、
    前記深度処理ユニットが、第1の深度マップの前記画素の座標を第1の深度取込み装置の第1の三次元座標系の座標に変換して、第1の深度取込み装置の内部パラメータに従って、第1の深度マップの前記画素の第1の三次元座標を生成するステップと、
    前記深度処理ユニットが、第1の深度取込み装置及び第2の深度取込み装置の外部パラメータに従って、第1の深度マップの前記画素の第1の三次元座標を第2の深度取込み装置の第2の三次元座標系の第2の三次元座標に変換するステップと、
    前記深度処理ユニットが、第2の深度取込み装置の内部パラメータに従って、第1の深度マップの前記画素の第2の三次元座標を、第1の深度マップの前記画素に対応する第2の深度マップの前記変換座標に変換するステップと、を含む、請求項1に記載の方法。
  3. 前記深度処理ユニットが、第1の深度マップの前記深度データと第2の深度マップの前記深度データとを位置合わせして、第1の深度マップの前記画素に対応する第2の深度マップの前記変換座標に従って、前記最適化された深度マップを生成するステップは、
    第1の深度マップの第1の画素に対応する第2の深度マップの座標が第2の深度マップの第2の画素に対応しており、且つ第2の画素に不合理な深度値が与えられている場合に、前記深度処理ユニットが、前記最適化された深度マップにおける第1の画素及び第2の画素に対応する第3の画素に第1の画素の深度値に応じた深度値をレンダリングするステップを含む、請求項1に記載の方法。
  4. 前記深度処理ユニットが、第1の深度マップの前記深度データと第2の深度マップの前記深度データとを位置合わせして、第1の深度マップの前記画素に対応する第2の深度マップの前記変換座標に従って、前記最適化された深度マップを生成するステップは、
    第1の深度マップの解像度が第2の深度マップの解像度より小さく、且つ第1の深度マップの第1の画素に対応する第2の深度マップの座標が第2の深度マップの複数の第2の画素に対応する場合に、前記深度処理ユニットが、前記最適化された深度マップにおける前記複数の第2の画素に対応する複数の第3の画素に第1の画素の深度値及び前記複数の第2の画素の深度値に応じた深度値をレンダリングするステップを含む、請求項1に記載の方法。
  5. 第1の深度取込み装置が、少なくとも1つのカメラによって少なくとも1つの第1の画像を取り込むステップと、
    前記深度処理ユニットが、前記少なくとも1つの第1の画像に従って第1の深度マップを生成するステップと、をさらに含む、請求項1に記載の方法。
  6. 前記深度処理ユニットは、立体視アルゴリズムに従って第2の深度マップを生成する、請求項に記載の方法。
  7. 第2の深度取込み装置が、少なくとも1つのカメラによって少なくとも1つの第2の画像を取り込むステップと、
    前記深度処理ユニットが、前記少なくとも1つの第2の画像に従って第2の深度マップを生成するステップと、をさらに含む、請求項1に記載の方法。
  8. 第1の深度取込み装置は、飛行時間によって又は構造化光を解析することによって第1の深度マップを生成する、請求項に記載の方法。
JP2019099196A 2018-09-13 2019-05-28 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム Active JP6883608B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811067113.8 2018-09-13
CN201811067113.8A CN110895822B (zh) 2018-09-13 2018-09-13 深度数据处理系统的操作方法

Publications (2)

Publication Number Publication Date
JP2020042772A JP2020042772A (ja) 2020-03-19
JP6883608B2 true JP6883608B2 (ja) 2021-06-09

Family

ID=69773042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019099196A Active JP6883608B2 (ja) 2018-09-13 2019-05-28 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム

Country Status (5)

Country Link
US (1) US10964040B2 (ja)
JP (1) JP6883608B2 (ja)
KR (1) KR20200031019A (ja)
CN (1) CN110895822B (ja)
TW (1) TWI705417B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271033B2 (en) * 2016-10-31 2019-04-23 Verizon Patent And Licensing Inc. Methods and systems for generating depth data by converging independently-captured depth maps
US10965929B1 (en) * 2019-01-04 2021-03-30 Rockwell Collins, Inc. Depth mapping and parallel distortion correction for mixed reality
US11450018B1 (en) * 2019-12-24 2022-09-20 X Development Llc Fusing multiple depth sensing modalities
CN113537276A (zh) * 2020-04-16 2021-10-22 钰立微电子股份有限公司 多深度信息的融合方法与融合系统
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium
CN111563924B (zh) * 2020-04-28 2023-11-10 上海肇观电子科技有限公司 图像深度确定方法及活体识别方法、电路、设备和介质
CN111862185A (zh) * 2020-07-24 2020-10-30 唯羲科技有限公司 一种从图像中提取平面的方法
CN114170290A (zh) * 2020-09-10 2022-03-11 华为技术有限公司 图像的处理方法及相关设备
WO2022087983A1 (zh) * 2020-10-29 2022-05-05 深圳市大疆创新科技有限公司 测距方法、测距装置与可移动平台

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4453119B2 (ja) 1999-06-08 2010-04-21 ソニー株式会社 カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ
US6868191B2 (en) * 2000-06-28 2005-03-15 Telefonaktiebolaget Lm Ericsson (Publ) System and method for median fusion of depth maps
KR100513055B1 (ko) 2003-12-11 2005-09-06 한국전자통신연구원 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법
KR100776649B1 (ko) 2004-12-06 2007-11-19 한국전자통신연구원 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법
US8213683B2 (en) * 2008-08-26 2012-07-03 National Taiwan University Driving support system with plural dimension processing units
KR101666854B1 (ko) * 2010-06-14 2016-10-17 삼성전자주식회사 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
CN102387374B (zh) * 2010-08-30 2015-07-29 三星电子株式会社 用于获得高精度深度图的设备和方法
JP5864950B2 (ja) 2011-08-15 2016-02-17 キヤノン株式会社 三次元計測装置、三次元計測方法およびプログラム
JP5515018B2 (ja) * 2011-12-06 2014-06-11 本田技研工業株式会社 環境認識装置
US9159135B2 (en) * 2012-03-28 2015-10-13 Intel Corporation Systems, methods, and computer program products for low-latency warping of a depth map
JP6222898B2 (ja) 2012-07-03 2017-11-01 キヤノン株式会社 3次元計測装置及びロボット装置
KR101429349B1 (ko) 2012-09-18 2014-08-12 연세대학교 산학협력단 중간 시점 영상 합성 장치 및 방법과 이에 관한 기록매체
RU2012154657A (ru) * 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
US9685065B2 (en) * 2013-01-03 2017-06-20 Sensolid Bvba Dual sensor system and related data manipulation methods and uses
KR20140105689A (ko) * 2013-02-23 2014-09-02 삼성전자주식회사 사용자의 입력에 응답하여 피드백을 제공하는 방법 및 이를 구현하는 단말
JP6526955B2 (ja) 2014-10-27 2019-06-05 株式会社日立製作所 センサ情報統合方法、及びその装置
US10061029B2 (en) * 2015-01-06 2018-08-28 Samsung Electronics Co., Ltd. Correction of depth images from T-O-F 3D camera with electronic-rolling-shutter for light modulation changes taking place during light integration
US10260866B2 (en) * 2015-03-06 2019-04-16 Massachusetts Institute Of Technology Methods and apparatus for enhancing depth maps with polarization cues
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
US20170302910A1 (en) * 2016-04-19 2017-10-19 Motorola Mobility Llc Method and apparatus for merging depth maps in a depth camera system
CN106162147B (zh) * 2016-07-28 2018-10-16 天津大学 基于双目Kinect深度相机系统的深度恢复方法
CN108377379B (zh) * 2016-10-20 2020-10-09 聚晶半导体股份有限公司 影像深度信息的优化方法与影像处理装置
CN107403447B (zh) * 2017-07-14 2020-11-06 梅卡曼德(北京)机器人科技有限公司 深度图像获取方法
CN109615652B (zh) * 2018-10-23 2020-10-27 西安交通大学 一种深度信息获取方法及装置

Also Published As

Publication number Publication date
JP2020042772A (ja) 2020-03-19
US10964040B2 (en) 2021-03-30
CN110895822B (zh) 2023-09-01
US20200090358A1 (en) 2020-03-19
KR20200031019A (ko) 2020-03-23
TW202011353A (zh) 2020-03-16
CN110895822A (zh) 2020-03-20
TWI705417B (zh) 2020-09-21

Similar Documents

Publication Publication Date Title
JP6883608B2 (ja) 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム
Zhang et al. Camera calibration with lens distortion from low-rank textures
US8355565B1 (en) Producing high quality depth maps
US9230330B2 (en) Three dimensional sensing method and three dimensional sensing apparatus
JPWO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
WO2020119467A1 (zh) 高精度稠密深度图像的生成方法和装置
JP2009139995A (ja) ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
TWI820246B (zh) 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品
CN111105467B (zh) 一种图像标定方法、装置及电子设备
CN111047678B (zh) 一种三维人脸采集装置和方法
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
JP2018009927A (ja) 画像処理装置、画像処理方法及びプログラム
KR20220121533A (ko) 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치
CN111742352A (zh) 3d对象建模方法以及相关设备和计算机程序产品
US10339702B2 (en) Method for improving occluded edge quality in augmented reality based on depth camera
KR102146839B1 (ko) 실시간 가상현실 구축을 위한 시스템 및 방법
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2014178967A (ja) 3次元物体認識装置及び3次元物体認識方法
KR20140003880A (ko) 3차원 얼굴 생성 장치 및 방법
TWI526045B (zh) 立體影像的調整方法與影像處理裝置
CN112615993A (zh) 深度信息获取方法、双目摄像模组、存储介质及电子设备
Yuan et al. 18.2: Depth sensing and augmented reality technologies for mobile 3D platforms
RU2779245C1 (ru) Способ и система автоматизированного построения виртуальной сцены на основании трехмерных панорам

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210309

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6883608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250