JP2013097806A - 映像処理装置及び方法 - Google Patents

映像処理装置及び方法 Download PDF

Info

Publication number
JP2013097806A
JP2013097806A JP2012240977A JP2012240977A JP2013097806A JP 2013097806 A JP2013097806 A JP 2013097806A JP 2012240977 A JP2012240977 A JP 2012240977A JP 2012240977 A JP2012240977 A JP 2012240977A JP 2013097806 A JP2013097806 A JP 2013097806A
Authority
JP
Japan
Prior art keywords
depth image
input
image
video
outlier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012240977A
Other languages
English (en)
Inventor
In Woo Ha
仁 友 河
Tae Hyun Rhee
泰 ▲ひょん▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013097806A publication Critical patent/JP2013097806A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】 レンダリングのための遠近効果の過程において入力深度映像のホールフィリングを極めて迅速に行いながら信頼できる結果を提供する映像処理装置及び方法を提供する。
【解決手段】 入力深度映像が入力されれば、映像処理装置のアウトライアー除去部は全体ピクセルの深度値を分析して平均的な値に一定の程度以上を離れたピクセルを除去し、単独に処理する。そして、ホールをフィリングして入力深度映像を再生成する。この過程において、プッシュプル方法のホールフィリング処理が行われる。
【選択図】 図1

Description

本発明の実施形態は映像処理装置及び方法に関し、より詳細には、深度カメラ(depth camera)によって取得された深度映像を用いて逆透視投影(perspective unprojection)を行う過程で適用される映像処理に関する。
深度映像は、赤外線を用いるTOF(Time Of Flight)方式またはパターン光(Patterned light)方式の深度カメラを用いて取得される。ところが、深度カメラによって取得された深度映像には、深度カメラの視点によって遠近効果(perspective projection)が反映される。
例えば、低いところから直六面体のオブジェクトを見上げれば、オブジェクトの上方は遠いため小さく見え、下方は近いため大きく見えるのが遠近効果であると理解される。
深度映像を用いて直接3D映像レンダリングを行ったり、3D映像レンダリングのための3Dモデルを生成することができるが、このような過程では前述した遠近効果を除去する遠近効果が必要である。
このような遠近効果の過程では、映像における座標であるu、v値が逆転したりもする。したがって、遠近効果の前に深度映像をより信頼することのできる3Dモデルの構築が要求されている。
このような3Dモデルの構築過程で優れた技術的な効果を期待できる部分がホールフィリングとポイントクラウドのメッシュ形態マッピングである。
本発明の目的は、レンダリングのための遠近効果の過程において入力深度映像のホールフィリングを極めて迅速に行いながら信頼できる結果を提供する映像処理装置及び方法を提供する。
また、本発明の目的は、遠近効果の過程においてポイントクラウド形態の3D情報が入力深度映像に関する場合、メッシュ基盤の3D幾何情報を極めて迅速且つ正確に生成する映像処理装置及び方法を提供する。
本発明の一実施形態によれば、入力深度映像のアウトライアーを除去するアウトライアー除去部と、アウトライアーの除去された前記入力深度映像にプッシュプル方法によってホールフィリングを行ってホールフィリング処理された深度映像を生成するホールフィリング処理部とを備える映像処理装置が提供される。
この場合、前記プッシュプル方法は、前記アウトライアーの除去された前記入力深度映像を複数のブロックに分類し、前記ブロックの深度値平均を回帰的に算出して最終平均値を算出し、前記最終平均値を再び回帰的にトップダウンを適用して前記アウトライアーの除去された前記入力深度映像のホールフィリングを行うものである。
本発明の一実施形態によれば、前記アウトライアー除去部は、前記入力深度映像の少なくとも一部領域に対する深度値平均を求め、前記深度値平均に予め指定されたレベル以上の偏差を有する値を単独に処理して前記入力深度映像のアウトライアーを除去する。
一方、前記映像処理装置は、前記ホールフィリング処理された深度映像にガウスフィルタリングを行うフィルタ部をさらに備えてもよい。
また、前記映像処理装置は、前記ホールフィリング処理された深度映像で隣接のピクセルをメッシュに構成してメッシュ基盤の3D幾何モデルを生成するメッシュ生成部をさらに備えてもよい。
この場合、前記映像処理装置は、前記3D幾何モデルに含まれた複数のメッシュに対してそれぞれの法線を算出する法線算出部をさらに備えてもよい。また、前記映像処理装置は、前記入力深度映像に関連する入力カラー映像のカラー値を前記3D幾何モデルに含まれた複数のメッシュに関連づけるテクスチャコーディネート部をさらに備えてもよい。
さらに、前記映像処理装置は、前記3D幾何モデルに逆投影マトリックスを適用して前記入力深度映像に関連するカメラ視点におけるパースペクティブプロジェクションを除去する逆投影演算部をさらに備えてもよい。
本発明の他の一実施形態によれば、入力深度映像で互いに隣接する少なくとも3つのピクセル当たり1つずつのメッシュを生成して前記入力深度映像に関連する3D幾何モデルを生成するメッシュ生成部と、前記3D幾何モデルに含まれたメッシュそれぞれの法線を算出する法線算出部と、前記入力深度映像に関連する入力カラー映像から前記3D幾何モデルに含まれたメッシュそれぞれのテクスチャ情報を取得して前記入力深度映像及び前記入力カラー映像に対する3Dモデルを生成するテクスチャコーディネート部とを備える映像処理装置が提供される。
本発明の一実施形態によれば、前記映像処理装置は、前記3Dモデルに対して前記入力深度映像または前記入力カラー映像のうち少なくとも1つに関連するカメラ視点によるパースペクティブプロジェクションを除去する逆投影演算部をさらに備える。
この場合、前記逆投影演算部は、前記3Dモデルに逆投影マトリックスを適用して前記パースペクティブプロジェクションを除去してもよい。
本発明の他の一実施形態によれば、入力深度映像のアウトライアーを除去するステップと、アウトライアーの除去された前記入力深度映像にプッシュプル方法を用いてホールフィリングを行ってホールフィリング処理された深度映像を生成するステップとを含む映像処理方法が提供される。
この場合、前記プッシュプル方法は、前記アウトライアーの除去された前記入力深度映像を複数のブロックに分類し、前記ブロックの深度値平均を回帰的に算出して最終平均値を算出し、前記最終平均値を再び回帰的にトップダウン適用して前記アウトライアーの除去された前記入力深度映像のホールフィリングを行うものであってもよい。
一方、前記アウトライアーを除去するステップは、前記入力深度映像の少なくとも一部領域に対する深度値平均を求め、前記深度値平均に予め指定されたレベル以上の偏差を有する値を単独に処理して前記入力深度映像のアウトライアーを除去してもよい。
本発明によると、入力深度映像のホールフィリング処理が極めて高速化され、比較的に低い費用で信頼度の高い映像を処理することができる。
また、本発明によると、遠近効果の過程以前にポイントクラウド形態をメッシュ基盤に変更する場合、極めて迅速に且つ正確な映像を処理することができる。
本発明の一実施形態に係る映像処理装置を示すブロック図である。 本発明の一実施形態に係る映像処理装置に入力されるカラー映像及び深度映像を示す概念図である。 本発明の一実施形態に係るプッシュプル方式のホールフィリングを説明するための概念図である。 本発明の一実施形態に係るプッシュプル方式のホールフィリングを説明するための概念図である。 本発明の一実施形態に係るホールフィリング処理された深度映像を説明する概念図である。 本発明の一実施形態に係るポイントクラウド形態の3D情報を用いてメッシュ基盤の3D幾何モデルを生成する過程を説明するための概念図である。 本発明の一実施形態に係る映像処理方法を示すフローチャートである。
以下、本発明の実施形態を添付する図面を参照しながら詳細に説明する。
図1は、本発明の一実施形態に係る映像処理装置100を示すブロック図である。
本発明の一実施形態によれば、映像処理装置は入力深度映像のノイズを除去するなど、周辺の平均深度値に比べて偏差の大きい深度値をアウトライアー(outlier)と見なして値を除去するアウトライアー除去部110を備える。このような過程で深度映像にホールが発生したり、従来に存在したホールがより大きくなるなどのアーチファクトが発生することがある。
これによって、映像処理装置100に含まれ得るホールフィリング処理部120は、このような深度映像のホールを充填する映像処理を行う。
本発明の一実施形態によれば、ホールフィリング処理部120は、深度映像内のホールをプッシュプル方法を用いて除去する。このようなプッシュプル方法は、ボトムアップ方式で深度の平均値を回帰的に上位グループに拡張算出して全体の深度映像の平均値を算出した後、これをトップダウン方式で再び下部構造に回帰的に適用して行いながら、一律的且つ迅速にホールを除去する。上記のようにプッシュプル方法については、図3〜図4を参照して詳細に後述する。
このようにホールフィリング処理が完了すると、選択的にフィルタ部121がホールフィリング処理の完了した深度映像から完全に除去されないノイズを除去する様々なフィルタリングを行う。このようなフィルタリングは、スムージングフィルタリングであると理解される。本発明の一実施形態によれば、フィルタ部121は、ガウスフィルタリングを行って処理された深度映像の品質を向上させることができる。
メッシュ生成部130ないしテクスチャコーディネート部150は、深度映像を用いて3Dモデルを生成する。
このような3Dモデル生成過程において、メッシュ生成部130は、深度映像における隣接ピクセルを1つのメッシュでグルーピングする方式により一律的且つ規則的にメッシュを生成する。このような過程によってポイントクラウドをメッシュ基盤の3D幾何情報に生成する過程が極めて高速化され、これに関する詳細な内容は図6を参照して後述する。
そして、映像処理装置100の法線算出部140はこのようなメッシュそれぞれの法線を算出し、テクスチャコーディネート部150が入力カラー映像のテクスチャ情報を各幾何情報、例えば、メッシュの頂点に関連づけて3Dモデルを生成する。より詳細な過程は図6を参照して後述する。
これによって、映像処理装置100の逆投影演算部160は、逆透視投影のために予め算出された逆投影マトリックスを構築された3Dモデルに適用し、これにより逆透視投影の実行された現実世界のオブジェクトに適する3Dモデルが生成される。この過程についても図6を参照して詳細に後述することにする。
図2は、本発明の一実施形態に係る映像処理装置に入力されるカラー映像210及び入力深度映像220を示す概念図である。
入力深度映像220は、入力カラー映像210に比べて解像度が低くてもよい。本明細書では、入力深度映像220の視点は入力カラー映像210の視点とマッチングされていると仮定する。
しかし、同一のオブジェクトを撮影しても、カラーカメラ及び深度カメラの実現形態やセンサの構造などによって撮影視点や及び/または撮影を行うカメラ視点の不整合が発生し得る。
このような不整合は、カメラ視点差の変換を反映したカラー深度映像マッチングのために様々な方式の映像処理により克服され得る。ただし、上記のようにカメラ視点において入力深度映像210と入力カラー映像がマッチングされていると仮定する。
一方、入力深度映像220は、深度カメラのセンサ性能の劣悪さ、深度折り畳み現象、防音過程などで発生するホールを有することがある。
本発明の一実施形態によれば、図1に示すアウトライアー除去部110は、入力深度映像220のノイズを除去するなど、周辺の平均深度値に比べて偏差の大きい深度値はアウトライアーと見なして値を除去する。
このような過程において、深度映像220にホールが発生したり、従来に存在したホールがより大きくなるなどのアーチファクトが発生することがある。
本発明の一実施形態によれば、このような入力深度映像220を用いて3D幾何モデルを形成し、かかる3D幾何モデルとカラー映像210のテクスチャ情報をマッチングさせて3Dモデルを生成する。
そして、このような3Dモデルに対して遠近効果の過程などを介してレンダリングを行うことで、3D映像、例えば、立体映像、マルチビュー映像などを生成することができる。
本発明の一実施形態によれば、図1に示すホールフィリング処理部120は、深度映像220内のホールをプッシュプル方法を用いて除去する。
プッシュプル方法は、図3から図4を参照してより詳細に後述する。
図3は、本発明の一実施形態に係るプッシュプル方式のホールフィリングを説明するための概念図である。
深度映像のピクセル311、312、313、314、321、322、323、324、331、332、333、334、341、342、343、344などが示されている。このようなピクセルは全体の深度映像の一部であってもよい。
ところが、陰影処理されているピクセル332、341、342、343、344はホールと仮定する。すなわち、このピクセル332、341、342、343、344はアウトライアーと判断してアウトライアー除去部110によって除去されたり、または、他の理由によって深度値が存在しない領域である。
本発明の一部他の実施形態において、深度映像に遠近効果を先に行う場合には、このような遠近効果の過程で発生するホールもピクセル332、341、342、343、344に分類されてもよい。
以下、単独に取り扱われるピクセル332、341、342、343、344を処理する方法について説明し、具体的なホールが生じた理由については説明しない。本発明の様々な実施形態によってホールの生成原因の差異は本発明の思想を逸脱しない限り本発明の範囲に属すると解釈される。
本発明の一実施形態によれば、ホールフィリング処理部120は、まず、ピクセルを4個の単位にグルーピングして平均値を求める。
ピクセル311、312、313、314が1つのグループ310にグルーピングされ、ピクセル321、322、323、324が他の1つのグループ320にグルーピングされる。このような方式によってグループ330及びグループ340が生成されていることが確認される。
ところが、グループ330には、深度値の存在しないホールに該当するピクセル332が存在する。そして、グループ340はそれに属する各ピクセル341、342、343、344が全てホールに該当する。
この場合、本発明の一実施形態によれば、グループ330の深度値平均を求めるときはホールのピクセル332を考慮することなく、深度値が存在するピクセル331、333、334の深度値平均を求め、この平均がグループ330全体の平均と決定する。
そして、グループ340のように深度値が存在するピクセルのないグループの場合、そのグループそのもの340が残り、算出された平均値はない。
このような方式によって他のグループに対しても回帰的な平均値を算出する。すなわち、グループ310、グループ320、グループ330及びグループ340をグルーピングして、さらに上位のグループにグルーピングする。そして、上位グループの平均深度値はそれぞれのグループ310、320、330及び340の平均に決定する。
図4は、本発明の一実施形態に係るプッシュプル方式のホールフィリングを説明するための概念図である。
しかし、このような回帰的な算出にも全体がホールであるため深度値が存在しないグループ340は依然として残っていることから、上位グループ410の平均算出においてグループ340は反映されず、グループ310、320、330の平均深度値を上位グループ410の深度値と決定する。
このような過程が他の上位グループ420などに行われる。そして、再び回帰的に上位グループ410、420などはより大きい上位グループの平均算出に寄与する。
このように回帰的に拡張すると、従来には入力された深度映像220の全体を代表する1つの値が生成され得る。その後、この値を再び下位グループに拡張適用してホールを満たす。
例えば、図3に示すグループ330の上位グループの値がV_330とすれば、この値をピクセル331、333、334の深度値であるV_331、V_333、V_334に比べて全体平均がV_330になるピクセル332の深度値V_332を算出する。
このように映像処理装置100のホールフィリング処理部120は、ボトムアップ方式により平均値を回帰的に拡張算出して全体の深度映像の平均値を算出した後、これをトップダウン方式により下部構造に適用しながら一律的且つ迅速にホールを除去する。
このような方式を用いてホールフィリング処理が完了された映像を図5に示す通りである。
図5は、本発明の一実施形態に係るホールフィリング処理された深度映像を説明する概念図である。
入力深度映像220に存在したホールが除去され、より自然な深度映像が生成されたことが確認される。
本発明の一実施形態によれば、映像処理装置100は、このようなホールフィリング処理が完了した深度映像から完全に除去されないノイズを除去するためにスムージングフィルタリングを行う。
例えば、フィルタ部121は、ガウスフィルタリングを行って処理された深度映像の品質を向上させることができる。
このように深度映像のホールフィリング及び選択的なフィルタリングが実行された後には、深度映像を用いた3Dモデルの生成が行われる。
図6は、本発明の一実施形態に係るポイントクラウド形態の3D情報を用いてメッシュ基盤の3D幾何モデルを生成する過程を説明するための概念図である。
深度映像によって完成された幾何情報は、ポイントクラウドの形態として理解される。すなわち、深度映像のX軸及びY軸のインデックスであるu、vに深度値zが加えられた3次元ベクトルと理解される。
ところが、映像処理やレンダリング過程でメッシュ基盤の3Dモデルがもっと選好されることがある。本発明の一実施形態によれば、映像処理装置100のメッシュ生成部130は、前述の過程によってホールフィリングや選択的なスムージングフィルタリングが実行された深度映像のポイントクラウドを用いてメッシュ基盤3次元幾何情報を構築する。
通常、ポイントクラウドは、数多い3次元ベクトルと表現される点の集合である。したがって、メッシュ基盤の3D幾何情報を作るために点を関連づける過程は極めて様々である。
どのポイントを1つのメッシュにグルーピングするかに関する内容は様々な研究が施行されている。
本発明の一実施形態によれば、深度映像は連続性の保持されるオブジェクトを撮影したものであり、深度映像内で隣接するピクセルは実際オブジェクトでも隣接のポイントに関連される可能性が高いという前提をもって、深度映像で隣接のピクセルを一律的にグルーピングしてメッシュを生成する。
例えば、ピクセル611、612、613は深度映像内で互いに隣接する位置にあるが、本発明の一実施形態によれば、このような隣接するピクセル611、612、613を1つにグルーピングしてメッシュ610を生成する。
そして、ピクセル612、613、614を1つにグルーピングしてメッシュ620に生成する。このように一律的且つ規則的にメッシュを生成することで、本発明によれば、ポイントクラウドをメッシュ基盤の3D幾何情報で生成する過程が極めて高速化されることができる。
これによって、映像処理装置100の法線算出部140は、ピクセル612、613、614それぞれに対応する3つのベクトルu、v、zの外積を求めることによってメッシュ620の法線を簡単に算出することができる。
このように法線が算出されて映像処理装置100のテクスチャコーディネート部150は、深度映像とカラー映像との間のテクスチャ情報、例えば、カラー情報などをマッチングしてもよい。
深度映像とカラー映像の解像度が異なる場合のアップスケールがこの過程で行なわれる。このような過程によって3D映像のレンダリングのための3Dモデルが構築される。
そして、映像処理装置100の逆投影演算部160は、逆透視投影(perspective unprojection)のために予め算出された逆投影マトリックスを前記構築された3Dモデルに適用し、これによって逆透視投影が実行された現実世界のオブジェクトに適する3Dモデルが生成される。
その後、高さフィールドに対するレイトレーシングなどのレンダリングによって立体映像を生成することができる。
図7は、本発明の一実施形態に係る映像処理方法を示すフローチャートである。
本発明の一実施形態によれば、映像処理方法において、入力深度映像内の周辺の平均深度値に比べて偏差の大きい深度値がアウトライアーと見なされて除去される(S710)。
そして、このような過程で発生したり大きくなったホールは、ホールフィリング過程を実行して除去される(S720)。
ここで、ホールフィリングステップは、図1に示すホールフィリング処理部120が深度映像内のホールをプッシュプル方法を用いて除去する。プッシュプル方法によるホール除去については図2〜図4を参照して上述した通りである。
このようにホールフィリング処理の後には、選択的にガウスフィルタリングが実行されて深度映像の品質を向上させる(S730)。
そして、本発明の一実施形態によれば、映像処理装置100のメッシュ生成部130が深度映像における隣接ピクセルを1つのメッシュにグルーピングする方式によって一律的且つ規則的にメッシュを生成する(S740)。このような過程は図6を参照して上述した通りである。
そして、映像処理装置100の法線算出部140がこのようなメッシュそれぞれの法線を算出し(S750)、テクスチャコーディネート部150が入力カラー映像のテクスチャ情報を各幾何情報、例えば、メッシュの頂点に関連づけて3Dモデルを生成する(S760)。
そして、映像処理装置100の逆投影演算部160が逆透視投影のために予め算出された逆投影マトリックスを前記構築された3Dモデルに適用する(S770)。以上の過程は図6を参照して上述した通りである。
本発明の一実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などの単独または組み合わせたものを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
以上のように本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定して定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
100 映像処理装置
110 アウトライアー除去部
120 ホールフィリング処理部
121 フィルタ部
130 メッシュ生成部
140 法線算出部
150 テクスチャコーディネート部
160 逆投影演算部

Claims (20)

  1. 入力深度映像のアウトライアーを除去するアウトライアー除去部と、
    アウトライアーの除去された前記入力深度映像にプッシュプル方法によってホールフィリングを行ってホールフィリング処理された深度映像を生成するホールフィリング処理部と、
    を備えることを特徴とする映像処理装置。
  2. 前記プッシュプル方法は、前記アウトライアーの除去された前記入力深度映像を複数のブロックに分類し、前記ブロックの深度値平均を回帰的に算出して最終平均値を算出し、前記最終平均値を再び回帰的にトップダウン適用して前記アウトライアーの除去された前記入力深度映像のホールフィリングを行うことを特徴とする請求項1に記載の映像処理装置。
  3. 前記アウトライアー除去部は、前記入力深度映像の少なくとも一部領域に対する深度値平均を求め、前記深度値平均に予め指定されたレベル以上の偏差を有する値を単独に処理して前記入力深度映像のアウトライアーを除去することを特徴とする請求項1に記載の映像処理装置。
  4. 前記ホールフィリング処理された深度映像にガウスフィルタリングを行うフィルタ部をさらに備えることを特徴とする請求項1に記載の映像処理装置。
  5. 前記ホールフィリング処理された深度映像で隣接のピクセルをメッシュに構成してメッシュ基盤の3D幾何モデルを生成するメッシュ生成部をさらに備えることを特徴とする請求項1に記載の映像処理装置。
  6. 前記3D幾何モデルに含まれた複数のメッシュに対してそれぞれの法線を算出する法線算出部をさらに備えることを特徴とする請求項5に記載の映像処理装置。
  7. 前記入力深度映像に関連する入力カラー映像のカラー値を前記3D幾何モデルに含まれた複数のメッシュに関連づけるテクスチャコーディネート部をさらに備えることを特徴とする請求項6に記載の映像処理装置。
  8. 前記3D幾何モデルに逆投影マトリックスを適用して前記入力深度映像に関連するカメラ視点におけるパースペクティブプロジェクションを除去する逆投影演算部をさらに備えることを特徴とする請求項5に記載の映像処理装置。
  9. 入力深度映像で互いに隣接する少なくとも3つのピクセル当たり1つずつのメッシュを生成して前記入力深度映像に関連する3D幾何モデルを生成するメッシュ生成部と、
    前記3D幾何モデルに含まれたメッシュそれぞれの法線を算出する法線算出部と、
    前記入力深度映像に関連する入力カラー映像から前記3D幾何モデルに含まれたメッシュそれぞれのテクスチャ情報を取得して前記入力深度映像及び前記入力カラー映像に対する3Dモデルを生成するテクスチャコーディネート部と、
    を備えることを特徴とする映像処理装置。
  10. 前記3Dモデルに対して前記入力深度映像または前記入力カラー映像のうち少なくとも1つに関連するカメラ視点によるパースペクティブプロジェクションを除去する逆投影演算部をさらに備えることを特徴とする請求項9に記載の映像処理装置。
  11. 前記逆投影演算部は、前記3Dモデルに逆投影マトリックスを適用して前記パースペクティブプロジェクションを除去することを特徴とする請求項10に記載の映像処理装置。
  12. 入力深度映像のアウトライアーを除去するステップと、
    アウトライアーの除去された前記入力深度映像にプッシュプル方法を用いてホールフィリングを行ってホールフィリング処理された深度映像を生成するステップと、
    を含むことを特徴とする映像処理方法。
  13. 前記プッシュプル方法は、前記アウトライアーの除去された前記入力深度映像を複数のブロックに分類し、前記ブロックの深度値平均を回帰的に算出して最終平均値を算出し、前記最終平均値を再び回帰的にトップダウン適用して前記アウトライアーの除去された前記入力深度映像のホールフィリングを行うことを特徴とする請求項12に記載の映像処理方法。
  14. 前記アウトライアーを除去するステップは、前記入力深度映像の少なくとも一部領域に対する深度値平均を求め、前記深度値平均に予め指定されたレベル以上の偏差を有する値を単独に処理して前記入力深度映像のアウトライアーを除去することを特徴とする請求項12に記載の映像処理方法。
  15. 前記ホールフィリング処理された深度映像にガウスフィルタリングを行うステップをさらに含むことを特徴とする請求項12に記載の映像処理方法。
  16. 前記ホールフィリング処理された深度映像で隣接のピクセルをメッシュに構成してメッシュ基盤の3D幾何モデルを生成するステップをさらに含むことを特徴とする請求項12に記載の映像処理方法。
  17. 前記3D幾何モデルに含まれた複数のメッシュに対してそれぞれの法線を算出するステップをさらに含むことを特徴とする請求項16に記載の映像処理方法。
  18. 前記入力深度映像に関連する入力カラー映像のカラー値を前記3D幾何モデルに含まれた複数のメッシュに関連づけるテクスチャコーディネートステップをさらに含むことを特徴とする請求項17に記載の映像処理方法。
  19. 前記3D幾何モデルに逆投影マトリックスを適用して前記入力深度映像に関連するカメラ視点におけるパースペクティブプロジェクションを除去するステップをさらに含むことを特徴とする請求項16に記載の映像処理方法。
  20. 請求項12〜請求項19のいずれか一項に記載の映像処理方法を行うプログラムを収録したコンピュータで読み出し可能な記録媒体。
JP2012240977A 2011-11-01 2012-10-31 映像処理装置及び方法 Pending JP2013097806A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110112602A KR20130047822A (ko) 2011-11-01 2011-11-01 영상 처리 장치 및 방법
KR10-2011-0112602 2011-11-01

Publications (1)

Publication Number Publication Date
JP2013097806A true JP2013097806A (ja) 2013-05-20

Family

ID=48171932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012240977A Pending JP2013097806A (ja) 2011-11-01 2012-10-31 映像処理装置及び方法

Country Status (3)

Country Link
US (1) US20130106849A1 (ja)
JP (1) JP2013097806A (ja)
KR (1) KR20130047822A (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9948911B2 (en) * 2014-09-05 2018-04-17 Qualcomm Incorporated Method and apparatus for efficient depth image transformation
EP3016076A1 (en) * 2014-10-31 2016-05-04 Thomson Licensing Method and apparatus for removing outliers from a main view of a scene during 3D scene reconstruction
CN104361632B (zh) * 2014-11-03 2017-03-29 北京航空航天大学 一种基于Hermite径向基函数的三角网格补洞方法
CN105205866B (zh) * 2015-08-30 2018-04-13 浙江中测新图地理信息技术有限公司 基于密集点云的城市三维模型快速构建方法
CN105354805B (zh) * 2015-10-26 2020-03-06 京东方科技集团股份有限公司 深度图像的去噪方法和去噪设备
JP6452658B2 (ja) * 2016-09-27 2019-01-16 キヤノン株式会社 情報処理装置、およびその制御方法ならびにプログラム
US9972067B2 (en) * 2016-10-11 2018-05-15 The Boeing Company System and method for upsampling of sparse point cloud for 3D registration
CN110476037B (zh) * 2017-04-03 2022-01-11 富士通株式会社 距离信息处理装置、距离信息处理方法以及距离信息处理程序
CN107274485A (zh) * 2017-06-23 2017-10-20 艾凯克斯(嘉兴)信息科技有限公司 一种骨架文件的几何特征参数化处理方法
EP3550506B1 (en) 2018-04-05 2021-05-12 Everdrone AB A method for improving the interpretation of the surroundings of a uav, and a uav system
EP3554082A1 (en) * 2018-04-11 2019-10-16 InterDigital VC Holdings, Inc. A method and device for coding the geometry of a point cloud
US10614579B1 (en) 2018-10-10 2020-04-07 The Boeing Company Three dimensional model generation using heterogeneous 2D and 3D sensor fusion
CN112136018A (zh) * 2019-04-24 2020-12-25 深圳市大疆创新科技有限公司 测距装置点云滤噪的方法、测距装置和移动平台
EP3761220A1 (en) 2019-07-05 2021-01-06 Everdrone AB Method for improving the interpretation of the surroundings of a vehicle
CN112513929A (zh) * 2019-11-29 2021-03-16 深圳市大疆创新科技有限公司 图像处理方法及装置
CN111275750B (zh) * 2020-01-19 2022-05-13 武汉大学 基于多传感器融合的室内空间全景图像生成方法
CN112070700B (zh) * 2020-09-07 2024-03-29 深圳市凌云视迅科技有限责任公司 一种去除深度图像中突起干扰噪声的方法与装置
WO2022265270A1 (ko) * 2021-06-18 2022-12-22 주식회사 메디트 이미지 처리 장치, 및 이미지 처리 방법
CN113838138B (zh) * 2021-08-06 2024-06-21 杭州灵西机器人智能科技有限公司 一种优化特征提取的系统标定方法、系统、装置和介质
CN113643437A (zh) * 2021-08-24 2021-11-12 凌云光技术股份有限公司 一种矫正深度图像突起干扰噪声的方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644346A (ja) * 1992-07-24 1994-02-18 Canon Inc 距離画像処理方法及び装置
JP2004234549A (ja) * 2003-01-31 2004-08-19 Canon Inc 現実物体モデル作成方法
JP2005242488A (ja) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd 物体検出装置、物体検出方法、プログラム
JP2007004318A (ja) * 2005-06-22 2007-01-11 Sega Corp 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体
JP2007304743A (ja) * 2006-05-10 2007-11-22 National Institute Of Advanced Industrial & Technology 視差補間処理方法および処理装置
JP2010502945A (ja) * 2006-09-04 2010-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像から奥行きマップを決定する方法、奥行きマップを決定する装置
JP2011523742A (ja) * 2008-05-20 2011-08-18 本田技研工業株式会社 Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6509902B1 (en) * 2000-02-28 2003-01-21 Mitsubishi Electric Research Laboratories, Inc. Texture filtering for surface elements
US6792140B2 (en) * 2001-04-26 2004-09-14 Mitsubish Electric Research Laboratories, Inc. Image-based 3D digitizer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644346A (ja) * 1992-07-24 1994-02-18 Canon Inc 距離画像処理方法及び装置
JP2004234549A (ja) * 2003-01-31 2004-08-19 Canon Inc 現実物体モデル作成方法
JP2005242488A (ja) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd 物体検出装置、物体検出方法、プログラム
JP2007004318A (ja) * 2005-06-22 2007-01-11 Sega Corp 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体
JP2007304743A (ja) * 2006-05-10 2007-11-22 National Institute Of Advanced Industrial & Technology 視差補間処理方法および処理装置
JP2010502945A (ja) * 2006-09-04 2010-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像から奥行きマップを決定する方法、奥行きマップを決定する装置
JP2011523742A (ja) * 2008-05-20 2011-08-18 本田技研工業株式会社 Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知

Also Published As

Publication number Publication date
KR20130047822A (ko) 2013-05-09
US20130106849A1 (en) 2013-05-02

Similar Documents

Publication Publication Date Title
JP2013097806A (ja) 映像処理装置及び方法
JP7181977B2 (ja) 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム
US11961325B2 (en) Image processing method and apparatus, computer-readable medium, and electronic device
JP7403528B2 (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
EP2874118B1 (en) Computing camera parameters
Li et al. Markerless shape and motion capture from multiview video sequences
WO2018150220A1 (en) System and method for three-dimensional garment mesh deformation and layering for garment fit visualization
US20170278302A1 (en) Method and device for registering an image to a model
CN112651881B (zh) 图像合成方法、装置、设备、存储介质以及程序产品
CN109660783A (zh) 虚拟现实视差校正
EP3533218B1 (en) Simulating depth of field
JP7294788B2 (ja) 3d配置のタイプに応じた2d画像の分類
CN106997613A (zh) 根据2d图像的3d模型生成
CN111325693A (zh) 一种基于单视点rgb-d图像的大尺度全景视点合成方法
KR102158390B1 (ko) 영상 처리 방법 및 장치
Manni et al. Snap2cad: 3D indoor environment reconstruction for AR/VR applications using a smartphone device
CN112562083A (zh) 基于深度相机的静态人像三维重建与动态人脸融合方法
CN108655571A (zh) 一种数控激光雕刻机、控制系统及控制方法、计算机
Fan et al. Collaborative three-dimensional completion of color and depth in a specified area with superpixels
Han et al. 3D human model reconstruction from sparse uncalibrated views
US10403026B2 (en) Noise reduction on G-buffers for Monte Carlo filtering
US20190377935A1 (en) Method and apparatus for tracking features
KR102648938B1 (ko) 기하학적 일관성을 이용한 소수 샷 신경 방사장 기반 3차원 이미지 재구성 방법 및 장치
Nadar et al. Sensor simulation for monocular depth estimation using deep neural networks
CN108109195A (zh) 一种用于展示文物缺损部件的方法、装置及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160719