JP2010171949A - 深さ情報を用いた深さノイズフィルタリング方法および装置 - Google Patents

深さ情報を用いた深さノイズフィルタリング方法および装置 Download PDF

Info

Publication number
JP2010171949A
JP2010171949A JP2009281523A JP2009281523A JP2010171949A JP 2010171949 A JP2010171949 A JP 2010171949A JP 2009281523 A JP2009281523 A JP 2009281523A JP 2009281523 A JP2009281523 A JP 2009281523A JP 2010171949 A JP2010171949 A JP 2010171949A
Authority
JP
Japan
Prior art keywords
depth information
depth
spatial filter
region
noise filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009281523A
Other languages
English (en)
Other versions
JP5519258B2 (ja
Inventor
Byong-Min Kang
柄 敏 姜
Hwa Sup Lim
和 燮 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010171949A publication Critical patent/JP2010171949A/ja
Application granted granted Critical
Publication of JP5519258B2 publication Critical patent/JP5519258B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 深さノイズフィルタリング方法および装置を提供する。
【解決手段】 深さノイズフィルタリング方法は、深さ情報に応じて空間的フィルタリングを実行したり、または時間的フィルタリングを実行したりすることができる。空間的フィルタリングを実行するために、深さノイズフィルタリング方法は、深さ情報に応じて空間フィルタの特性を決定することができる。また、時間的フィルタリングを実行するために、深さノイズフィルタリング方法は、深さ情報に応じて参照フレームの個数を決定することができる。深さノイズフィルタリング方法は、深さ情報に応じて適応的に深さノイズを除去することで、ノイズフィルタリングの性能を向上させることができる。
【選択図】 図1

Description

本発明は、3D映像を処理する映像処理に関し、より詳細には、深さによって発生する深さノイズをフィルタリングする深さノイズフィルタリング方法および装置に関する。
3D映像の需要が増加するに伴い、3D映像を収集することができる3Dカメラが現れている。3Dカメラは、物体のカラー情報と深さ情報を取得して2D映像に立体感を提供することができる。このとき、深さ情報は、物体とカメラの間の距離に応じて決定される。
3Dカメラの映像収集特性上、物体の距離に応じて深さ情報に含まれた深さノイズの特性が異なって現れることがある。深さノイズが多い深さ情報を用いて3D映像を構成する場合には、3D映像の品質が低下することがある。
したがって、物体とカメラの間の距離による深さノイズを除去することができる方法が求められている。
大韓民国登録特許第10−0806201号公報 大韓民国公開特許第2008−0059462号公報 公開特許第1996−018852号公報 公開特許第2001−189878号公報 公開特許第2001−189944号公報
本発明は、上述した問題点を解決するために案出されたものであって、深さ情報に応じて空間的フィルタリングを実行することによって適応的に深さノイズを除去する深さノイズフィルタリング方法および装置を提供することを目的とする。
また、本発明は、深さ情報に応じて時間的フィルタリングを実行することによって適応的に深さノイズを除去する深さノイズフィルタリング方法および装置を提供することを他の目的とする。
また、本発明は、空間的フィルタリングを実行するために深さ情報に応じて空間フィルタのサイズまたは係数を計算することで、深さ情報による深さノイズを効果的に除去する深さノイズフィルタリング方法および装置を提供することを他の目的とする。
さらに、本発明は、時間的フィルタリングを実行するために深さ情報に応じて参照フレームの個数を決定することで、深さ情報による深さノイズを効果的に除去する深さノイズフィルタリング方法および装置を提供することをさらに他の目的とする。
上述した目的を達成するために、本発明の一実施形態に係る深さノイズフィルタリング方法は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、前記深さ情報を用いて前記領域に対する空間フィルタを生成するステップと、前記領域の深さ情報に空間フィルタを適用して前記立体映像の深さノイズフィルタリングを実行するステップとを含む。
本発明の一実施形態によれば、前記深さ情報は、前記領域に対する映像収集装置とオブジェクトとの距離であり、前記領域に対する前記空間フィルタを生成するステップは、前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの個数のうちの少なくとも1つを決定する。
本発明の一実施形態によれば、前記領域に対する前記空間フィルタを生成するステップは、前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちのいずれか1つの情報を用いて前記深さ情報による前記空間フィルタのサイズを決定する。
本発明の一側によれば、前記領域に対する前記空間フィルタを生成するステップは、前記深さ情報によって予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの個数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照し、前記深さ情報に対応する前記空間フィルタを生成する。
本発明の一側によれば、前記領域に対する前記空間フィルタを生成するステップは、前記深さ情報が近距離であるほど前記空間フィルタのサイズを減少させる。
本発明の一側によれば、前記領域に対する前記空間フィルタを生成するステップは、前記深さ情報が近距離であるほど前記空間フィルタの個数に対する減少率を増加させ、前記空間フィルタの個数は、前記空間フィルタリングの中心から周辺に行くほど減少する。
本発明の一側によれば、前記領域は、前記フィルタリング対象フレームを構成するピクセルまたはブロックのうちのいずれか1つである。
本発明の一実施形態に係る深さノイズフィルタリング方法は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、前記深さ情報を用いて前記領域に対して参照フレームの個数を計算するステップと、前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の深さ情報をアップデートするステップとを含む。
本発明の一側によれば、前記深さ情報に空間フィルタ(spatial filter)を適用するステップをさらに含み、前記参照フレームの個数を計算するステップは、前記空間フィルタが適用された深さ情報を用いて参照フレームの個数を計算する。
本発明の一実施形態によれば、深さノイズフィルタリング方法は、前記取得した深さ情報に時間的フィルタリング(temporal filtering)を実行するステップをさらに含む。
本発明の一実施形態によれば、深さノイズフィルタリング方法は、前記アップデートした深さ情報に空間的フィルタリングを実行するステップをさらに含む。
本発明の一実施形態によれば、深さノイズフィルタリング方法は、前記アップデートした深さ情報を用いて空間フィルタを生成するステップと、前記空間フィルタをアップデートした深さ情報に適用するステップとをさらに含む。
本発明の一実施形態によれば、前記深さノイズフィルタリング方法は、深さ情報に空間的フィルタリングを実行し、この後に時間的フィルタリングを実行することができる。
本発明の一実施形態によれば、前記深さノイズフィルタリング方法は、深さ情報に時間的フィルタリングを実行し、この後に空間的フィルタリングを実行することができる。
本発明の一実施形態に係る深さノイズフィルタリング方法は、前記参照フレームそれぞれの領域に対するアップデートした深さ情報に加重値を適用するステップをさらに含み、前記加重値は、計算された参照フレームの個数に基づいて決定される。
本発明の一側によれば、前記深さ情報は、前記領域に対して映像収集装置とオブジェクトとの距離であり、前記参照フレームの個数を計算するステップは、前記深さ情報、前記映像収集装置の測定最小距離、測定最大距離、または前記測定最大距離であるときのフレームの個数のうちの少なくとも1つの情報を用いて前記深さ情報に基づいた参照フレームの個数を計算する。
本発明の一側によれば、前記参照フレームの個数を計算するステップは、前記領域に対して深さ情報が近距離であるほど前記参照フレームの個数を減少させる。
本発明の一側によれば、前記フィルタリング対象フレームで領域の深さ情報をアップデートするステップは、前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の深さ情報をアップデートする。
本発明の一実施形態に係る深さノイズフィルタリング方法は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、前記深さ情報に応じて前記領域に対する空間フィルタを生成して前記領域の深さ情報に適用するステップと、前記空間フィルタが適用されたフィルタリング対象フレームを構成する領域の深さ情報を用いて前記領域に対して参照フレームの個数を計算するステップと、前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の深さ情報をアップデートするステップとを含む。
本発明の一側によれば、前記深さ情報は、前記領域に対する映像収集装置とオブジェクトとの距離であり、前記領域に対する前記空間フィルタを生成して前記領域の深さ情報に適用するステップは、前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは個数のうちの少なくとも1つを決定する。
本発明の一側によれば、前記領域に対する前記空間フィルタを生成するステップは、前記深さ情報によって予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの個数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照し、前記深さ情報に対応する前記空間フィルタを生成する。
本発明の一側によれば、前記領域に対する前記空間フィルタを生成して前記領域の深さ情報に適用するステップは、前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちの少なくとも1つの情報を用いて前記深さ情報による前記空間フィルタのサイズを決定する。
本発明の一側によれば、前記深さ情報は、前記領域に対して映像収集装置とオブジェクトとの距離であり、前記領域に対して参照フレームの個数を計算するステップは、前記深さ情報、前記映像収集装置の測定最小距離、測定最大距離、または前記測定最大距離であるときのフレームの個数のうちの少なくとも1つの情報を用いて前記深さ情報によるフレームの個数を計算する。
本発明の一側によれば、前記フィルタリング対象フレームで前記領域の深さ情報を決定するステップは、前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の深さ情報を決定する。
本発明の一実施形態に係る深さノイズフィルタリング方法は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を用いて前記領域に対して参照フレームの個数を計算するステップと、前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の深さ情報をアップデートするステップと、前記領域に対する空間フィルタを前記領域の深さ情報に適用するために前記アップデートした深さ情報を用いて前記領域に対する空間フィルタを生成するステップとを含む。
本発明の一側によれば、前記深さ情報は、前記領域に対して映像収集装置とオブジェクトとの距離であり、前記参照フレームの個数を計算するステップは、前記深さ情報、前記映像収集装置の測定最小距離、測定最大距離、または前記測定最大距離であるときのフレームの個数のうちの少なくとも1つの情報を用いて前記深さ情報に基づいた参照フレームの個数を計算する。
本発明の一側によれば、前記フィルタリング対象フレームで領域の深さ情報をアップデートするステップは、前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の深さ情報をアップデートする。
本発明の一側によれば、前記深さ情報は、前記領域に対して映像収集装置とオブジェクトとの距離であり、前記領域に対する空間フィルタを生成するステップは、前記アップデートした深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの個数のうちの少なくとも1つを決定する。
本発明の一側によれば、前記領域に対する空間フィルタを生成するステップは、前記アップデートした深さ情報によって予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの個数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照し、前記アップデートした深さ情報に対応する前記空間フィルタを生成する。
本発明の一側によれば、前記領域に対する空間フィルタを生成するステップは、前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちの少なくとも1つの情報を用いて前記アップデートした深さ情報による前記空間フィルタのサイズを決定する。
本発明の一実施形態に係る空間フィルタ生成方法は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、前記深さ情報を用いて前記領域に対する空間フィルタの特徴を決定するステップと、前記空間フィルタの特徴に基づいて前記領域に適用する空間フィルタを生成するステップとを含む。
本発明の一側によれば、前記深さ情報は、前記領域に対して映像収集装置とオブジェクトとの距離であり、前記領域に対する空間フィルタの特徴を決定するステップは、前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの個数のうちの少なくとも1つを決定する。
本発明の一側によれば、前記領域に適用する前記空間フィルタを生成するステップは、前記深さ情報によって予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの個数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照し、前記深さ情報に対応する前記空間フィルタを生成する。
本発明の一側によれば、前記領域に対する前記空間フィルタの特徴を決定するステップは、前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちの少なくとも1つの情報を用いて前記深さ情報による前記空間フィルタのサイズを決定する。
本発明の一側によれば、前記領域に対する前記空間フィルタの特徴を決定するステップは、前記アップデートする深さ情報が近距離であるほど前記空間フィルタのサイズを減少させる。
本発明の一側によれば、前記領域に対する前記空間フィルタの特徴を決定するステップは、前記アップデートする深さ情報が近距離であるほど前記空間フィルタの個数に対する減少率を増加させ、前記空間フィルタの個数は、前記空間フィルタの中心から周辺に行くほど減少する。
本発明の一実施形態に係る深さノイズフィルタリング装置は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を用いて前記領域に対する空間フィルタを生成する空間フィルタ生成部と、前記領域の深さ情報に前記空間フィルタを適用して前記立体映像の深さノイズフィルタリングを実行するフィルタリング実行部とを備える。
本発明の一側によれば、前記深さ情報は、前記領域に対して映像収集装置とオブジェクトとの距離であり、前記空間フィルタ生成部は、前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの個数のうちの少なくとも1つを決定する。
本発明の一側によれば、前記空間フィルタ生成部は、前記深さ情報によって予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの個数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照し、前記深さ情報に対応する前記空間フィルタを生成する。
本発明の一実施形態に係る深さノイズフィルタリング装置は、立体映像のフィルタリング対象フレームを構成する領域の第1深さ情報を用いて前記領域に対して参照フレームの個数を計算するフレーム個数計算部と、前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の第2深さ情報を決定する深さ情報決定部とを備える。
本発明の一側によれば、前記深さ情報決定部は、前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の第2深さ情報を決定する。
本発明の一側によれば、前記深さノイズフィルタリング装置は、前記第2深さ情報を用いて時間的フィルタリングを実行する。
本発明の一側によれば、前記深さノイズフィルタリング装置は、前記第2深さ情報を用いて空間的フィルタリングを実行する。
本発明の一側によれば、前記深さ情報決定部は、前記第2深さ情報によって空間フィルタを生成して第3深さ情報を決定し、前記第2深さ情報に前記空間フィルタを適用する。
本発明の一側によれば、前記深さノイズフィルタリング装置は、空間的フィルタリングを実行し、この後に時間的フィルタリングを実行する。
本発明の一側によれば、前記深さノイズフィルタリング装置は、時間的フィルタリングを実行し、その後に空間的フィルタリングを実行する。
本発明の一側によれば、前記深さノイズフィルタリング装置は、前記深さ情報決定部は、前記参照フレームそれぞれに対して領域の深さ情報に加重値を適用し、前記加重値は、前記計算された参照フレームの個数に基づいて決定される。
本発明の一側によれば、前記深さノイズフィルタリング装置は、前記第1深さ情報を生成するために深さ情報に空間フィルタを適用する。
本発明の一側によれば、前記深さノイズフィルタリング装置は、前記第1深さ情報および前記第2深さ情報とは異なる深さ情報を用いて空間フィルタを生成する。
本発明の一実施形態によれば、深さ情報に応じて空間的フィルタリングを実行することによって適応的に深さノイズを除去する深さノイズフィルタリング方法および装置が提供される。
また、本発明の一実施形態によれば、深さ情報に応じて時間的フィルタリングを実行することによって適応的に深さノイズを除去する深さノイズフィルタリング方法および装置が提供される。
また、本発明の一実施形態によれば、空間的フィルタリングを実行するために深さ情報に応じて空間フィルタのサイズまたは係数を計算することで、深さ情報による深さノイズを効果的に除去する深さノイズフィルタリング方法および装置が提供される。
さらに、本発明の一実施形態によれば、時間的フィルタリングを実行するために深さ情報に応じて参照フレームの個数を決定することで、深さ情報による深さノイズを効果的に除去する深さノイズフィルタリング方法および装置が提供される。
本発明の一実施形態に係る深さノイズフィルタリング装置を用いて3D映像を再構成する過程を説明するための図である。 本発明の一実施形態によって深さノイズを除去するために空間的フィルタリングを実行する全体過程を示すフローチャートである。 本発明の一実施形態によって深さノイズを除去するために時間的フィルタリングを実行する全体過程を示すフローチャートである。 本発明の一実施形態によって深さノイズを除去するために空間的フィルタリングと時間的フィルタリングを実行する全体過程を示すフローチャートである。 本発明の一実施形態によって深さノイズを除去するために時間的フィルタリングと空間的フィルタリングを実行する全体過程を示すフローチャートである。 本発明の一実施形態によって深さ情報による深さノイズの差を表す一例を示すフローチャートである。 本発明の一実施形態によって深さ情報に応じて空間フィルタのサイズを計算する過程を説明するための図である。 本発明の一実施形態によって深さ情報に応じて空間フィルタの係数を計算する過程を説明するための図である。 本発明の一実施形態によって深さ情報に空間フィルタを適用する一例を示す図である。 本発明の一実施形態によって深さ情報に応じて参照フレームの個数を決定して時間的フィルタリングを実行する一例を示す図である。 本発明の一実施形態によって空間的フィルタリングを実行するための深さノイズフィルタリング装置の全体構成を示すブロック図である。 本発明の一実施形態によって時間的フィルタリングを実行するための深さノイズフィルタリング装置の全体構成を示すブロック図である。
以下、添付の図面に記載された内容を参照しながら、本発明に係る好ましい実施形態について詳細に説明する。ただし、本発明がこれらの実施形態によって制限または限定されることはない。図中、同じ参照符号は同じ部材を示す。深さノイズフィルタリング方法は、深さノイズフィルタリング装置によって実行することができる。
図1は、本発明の一実施形態に係る深さノイズフィルタリング装置を用いて3D映像を再構成する過程を説明するための図である。
図1において、映像収集装置102は、オブジェクト101を撮影して映像を収集することができる。また、映像収集装置102は、オブジェクト101から3D映像を収集することができるが、より具体的に、映像収集装置102は、オブジェクト101のカラー情報と深さ情報を収集することができる。ここで、カラー情報は、映像収集装置102のCCDまたはCMOSイメージセンサによって収集される情報を意味することができる。さらに、深さ情報は、映像収集装置102からオブジェクト101の各ポイントまでの距離を意味する。
一例として、映像収集装置102は、オブジェクト101に光を照らして戻ってくる時間を測定した後、光の速度を用いて映像収集装置102とオブジェクト101との距離を測定することができる。このように測定された距離を用いて、映像収集装置102は、深さ情報を収集することができる。このとき、映像収集装置102が収集する深さ情報には、オブジェクト101との距離による深さノイズが発生することがあり、深さノイズフィルタリング装置103は、フィルタリングを実行してこのような深さノイズを除去することができる。すなわち、深さノイズフィルタリング装置103は、低域通過フィルタ(LPF)を用いてフィルタリングを実行して深さノイズを除去することができる。
一例として、深さノイズフィルタリング装置103は、深さ情報に応じて空間的(spatial)フィルタリングを実行することができる。また、深さノイズフィルタリング装置103は、深さ情報に応じて時間的(temporal)フィルタリングを実行することができる。また、深さノイズフィルタリング装置103は、深さ情報に応じて空間的フィルタリングと時間的フィルタリングを共に実行することができる。さらに、深さノイズフィルタリング装置103は、空間的フィルタリングと時間的フィルタリングを順次に実行することができる。
このとき、深さノイズフィルタリング装置103は、深さ情報に応じてフィルタのサイズまたは係数を計算してフィルタを生成し、フィルタを適用して空間的フィルタリングを実行することができる。または、深さノイズフィルタリング装置103は、深さ情報に応じて参照フレームの個数を計算して時間的フィルタリングを実行することができる。
結局、フィルタリングされた深さ情報とカラー情報を再構成することによって、品質が向上した3D映像104を生成することができる。
図2は、本発明の一実施形態によって深さノイズを除去するために空間的フィルタリングを実行する全体過程を示すフローチャートである。
ステップS201で、深さノイズフィルタリング装置103は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得することができる。このとき、領域は、フィルタリング対象フレームを構成するピクセルまたはブロックとすることができる。すなわち、深さノイズフィルタリング装置103は、ピクセル単位またはブロック単位によってフィルタリングを実行することができる。また、深さ情報は、領域に対して映像収集装置102とオブジェクト101との距離を意味する。
このとき、深さノイズフィルタリング装置103は、映像収集装置102によって映像収集装置102とオブジェクト101との距離である深さ情報を取得することができる。
ステップS202で、深さノイズフィルタリング装置103は、深さ情報を用いて領域に対する空間フィルタを生成することができる。一例として、深さノイズフィルタリング装置103は、深さ情報を用いて領域に適用する空間フィルタのサイズまたは係数のうちの少なくとも1つを決定することができる。
このとき、深さノイズフィルタリング装置103は、深さ情報、映像収集装置102の測定最大距離、測定最小距離、および測定最大距離であるときの空間フィルタの最大サイズを用いて深さ情報による空間フィルタのサイズを決定することができる。一例として、深さノイズフィルタリング装置103は、式(1)によって空間フィルタのサイズを決定することができる。
Figure 2010171949
ここで、depthは深さ情報を意味し、sizeは深さ情報による空間フィルタのサイズを意味する。また、min Distanceは映像収集装置102の測定最小距離を意味し、max Distanceは映像収集装置102の測定最大距離を意味する。さらに、max filtersizeは、映像収集装置102の測定最大距離であるときの空間フィルタのサイズを意味する。
例えば、映像収集装置102の測定最大距離が3.5mであり、測定最小距離が0.5mであり、測定最大距離であるときの空間フィルタのサイズが9であると仮定する。また、実際の深さ映像が1.5m〜3.0mの間であると仮定する。もし、深さ情報が1.5mである場合、空間フィルタのサイズは、定数である3で決定されるようになる。そうなれば、空間フィルタは3×3のフィルタとすることができる。このとき、空間フィルタの各係数は、1/9で決定されることができる。また、深さ情報が1.9mである場合、空間フィルタのサイズは4.2で決定され、空間フィルタは4×4のフィルタとすることができる。このとき、空間フィルタの各係数は、1/16で決定されることができる。ここで、空間フィルタの係数は、立体映像のフィルタリング対象フレームに適用される加重値の係数を意味する。
式(1)によれば、深さノイズフィルタリング装置103は、深さ情報が近距離であるほど空間フィルタのサイズを減少させ、深さ情報が遠距離であるほど空間フィルタのサイズを増加させることができる。
一例として、深さノイズフィルタリング装置103は、深さ情報に応じて空間フィルタの係数を決定することができる。このとき、深さノイズフィルタリング装置103は、フィルタのサイズが同じ場合に、深さ情報に応じて空間フィルタの係数を異なるように決定することができる。
ここで、空間フィルタの係数は、空間フィルタの中心から周辺に行くほど減少する。ただし、空間フィルタの中心から周辺までの空間フィルタの係数に対する減少率は、深さ情報に応じて異なるように決定されることがある。より具体的に、深さ情報が近距離であるほど、深さノイズフィルタリング装置103は、空間フィルタの係数に対する減少率を大きく決定することができる。また、深さ情報が遠距離であるほど、深さノイズフィルタリング装置103は、空間フィルタの係数に対する減少率を小さく決定することができる。
一例として、空間フィルタの係数に対する減少率は、ガウス関数(Gaussian Function)で表すことができる。このとき、ガウス関数の幅はシグマ値によって決定され、深さ情報が近距離であるほどシグマ値は小さく設定され、深さ情報が遠距離であるほどシグマ値は大きく設定される。
深さノイズフィルタリング装置103は、深さ情報に応じて空間フィルタのサイズと係数を同時に決定することができる。深さ情報による空間フィルタのサイズと係数は、上述した説明によって決定される。
すなわち、深さノイズフィルタリング装置103は、深さ情報に応じて演算過程を実行して空間フィルタをリアルタイムで生成することができる。また、一例として、深さノイズフィルタリング装置103は、深さ情報に応じて予め設定された(predetermined)空間フィルタのサイズ、または予め設定された空間フィルタの係数のうちの少なくとも1つの空間フィルタの情報が格納されたテーブルを参照して、深さ情報に対応する空間フィルタを生成することができる。言い替えれば、深さノイズフィルタリング装置103は、特定の深さ情報に対して空間フィルタの特徴を予め演算した後、入力された深さ情報に適合する空間フィルタを即時に生成することができる。
このとき、空間フィルタを生成しようとする深さ情報D1がテーブルに設定されていない場合、深さノイズフィルタリング装置103は、テーブルを用いて予め設定した深さ情報を組み合わせて空間フィルタを生成することができる。より具体的に、深さノイズフィルタリング装置103は、テーブルに予め設定した深さ情報のうちで深さ情報D1を含むことができる2つの深さ情報D2、D3を決定することができる。また、深さ情報D2、D3それぞれの空間フィルタを深さ情報D1との差によって加重値を適用し、深さ情報D1の空間フィルタを生成することができる。
ステップS203で、深さノイズフィルタリング装置103は、領域の深さ情報に空間フィルタを適用して立体映像の深さノイズフィルタリングを実行することができる。上述したように、領域は、フィルタリング対象フレームを構成するピクセルまたはブロックとすることができる。空間フィルタを適用することによって、高周波成分である深さノイズを除去することができる。特に、深さ情報が遠距離であるほど高周波成分が深さノイズとして現れるため、深さノイズフィルタリング装置103は、深さノイズフィルタリング強度を強く調節して深さノイズを除去することができる。空間フィルタを適用する一例は、図9を参照しながら具体的に説明する。
結局、空間的フィルタリングは、立体映像を構成する1つのフィルタリング対象フレームにおいて、フィルタリング対象フレームを構成する領域に対して空間フィルタを適用して深さノイズを除去することを意味する。また、オブジェクト101との距離が遠いほど深さノイズが多く発生するため、深さノイズフィルタリング装置103は、オブジェクト101との距離が遠いほどフィルタリングの強度を高めて深さノイズを除去する効果を高めることができる。
図3は、本発明の一実施形態によって深さノイズを除去するために時間的フィルタリングを実行する全体過程を示すフローチャートである。
ステップS301で、深さノイズフィルタリング装置103は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得することができる。このとき、深さノイズフィルタリング装置103は、映像収集装置102から深さ情報を取得することができる。領域と深さ情報は、図2で説明したものと同じである。
ステップS302で、深さノイズフィルタリング装置103は、深さ情報を用いて領域に対して参照フレームの個数を計算することができる。領域ごとに深さ情報は異なるため、領域ごとに計算される参照フレームの個数も異なるようになる。このとき、参照フレームは、フィルタリング対象フレームに対して深さノイズを除去するために参照する時間的に以前または以後に存在するフレームを意味する。
深さノイズフィルタリング装置103は、深さ情報、映像収集装置102の測定最小距離、測定最大距離、および測定最大距離であるときのフレームの個数を用いて深さ情報に基づいた参照フレームの個数を計算することができる。一例として、深さノイズフィルタリング装置103は、式(2)によって参照フレームの個数を計算することができる。
Figure 2010171949
ここで、depthは深さ情報を意味し、Numは参照フレームの個数を意味する。また、min Distanceは映像収集装置102の測定最小距離を意味し、max Distanceは映像収集装置102の測定最大距離を意味する。さらに、max Num of framesは、映像収集装置102の測定最大距離であるときの参照フレームの最大個数を意味する。
例えば、映像収集装置102の測定最大距離が3.5mであり、測定最小距離が0.5mであり、測定最大距離であるときの参照フレームの最大個数が25であると仮定する。また、実際の深さ映像が1.5m〜3.0mの間であると仮定する。もし、深さ情報が1.5mである場合、Numは定数である3で決定され、参照フレームの個数は9個となる。さらに、深さ情報が1.9mである場合、Numは4.2で決定され、参照フレームの個数は16個となる。
このとき、参照フレームの個数により、参照フレームの領域に適用される加重値は反比例して決定される。すなわち、参照フレームの個数が9個である場合、9個の参照フレームで該当する領域それぞれの深さ情報に加重値1/9が適用される。
式(2)によれば、深さノイズフィルタリング装置103は、深さ情報が近距離であるほど参照フレームの個数を減少させ、深さ情報が遠距離であるほど参照フレームの個数を増加させることができる。
ステップS303で、深さノイズフィルタリング装置103は、参照フレームの個数に対応する参照フレームを用いてフィルタリング対象フレームで領域の深さ情報を決定することができる。一例として、深さノイズフィルタリング装置103は、参照フレームの深さ情報を平均してフィルタリング対象フレームで領域の深さ情報を決定することができる。
例えば、参照フレームの個数が9個である場合、深さノイズフィルタリング装置103は、フィルタリング対象フレームの領域に対応する9個の参照フレームの領域それぞれに深さ情報に加重値1/9を適用した後、これを算術平均してフィルタリング対象フレームの領域の深さ情報を決定することができる。
図4は、本発明の一実施形態によって深さノイズを除去するために空間的フィルタリングと時間的フィルタリングを実行する全体過程を示すフローチャートである。
ステップS401で、深さノイズフィルタリング装置103は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得することができる。領域と深さ情報についての説明は、図2を参照することができる。
ステップS402で、深さノイズフィルタリング装置103は、深さ情報に応じて領域に対する空間フィルタを生成して領域の深さ情報に適用することができる。ステップS401とステップS402は、空間的フィルタリングを意味する。ステップS401とステップS402についての具体的な説明は、図2を参照することができる。
ステップS403で、深さノイズフィルタリング装置103は、空間フィルタが適用されたフィルタリング対象フレームを構成する領域の深さ情報を用いて領域に対して参照フレームの個数を計算することができる。
ステップS404で、深さノイズフィルタリング装置103は、個数に対応する参照フレームを用いてフィルタリング対象フレームで領域のアップデートした深さ情報を決定することができる。ステップS403とステップS404は、時間的フィルタリングを意味することができる。ステップS403とステップS404についての説明は、図3を参照することができる。
すなわち、図4は、立体映像に対して空間的フィルタリングを適用した後、時間的フィルタリングを適用したことを意味する。
図5は、本発明の一実施形態によって深さノイズを除去するために時間的フィルタリングと空間的フィルタリングを実行する全体過程を示すフローチャートである。
ステップS501で、深さノイズフィルタリング装置103は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得することができる。領域と深さ情報についての説明は、図2を参照することができる。
ステップS502で、深さノイズフィルタリング装置103は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を用いて領域に対して参照フレームの個数を計算することができる。
ステップS503で、深さノイズフィルタリング装置103は、個数に対応する参照フレームを用いてフィルタリング対象フレームで領域の深さ情報を決定することができる。
ステップS502とステップS503は、時間的フィルタリングを適用する過程に関するものであり、より具体的な説明は、図3を参照することができる。
ステップS504で、深さノイズフィルタリング装置103は、決定された深さ情報に応じて領域に対する空間フィルタを生成して領域の深さ情報に適用することができる。
ステップS504は、空間的フィルタリングを適用する過程に関するものであり、より具体的な説明は、図2を参照することができる。
すなわち、図5、は立体映像に対して時間的フィルタリングを適用した後、空間的フィルタリングを適用したことを意味する。
図6は、本発明の一実施形態によって深さ情報による深さノイズの差を表す一例を示すフローチャートである。図6を参照するに、映像収集装置102とオブジェクト101との距離である深さ情報による深さノイズの程度を確認することができる。図1で上述したように、深さ情報は、映像収集装置102が放出した光がオブジェクト101に反射して戻ってくる時間を光の速度で割ることによって決定することができる。このとき、映像収集装置102の近くに位置したオブジェクト101から反射して戻ってくる光の強度は強いため、深さ情報の正確度は高い。したがって、オブジェクト101との距離が近いほど深さノイズは小さい。これとは反対に、映像収集装置102と遠く離れたオブジェクト101の場合、反射して戻ってくる光の強度が少なく、深さ情報の正確度が低くなることがある。この場合、深さ情報に対する深さノイズが大きく発生する恐れがある。
結局、映像収集装置102とオブジェクト101の距離が遠いほど深さノイズは増加し、映像収集装置102とオブジェクト101の距離が近いほど深さノイズは減少するようになる。これにより、本発明の一実施形態に係る深さノイズフィルタリング装置103は、映像収集装置102とオブジェクト101の距離が遠いほど、深さノイズに対するフィルタリングの強度を増加させることができる。
より具体的に、深さノイズフィルタリング装置103は、映像収集装置102とオブジェクト101の距離が遠いほど、空間的フィルタリングのための空間フィルタのサイズを増加させることができる。また、深さノイズフィルタリング装置103は、中心から周辺に行くほど係数が減少するように空間フィルタを生成することができる。このとき、深さノイズフィルタリング装置103は、係数の減少率を深さ情報に応じて相違して決定することができる。例えば、深さノイズフィルタリング装置103は、映像収集装置102とオブジェクト101の距離が遠いほど、空間フィルタの係数に対する減少率を減少させることができる。また、深さノイズフィルタリング装置103は、映像収集装置102とオブジェクト101の距離が遠いほど、時間的フィルタリングのための参照フレームの個数を増加させることができる。
図7は、本発明の一実施形態によって深さ情報に応じて空間フィルタのサイズを計算する過程を説明するための図である。図6で説明したように、深さノイズフィルタリング装置103は、オブジェクト101と映像収集装置102の間の距離が遠いほど、空間的フィルタリングのための空間フィルタのサイズを増加させることができる。すなわち、映像収集装置102とオブジェクト101の距離が遠距離である場合には、5×5サイズの空間フィルタ701が決定される。また、映像収集装置102とオブジェクト101の距離が中間距離である場合には、4×4サイズの空間フィルタ702が決定されることができる。さらに、映像収集装置102とオブジェクト101の距離が近距離である場合には、3×3サイズの空間フィルタ703が決定される。
より具体的に空間フィルタのサイズを決定する過程は、式(1)を参照することができる。
図8は、本発明の一実施形態によって深さ情報に応じて空間フィルタの係数を計算する過程を説明するための図である。
図8で、空間フィルタ801、802、803、804のサイズは同じであると仮定する。また、空間フィルタが適用された結果が空間フィルタの横に示されている。
図6で説明したように、深さノイズフィルタリング装置103は、オブジェクト101と映像収集装置102の間の距離が遠いほど、空間的フィルタリングのための空間フィルタの係数に対する減少率を減少させることができる。より具体的に、深さノイズフィルタリング装置103は、空間フィルタの中心から周辺に行くほど、空間フィルタの係数を減少することができる。このとき、深さノイズフィルタリング装置103は、深さ情報に応じて空間フィルタの係数に対する減少率を相違して決定することができる。
深さノイズフィルタリング装置103は、深さ情報が近距離であるほど、空間フィルタの係数に対する減少率を増加させることができる。すなわち、空間的フィルタリングを実行するとき、空間フィルタが適用される領域は、周辺領域の深さ情報の影響を少なく受けることができる。また、深さノイズフィルタリング装置103は、深さ情報が遠距離であるほど、空間フィルタの係数に対する減少率を減少させることができる。すなわち、空間的フィルタリングを実行するとき、空間フィルタが適用される領域は、周辺領域の深さ情報の影響を大きく受けることができる。
図8に示すように、空間フィルタの係数に対する減少率は、ガウス関数で表現することができる。ここで、ガウス関数の幅を決定するシグマ値は、空間フィルタの係数に対する減少率を意味し、深さ情報に応じて相違して設定することができる。一例として、深さ情報が近距離である場合にはガウス関数のシグマ値は小さく設定され、深さ情報が遠距離である場合にはガウス関数のシグマ値は大きく設定される。
図8で、映像収集装置102とオブジェクト101の距離が遠いほど深さノイズが強いため、深さノイズフィルタリング装置103は、フィルタリング強度を高めることができる。すなわち、フィルタリング強度が高いほど、深さ情報の高周波成分を多く除去することができる。これとは反対に、映像収集装置102とオブジェクト101の距離が近いほど深さノイズは弱いため、深さノイズフィルタリング装置103は、フィルタリング強度を弱くすることができる。一例として、深さ情報が遠距離である場合、立体映像の高周波成分はノイズ成分とすることができる。このとき、深さノイズフィルタリング装置103は、フィルタリング強度を調節して立体映像のノイズ成分である高周波成分を除去することができる。一方、深さ情報が近距離である場合、立体映像の高周波成分は、ノイズ成分ではない立体映像の本来の成分とすることができる。このとき、深さノイズフィルタリング装置103は、フィルタリング強度を調節して立体映像の本来の成分である高周波成分をそのままにすることができる。
図9は、本発明の一実施形態によって深さ情報に空間フィルタを適用する一例を示す図である。
図面符号901は、深さノイズフィルタリング装置103によって生成された空間フィルタを示す。また、図面符号902は、空間フィルタが適用される領域の深さ情報を意味する。このとき、空間フィルタは、領域eに適用されることを意味する。領域eは、ピクセルであったり、またはピクセルで構成されたブロックであったりする。
さらに、図面符号903は、空間フィルタが適用された領域の深さ情報を意味する。すなわち、図面符号903は、空間的フィルタリングが実行された結果を示す。e’は、空間的フィルタリングが実行された深さ情報を意味する。
一例として、空間的フィルタリングが実行された深さ情報は、式(3)によって決定することができる。
e’=(A×a)+(B×b)+(C×c)+(D×d)+(E×e)+(F×f)+(G×g)+(H×h)+(I×i) (3)
式(3)を詳察すれば、空間的フィルタリングは、空間フィルタが適用される領域の周辺領域の深さ情報を用いて実行することができる。このようなフィルタリング過程を、マスク基盤のフィルタリングと言うことができる。本発明の一実施形態によれば、フィルタリングが実行される領域eの深さ情報に応じて空間フィルタのサイズまたは係数が決定される。
図10は、本発明の一実施形態によって深さ情報に応じて参照フレームの個数を決定して時間的フィルタリングを実行する一例を示す図である。図10を参考すれば、立体映像を構成する複数のフレームが示されている。このとき、複数のフレームは、時間的フィルタリングを実行するための参照フレームを意味する。また、図面符号1001は、フィルタリング対象フレームであると仮定する。ここで、フィルタリング対象フレーム1001は、領域1002、1003、1004で構成することができる。
フィルタリング対象フレーム1001で、領域1002の深さ情報は、映像収集装置102から遠距離に位置したオブジェクト101から取得したものであると仮定する。また、領域1003の深さ情報は、映像収集装置102から中間距離に位置したオブジェクト101から取得したものであり、領域1004の深さ情報は、映像収集装置102から近距離に位置したオブジェクト101から取得したものであると仮定する。
本発明の一実施形態に係る深さノイズフィルタリング装置103は、深さ情報を用いて領域に対する参照フレームの個数を計算することができる。一例として、深さノイズフィルタリング装置103は、領域に対する深さ情報が遠距離であるほど参照フレーム個数を増加させ、領域に対する深さ情報が近距離であるほど参照フレーム個数を減少させることができる。
図10を参照すれば、領域1004の場合、深さ情報が近距離であるため、参照フレームの個数1007が決定される。また、領域1003の場合、深さ情報が中間距離であるため、参照フレームの個数1006は参照フレームの個数1007よりも多いことが分かる。また、領域1002の場合、深さ情報が遠距離であるため、参照フレームの個数1005が決定されることができる。このとき、参照フレームの個数1005は、参照フレームの個数1006、1007よりも大きいことが分かる。
すなわち、深さノイズフィルタリング装置103は、フィルタリング対象フレーム1001において、深さ情報が近距離であるほど参照フレームの個数を減少させ、遠距離であるほど参照フレームの個数を増加させることができる。参考までに、領域1003に対して時間的フィルタリングを実行する場合、深さノイズフィルタリング装置103は、参照フレームの個数1006に対応する参照フレームで領域1003の深さ情報を平均して領域1003の深さ情報を更新することができる。
図11は、本発明の一実施形態によって空間的フィルタリングを実行するための深みノイズフィルタリング装置の全体構成を示すブロック図である。図11を参照すれば、深さノイズフィルタリング装置103は、空間フィルタ生成部1101と、フィルタリング実行部1102とを備えることができる。
空間フィルタ生成部1101は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を用いて領域に対する空間フィルタを生成することができる。一例として、空間フィルタ生成部1101は、深さ情報に応じて空間フィルタのサイズまたは係数のうちの少なくとも1つを計算することができる。また、空間フィルタ生成部1101は、空間フィルタのサイズおよび係数を同時に計算することもできる。図1で上述したように、領域は、フィルタリング対象フレームを構成するピクセルまたはブロックとすることができる。また、深さ情報は、映像収集装置とオブジェクトとの距離を意味する。
このとき、空間フィルタ生成部1101は、深さ情報、映像収集装置の測定最大距離、測定最小距離、および測定最大距離であるときの空間フィルタの最大サイズを用いて深さ情報による空間フィルタのサイズを決定することができる。
また、空間フィルタ生成部1101は、深さ情報が近距離であるほど空間フィルタのサイズを減少させ、深さ情報が遠距離であるほど空間フィルタのサイズを増加させることができる。また、空間フィルタ生成部1101は、空間フィルタの中心から周辺に行くほど係数が減少するように空間フィルタを生成することができる。一例として、空間フィルタ生成部1101は、深さ情報に応じて減少率を相違して決定することができる。例えば、空間フィルタ生成部1101は、深さ情報が近距離であるほど空間フィルタの係数に対する減少率を増加させ、深さ情報が遠距離であるほど空間フィルタの係数に対する減少率を減少させることができる。
すなわち、空間フィルタ生成部1101は、深さ情報に応じて演算過程を実行して空間フィルタをリアルタイムで生成することができる。また、一例として、空間フィルタ生成部1101は、深さ情報に応じて予め設定された空間フィルタのサイズまたは予め設定された空間フィルタの係数のうちの少なくとも1つの空間フィルタの情報が格納されたテーブルを参照して、深さ情報に対応する空間フィルタを生成することができる。言い替えれば、空間フィルタ生成部1101は、特定の深さ情報に対して空間フィルタの特徴を予め演算した後、入力された深さ情報に適合する空間フィルタを即時に生成することができる。
このとき、テーブルに空間フィルタを生成しようとする深さ情報D1が存在しない場合、空間フィルタ生成部1101は、テーブル上に存在する深さ情報を組み合わせて空間フィルタを生成することができる。より具体的に、空間フィルタ生成部1101は、空間フィルタを生成しようとする深さ情報D1を含む2つの深さ情報D2、D3に該当する空間フィルタを深さ情報に応じて加重値を適用して、空間フィルタを生成しようとする深さ情報D1による空間フィルタを生成することができる。
フィルタリング実行部1102は、領域の深さ情報に空間フィルタを適用して立体映像の深さノイズフィルタリングを実行することができる。このとき、深さノイズフィルタリングは、マスク基盤の空間フィルタを適用して領域の周辺領域の深さ情報に応じて実行されるようになる。
図12は、本発明の一実施形態によって時間的フィルタリングを実行するための深さノイズフィルタリング装置の全体構成を示すブロック図である。図12を参照すれば、深さノイズフィルタリング装置103は、フレーム個数計算部1201と、深さ情報決定部1202とを備えることができる。
フレーム個数計算部1201は、立体映像のフィルタリング対象フレームを構成する領域の深さ情報を用いて領域に対して参照フレームの個数を計算することができる。一例として、フレーム個数計算部1201は、深さ情報、映像収集装置の測定最小距離、測定最大距離、および測定最大距離であるときのフレームの個数を用いて深さ情報に基づいた参照フレームの個数を計算することができる。ここで、フレーム個数計算部1201は、領域に対して深さ情報が遠距離であるほど参照フレーム個数を増加させ、領域に対して深さ情報が近距離であるほど参照フレーム個数を減少させることができる。
深さ情報決定部1202は、個数に対応する参照フレームを用いてフィルタリング対象フレームで領域の深さ情報を決定することができる。一例として、深さ情報決定部1202は、参照フレームの領域に対する深さ情報を平均してフィルタリング対象フレームで領域の深さ情報を決定することができる。
図11および図12で説明しなかった部分は、図1〜図10の説明を参照することができる。
なお、本発明の一実施形態に係る深さノイズフィルタリング方法は、コンピュータにより実現される多様な動作を実行するためのプログラム命令を含むコンピュータ読取可能な記録媒体を含む。当該記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むこともでき、記録媒体およびプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知であり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれる。また、記録媒体は、プログラム命令、データ構造などを保存する信号を送信する搬送波を含む光または金属線、導波管などの送信媒体でもある。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。
上述したように、本発明の好ましい実施形態を参照して説明したが、該当の技術分野において熟練した当業者にとっては、特許請求の範囲に記載された本発明の思想および領域から逸脱しない範囲内で、本発明を多様に修正および変更させることができることを理解することができるであろう。すなわち、本発明の技術的範囲は、特許請求の範囲に基づいて定められ、発明を実施するための最良の形態により制限されるものではない。
101 オブジェクト
102 映像収集装置
103 深さノイズフィルタリング装置
104 3D映像

Claims (50)

  1. 立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、
    前記深さ情報を用いて前記領域に対する空間フィルタを生成するステップと、
    前記領域の深さ情報に前記空間フィルタを適用して前記立体映像の深さノイズフィルタリングを実行するステップと、
    を含むことを特徴とする深さノイズフィルタリング方法。
  2. 前記深さ情報は、
    前記領域に対する映像収集装置とオブジェクトとの距離であり、
    前記領域に対する前記空間フィルタを生成するステップは、
    前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの係数のうちの少なくとも1つを決定することを特徴とする請求項1に記載の深さノイズフィルタリング方法。
  3. 前記領域に対する前記空間フィルタを生成するステップは、
    前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちの少なくとも1つの情報を用いて前記深さ情報による前記空間フィルタのサイズを決定することを特徴とする請求項2に記載の深さノイズフィルタリング方法。
  4. 前記領域に対する前記空間フィルタを生成するステップは、
    前記深さ情報に応じて予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの係数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照して、前記深さ情報に対応する前記空間フィルタを生成することを特徴とする請求項2に記載の深さノイズフィルタリング方法。
  5. 前記領域に対する前記空間フィルタを生成するステップは、
    前記深さ情報が近距離であるほど前記空間フィルタのサイズを減少させることを特徴とする請求項2に記載の深さノイズフィルタリング方法。
  6. 前記領域に対する前記空間フィルタを生成するステップは、
    前記深さ情報が近距離であるほど前記空間フィルタの係数に対する減少率を増加させ、
    前記空間フィルタの係数は、
    前記空間フィルタの中心から周辺に行くほど減少することを特徴とする請求項2に記載の深さノイズフィルタリング方法。
  7. 前記領域は、
    前記フィルタリング対象フレームを構成するピクセルまたはブロックのうちのいずれか1つであることを特徴とする請求項1に記載の深さノイズフィルタリング方法。
  8. 立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、
    前記深さ情報を用いて前記領域に対して参照フレームの個数を計算するステップと、
    前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の深さ情報をアップデートするステップと、
    を含むことを特徴とする深さノイズフィルタリング方法。
  9. 前記深さ情報に空間フィルタを適用するステップ、
    をさらに含み、
    前記参照フレームの個数を計算するステップは、
    前記空間フィルタが適用された深さ情報を用いて参照フレームの個数を計算することを特徴とする請求項8に記載の深さノイズフィルタリング方法。
  10. 前記取得した深さ情報に時間的フィルタリングを実行するステップ、
    をさらに含む請求項8に記載の深さノイズフィルタリング方法。
  11. 前記アップデートした深さ情報に空間的フィルタリングを実行するステップ、
    をさらに含む請求項8に記載の深さノイズフィルタリング方法。
  12. 前記アップデートした深さ情報を用いて空間フィルタを生成するステップと、
    前記空間フィルタをアップデートした深さ情報に適用するステップと、
    をさらに含む請求項8に記載の深さノイズフィルタリング方法。
  13. 前記深さノイズフィルタリング方法は、
    深さ情報に空間的フィルタリングを実行し、この後に時間的フィルタリングを実行することを特徴とする請求項8に記載の深さノイズフィルタリング方法。
  14. 前記深さノイズフィルタリング方法は、
    深さ情報に時間的フィルタリングを実行し、この後に空間的フィルタリングを実行することを特徴とする請求項8に記載の深さノイズフィルタリング方法。
  15. 前記参照フレームそれぞれの領域に対するアップデートした深さ情報に加重値を適用するステップ、
    をさらに含み、
    前記加重値は、計算された参照フレームの個数に基づいて決定されることを特徴とする請求項8に記載の深さノイズフィルタリング方法。
  16. 前記深さ情報は、
    前記領域に対して映像収集装置とオブジェクトとの距離であり、
    前記参照フレームの個数を計算するステップは、
    前記深さ情報、前記映像収集装置の測定最小距離、測定最大距離、または前記測定最大距離であるときのフレームの個数のうちの少なくとも1つの情報を用いて前記深さ情報に基づいた参照フレームの個数を計算することを特徴とする請求項8に記載の深さノイズフィルタリング方法。
  17. 前記参照フレームの個数を計算するステップは、
    前記領域に対して深さ情報が近距離であるほど前記参照フレーム個数を減少させることを特徴とする請求項16に記載の深さノイズフィルタリング方法。
  18. 前記フィルタリング対象フレームで領域の深さ情報をアップデートするステップは、
    前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の深さ情報をアップデートすることを特徴とする請求項8に記載の深さノイズフィルタリング方法。
  19. 立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、
    前記深さ情報に応じて前記領域に対する空間フィルタを生成して前記領域の深さ情報に適用するステップと、
    前記空間フィルタが適用されたフィルタリング対象フレームを構成する領域の深さ情報を用いて前記領域に対して参照フレームの個数を計算するステップと、
    前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の深さ情報をアップデートするステップと、
    を含むことを特徴とする深さノイズフィルタリング方法。
  20. 前記深さ情報は、
    前記領域に対して映像収集装置とオブジェクトとの距離であり、
    前記領域に対する前記空間フィルタを生成して前記領域の深さ情報に適用するステップは、
    前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは係数のうちの少なくとも1つを決定することを特徴とする請求項19に記載の深さノイズフィルタリング方法。
  21. 前記領域に対する前記空間フィルタを生成するステップは、
    前記深さ情報に応じて予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの係数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照して、前記深さ情報に対応する前記空間フィルタを生成することを特徴とする請求項20に記載の深さノイズフィルタリング方法。
  22. 前記領域に対する前記空間フィルタを生成して前記領域の深さ情報に適用するステップは、
    前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちの少なくとも1つの情報を用いて前記深さ情報による前記空間フィルタのサイズを決定することを特徴とする請求項20に記載の深さノイズフィルタリング方法。
  23. 前記深さ情報は、
    前記領域に対して映像収集装置とオブジェクトとの距離であり、
    前記領域に対して参照フレームの個数を計算するステップは、
    前記深さ情報、前記映像収集装置の測定最小距離、測定最大距離、または前記測定最大距離であるときのフレームの個数のうちの少なくとも1つの情報を用いて前記深さ情報によるフレームの個数を計算することを特徴とする請求項19に記載の深さノイズフィルタリング方法。
  24. 前記フィルタリング対象フレームで前記領域の深さ情報を決定するステップは、
    前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の深さ情報を決定することを特徴とする請求項19に記載の深さノイズフィルタリング方法。
  25. 立体映像のフィルタリング対象フレームを構成する領域の深さ情報を用いて前記領域に対して参照フレームの個数を計算するステップと、
    前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の深さ情報をアップデートするステップと、
    前記領域に対する空間フィルタを前記領域の深さ情報に適用するために前記アップデートした深さ情報を用いて前記領域に対する空間フィルタを生成するステップと、
    を含むことを特徴とする深さノイズフィルタリング方法。
  26. 前記深さ情報は、
    前記領域に対して映像収集装置とオブジェクトとの距離であり、
    前記参照フレームの個数を計算するステップは、
    前記深さ情報、前記映像収集装置の測定最小距離、測定最大距離、または前記測定最大距離であるときのフレームの個数のうちの少なくとも1つの情報を用いて前記深さ情報に基づいた参照フレームの個数を計算することを特徴とする請求項25に記載の深さノイズフィルタリング方法。
  27. 前記フィルタリング対象フレームで領域の深さ情報をアップデートするステップは、
    前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の深さ情報をアップデートすることを特徴とする請求項25に記載の深さノイズフィルタリング方法。
  28. 前記深さ情報は、
    前記領域に対して映像収集装置とオブジェクトとの距離であり、
    前記領域に対する空間フィルタを生成するステップは、
    前記アップデートした深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの係数のうちの少なくとも1つを決定することを特徴とする請求項25に記載の深さノイズフィルタリング方法。
  29. 前記領域に対する空間フィルタを生成するステップは、
    前記アップデートした深さ情報に応じて予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの係数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照して、前記アップデートした深さ情報に対応する前記空間フィルタを生成することを特徴とする請求項28に記載の深さノイズフィルタリング方法。
  30. 前記領域に対する空間フィルタを生成するステップは、
    前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちの少なくとも1つの情報を用いて前記アップデートした深さ情報による前記空間フィルタのサイズを決定することを特徴とする請求項28に記載の深さノイズフィルタリング方法。
  31. 立体映像のフィルタリング対象フレームを構成する領域の深さ情報を取得するステップと、
    前記深さ情報を用いて前記領域に対する空間フィルタの特徴を決定するステップと、
    前記空間フィルタの特徴に基づいて前記領域に適用する前記空間フィルタを生成するステップと、
    を含むことを特徴とする空間フィルタ生成方法。
  32. 前記深さ情報は、
    前記領域に対して映像収集装置とオブジェクトとの距離であり、
    前記領域に対する空間フィルタの特徴を決定するステップは、
    前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの係数のうちの少なくとも1つを決定することを特徴とする請求項31に記載の空間フィルタ生成方法。
  33. 前記領域に適用する前記空間フィルタを生成するステップは、
    前記深さ情報に応じて予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの係数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照して、前記深さ情報に対応する前記空間フィルタを生成することを特徴とする請求項32に記載の空間フィルタ生成方法。
  34. 前記領域に対する前記空間フィルタの特徴を決定するステップは、
    前記深さ情報、前記映像収集装置の測定最大距離、測定最小距離、または前記測定最大距離であるときの前記空間フィルタの最大サイズのうちの少なくとも1つの情報を用いて前記深さ情報による前記空間フィルタのサイズを決定することを特徴とする請求項32に記載の空間フィルタ生成方法。
  35. 前記領域に対する前記空間フィルタの特徴を決定するステップは、
    前記アップデートする深さ情報が近距離であるほど前記空間フィルタのサイズを減少させることを特徴とする請求項32に記載の空間フィルタ生成方法。
  36. 前記領域に対する前記空間フィルタの特徴を決定するステップは、
    前記アップデートする深さ情報が近距離であるほど前記空間フィルタの係数に対する減少率を増加させ、
    前記空間フィルタの係数は、
    前記空間フィルタの中心から周辺に行くほど減少することを特徴とする請求項32に記載の空間フィルタ生成方法。
  37. 請求項1〜29のうちのいずれか一項の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  38. 立体映像のフィルタリング対象フレームを構成する領域の深さ情報を用いて前記領域に対する空間フィルタを生成する空間フィルタ生成部と、
    前記領域の深さ情報に前記空間フィルタを適用して前記立体映像の深さノイズフィルタリングを実行するフィルタリング実行部と、
    を備えることを特徴とする深さノイズフィルタリング装置。
  39. 前記深さ情報は、
    前記領域に対して映像収集装置とオブジェクトとの距離であり、
    前記空間フィルタ生成部は、
    前記深さ情報を用いて前記領域に適用する前記空間フィルタのサイズまたは前記空間フィルタの係数のうちの少なくとも1つを決定することを特徴とする請求項38に記載の深さノイズフィルタリング装置。
  40. 前記空間フィルタ生成部は、
    前記深さ情報によって予め設定された前記空間フィルタのサイズまたは予め設定された前記空間フィルタの係数のうちの少なくとも1つの前記空間フィルタの情報が格納されたテーブルを参照して、前記深さ情報に対応する前記空間フィルタを生成することを特徴とする請求項39に記載の深さノイズフィルタリング装置。
  41. 立体映像のフィルタリング対象フレームを構成する領域の第1深さ情報を用いて前記領域に対して参照フレームの個数を計算するフレーム個数計算部と、
    前記個数に対応する参照フレームを用いて前記フィルタリング対象フレームで前記領域の第2深さ情報を決定する深さ情報決定部と、
    を備えることを特徴とする深さノイズフィルタリング装置。
  42. 前記深さ情報決定部は、
    前記参照フレームの領域に対する深さ情報を平均して前記フィルタリング対象フレームで前記領域の第2深さ情報を決定することを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  43. 前記深さノイズフィルタリング装置は、
    前記第2深さ情報を用いて時間的フィルタリングを実行することを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  44. 前記深さノイズフィルタリング装置は、
    前記第2深さ情報を用いて空間的フィルタリングを実行することを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  45. 前記深さ情報決定部は、
    前記第2深さ情報によって空間フィルタを生成して第3深さ情報を決定し、前記第2深さ情報に前記空間フィルタを適用することを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  46. 前記深さノイズフィルタリング装置は、
    空間的フィルタリングを実行し、この後に時間的フィルタリングを実行することを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  47. 前記深さノイズフィルタリング装置は、
    時間的フィルタリングを実行し、この後に空間的フィルタリングを実行することを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  48. 前記深さ情報決定部は、
    前記参照フレームそれぞれに対して領域の深さ情報に加重値を適用し、
    前記加重値は、
    前記計算された参照フレームの個数に基づいて決定されることを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  49. 前記深さノイズフィルタリング装置は、
    前記第1深さ情報を生成するために深さ情報に空間フィルタを適用することを特徴とする請求項41に記載の深さノイズフィルタリング装置。
  50. 前記深さノイズフィルタリング装置は、
    前記第1深さ情報および前記第2深さ情報とは異なる深さ情報を用いて空間フィルタを生成することを特徴とする請求項49に記載の深さノイズフィルタリング装置。
JP2009281523A 2009-01-21 2009-12-11 深さ情報を用いた深さノイズフィルタリング方法および装置 Active JP5519258B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090005090A KR101526866B1 (ko) 2009-01-21 2009-01-21 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
KR10-2009-0005090 2009-01-21

Publications (2)

Publication Number Publication Date
JP2010171949A true JP2010171949A (ja) 2010-08-05
JP5519258B2 JP5519258B2 (ja) 2014-06-11

Family

ID=42115482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009281523A Active JP5519258B2 (ja) 2009-01-21 2009-12-11 深さ情報を用いた深さノイズフィルタリング方法および装置

Country Status (5)

Country Link
US (2) US8744167B2 (ja)
EP (2) EP2541496B1 (ja)
JP (1) JP5519258B2 (ja)
KR (1) KR101526866B1 (ja)
CN (1) CN101783024B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012156961A (ja) * 2011-01-28 2012-08-16 Hitachi Solutions Ltd 立体画像処理システム、立体画像処理装置および立体画像処理方法
JP2015530777A (ja) * 2012-07-20 2015-10-15 コーニンクレッカ フィリップス エヌ ヴェ 奥行きフィルタリング用のメタデータ
CN107004256A (zh) * 2014-11-20 2017-08-01 原子能和能源替代品委员会 用于噪声深度或视差图像的实时自适应滤波的方法和装置

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101526866B1 (ko) * 2009-01-21 2015-06-10 삼성전자주식회사 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
US8316590B2 (en) 2009-03-20 2012-11-27 Northern States Metals Company Support system for solar panels
US8240109B2 (en) 2009-03-20 2012-08-14 Northern States Metals Company Support system for solar panels
US8256169B2 (en) 2009-03-20 2012-09-04 Northern States Metals Company Support system for solar panels
WO2011142734A1 (en) * 2010-05-11 2011-11-17 Thomson Licensing Comfort noise and film grain processing for 3 dimensional video
KR101209733B1 (ko) 2010-09-01 2012-12-07 현대자동차주식회사 가변 밸브 리프트 장치
KR101669819B1 (ko) * 2010-11-11 2016-10-27 삼성전자주식회사 깊이 영상의 고정밀 복원을 위한 필터링 장치 및 방법
KR20120057216A (ko) * 2010-11-26 2012-06-05 삼성전자주식회사 깊이 센서, 상기 깊이 센서의 노이즈 감소 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템
US8842931B2 (en) * 2011-02-18 2014-09-23 Nvidia Corporation System, method, and computer program product for reducing noise in an image using depth-based sweeping over image samples
US8824821B2 (en) * 2011-03-28 2014-09-02 Sony Corporation Method and apparatus for performing user inspired visual effects rendering on an image
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
KR101863626B1 (ko) 2011-11-02 2018-07-06 삼성전자주식회사 영상 처리 장치 및 방법
JP6024110B2 (ja) * 2012-01-26 2016-11-09 ソニー株式会社 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
US9031356B2 (en) 2012-03-20 2015-05-12 Dolby Laboratories Licensing Corporation Applying perceptually correct 3D film noise
US9535009B2 (en) * 2012-05-16 2017-01-03 Hitachi High-Technologies Corporation Inspection system
JP2014048714A (ja) * 2012-08-29 2014-03-17 Canon Inc 画像処理装置及び画像処理方法
KR101926498B1 (ko) * 2012-09-03 2019-03-12 엘지이노텍 주식회사 스테레오 영상 정합 장치 및 이의 정합 방법
CN103679641B (zh) * 2012-09-26 2016-12-21 株式会社理光 深度图像增强方法和装置
US9589326B2 (en) 2012-11-29 2017-03-07 Korea Institute Of Science And Technology Depth image processing apparatus and method based on camera pose conversion
KR101362183B1 (ko) 2012-11-29 2014-02-13 한국과학기술연구원 카메라 자세 기반의 깊이 영상 노이즈 제거 장치 및 방법
KR101941907B1 (ko) * 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
KR20140096532A (ko) * 2013-01-28 2014-08-06 한국전자통신연구원 디지털 홀로그램 생성 장치 및 그 방법
CN103974055B (zh) * 2013-02-06 2016-06-08 城市图像科技有限公司 3d照片生成系统及方法
KR101988384B1 (ko) * 2013-03-08 2019-06-12 삼성전자주식회사 이미지 매칭 장치, 이미지 매칭 시스템 및 이미지 매칭 방법
US9303663B2 (en) 2013-04-11 2016-04-05 Northern States Metals Company Locking rail alignment system
US9329272B2 (en) * 2013-05-02 2016-05-03 Infineon Technologies Ag 3D camera and method of image processing 3D images
US20140363097A1 (en) * 2013-06-06 2014-12-11 Etron Technology, Inc. Image capture system and operation method thereof
CN104574342B (zh) * 2013-10-14 2017-06-23 株式会社理光 视差深度图像的噪声识别方法和噪声识别装置
PL412832A1 (pl) * 2015-06-24 2017-01-02 Politechnika Poznańska Sposób renderowania w oparciu o obraz głębi i system do renderowania w oparciu o obraz głębi
US9940701B2 (en) * 2015-09-25 2018-04-10 Intel Corporation Device and method for depth image dequantization
US9726830B1 (en) 2016-06-28 2017-08-08 Senko Advanced Components, Inc. Connector and adapter system for two-fiber mechanical transfer type ferrule
CN106355611B (zh) * 2016-09-13 2019-03-22 江苏奥斯汀光电科技股份有限公司 一种基于时空间关联的裸眼3d超解像滤波方法
CN106485678A (zh) * 2016-10-11 2017-03-08 东南大学 一种基于时空滤波的景深时空一致性及精度增强的方法
KR101892741B1 (ko) 2016-11-09 2018-10-05 한국전자통신연구원 희소 깊이 지도의 노이즈를 제거하는 장치 및 방법
US10444444B2 (en) 2017-01-30 2019-10-15 Senko Advanced Components, Inc. Remote release tab connector assembly
KR102320198B1 (ko) * 2017-04-05 2021-11-02 삼성전자주식회사 깊이 영상 보정 방법 및 장치
CN109242782B (zh) * 2017-07-11 2022-09-09 深圳市道通智能航空技术股份有限公司 噪点处理方法及装置
US11822133B2 (en) 2017-07-14 2023-11-21 Senko Advanced Components, Inc. Ultra-small form factor optical connector and adapter
US10718911B2 (en) 2017-08-24 2020-07-21 Senko Advanced Components, Inc. Ultra-small form factor optical connectors using a push-pull boot receptacle release
US12001064B2 (en) 2017-07-14 2024-06-04 Senko Advanced Components, Inc. Small form factor fiber optic connector with multi-purpose boot
US10281668B2 (en) 2017-07-14 2019-05-07 Senko Advanced Components, Inc. Ultra-small form factor optical connectors
US11002923B2 (en) 2017-11-21 2021-05-11 Senko Advanced Components, Inc. Fiber optic connector with cable boot release having a two-piece clip assembly
CN111512202B (zh) * 2017-12-19 2022-11-18 美国康涅克有限公司 具有推拉极性机构和载体的微型双工连接器
US11112566B2 (en) 2018-03-19 2021-09-07 Senko Advanced Components, Inc. Removal tool for removing a plural of micro optical connectors from an adapter interface
WO2019191522A1 (en) 2018-03-28 2019-10-03 Senko Advanced Components Inc Small form factor fiber optic connector with multi-purpose boot
CN112088327A (zh) 2018-07-15 2020-12-15 扇港元器件股份有限公司 超小型光学连接器和适配器
KR102545980B1 (ko) 2018-07-19 2023-06-21 액티브 서지컬, 인크. 자동화된 수술 로봇을 위한 비전 시스템에서 깊이의 다중 모달 감지를 위한 시스템 및 방법
US11073664B2 (en) 2018-08-13 2021-07-27 Senko Advanced Components, Inc. Cable boot assembly for releasing fiber optic connector from a receptacle
US10921531B2 (en) 2018-09-12 2021-02-16 Senko Advanced Components, Inc. LC type connector with push/pull assembly for releasing connector from a receptacle using a cable boot
US10921530B2 (en) 2018-09-12 2021-02-16 Senko Advanced Components, Inc. LC type connector with push/pull assembly for releasing connector from a receptacle using a cable boot
CN112955797B (zh) 2018-09-12 2022-11-11 扇港元器件股份有限公司 具有用于利用缆线护套将连接器从插座释放的夹式推/拉舌片的lc型连接器
US11806831B2 (en) 2018-11-21 2023-11-07 Senko Advanced Components, Inc. Fixture and method for polishing fiber optic connector ferrules
US11175464B2 (en) 2018-11-25 2021-11-16 Senko Advanced Components, Inc. Open ended spring body for use in an optical fiber connector
CA3125288A1 (en) * 2018-12-28 2020-07-02 Activ Surgical, Inc. Generation of synthetic three-dimensional imaging from partial depth maps
CN113631976B (zh) 2019-03-28 2023-06-09 扇港元器件有限公司 光纤适配器组件
US11340406B2 (en) 2019-04-19 2022-05-24 Senko Advanced Components, Inc. Small form factor fiber optic connector with resilient latching mechanism for securing within a hook-less receptacle
WO2020252355A1 (en) 2019-06-13 2020-12-17 Senko Advanced Components, Inc Lever actuated latch arm for releasing a fiber optic connector from a receptacle port and method of use
KR20200143818A (ko) 2019-06-17 2020-12-28 한국전자통신연구원 희소 깊이 지도에서 깊이 노이즈를 제거하는 장치 및 방법
CN114600018B (zh) 2019-07-23 2024-04-09 扇港元器件有限公司 用于接收与插芯组件相对的光纤连接器的超小型插座
KR20220085481A (ko) 2020-12-15 2022-06-22 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
KR102665543B1 (ko) 2021-02-22 2024-05-16 한국전자통신연구원 다시점 영상으로부터의 깊이지도 생성 장치 및 방법
KR102593168B1 (ko) * 2021-11-25 2023-10-24 광운대학교 산학협력단 카메라에 의해 생성된 그래픽스 데이터의 품질 개선 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070024614A1 (en) * 2005-07-26 2007-02-01 Tam Wa J Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0818852A (ja) 1994-07-01 1996-01-19 Sony Corp ビデオカメラのノイズ除去装置
GB9422089D0 (en) * 1994-11-02 1994-12-21 Philips Electronics Uk Ltd Blurring for computer graphics
JP2003517797A (ja) * 1999-12-14 2003-05-27 サイエンティフィック−アトランタ, インコーポレイテッド 調和されたリソースの割当てを有するビデオ信号を適応的に復号化するシステムおよび方法
JP2001189944A (ja) 1999-12-28 2001-07-10 Sony Corp 撮像装置
JP2001189878A (ja) 1999-12-28 2001-07-10 Sony Corp 撮像装置
US6975329B2 (en) * 2002-12-09 2005-12-13 Nvidia Corporation Depth-of-field effects using texture lookup
CN100339869C (zh) * 2002-12-20 2007-09-26 Lm爱立信电话有限公司 使用最小深度遮挡剔除和z字形遍历的图形处理设备及方法
JP4617726B2 (ja) * 2004-06-07 2011-01-26 ソニー株式会社 画像処理システム、画像処理装置および画像処理方法、並びにプログラム
JP2007004318A (ja) * 2005-06-22 2007-01-11 Sega Corp 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体
US7546026B2 (en) 2005-10-25 2009-06-09 Zoran Corporation Camera exposure optimization techniques that take camera and scene motion into account
EP1958459B1 (en) * 2005-12-02 2018-06-13 Koninklijke Philips N.V. Depth dependent filtering of image signal
JP2007264503A (ja) 2006-03-29 2007-10-11 Toshiba Corp 音声合成装置及びその方法
US8090210B2 (en) * 2006-03-30 2012-01-03 Samsung Electronics Co., Ltd. Recursive 3D super precision method for smoothly changing area
KR20090052889A (ko) * 2006-09-04 2009-05-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지들로부터 깊이 맵을 결정하기 위한 방법 및 깊이 맵을 결정하기 위한 디바이스
KR100806201B1 (ko) 2006-10-30 2008-02-22 광주과학기술원 깊이영상의 계층적 분해를 이용한 삼차원 비디오 생성방법, 이를 위한 장치, 및 그 시스템과 기록 매체
US8340422B2 (en) * 2006-11-21 2012-12-25 Koninklijke Philips Electronics N.V. Generation of depth map for an image
US8488868B2 (en) * 2007-04-03 2013-07-16 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
US7889949B2 (en) * 2007-04-30 2011-02-15 Microsoft Corporation Joint bilateral upsampling
US8248410B2 (en) * 2008-12-09 2012-08-21 Seiko Epson Corporation Synthesizing detailed depth maps from images
KR101526866B1 (ko) * 2009-01-21 2015-06-10 삼성전자주식회사 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
US8885890B2 (en) * 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8406548B2 (en) * 2011-02-28 2013-03-26 Sony Corporation Method and apparatus for performing a blur rendering process on an image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070024614A1 (en) * 2005-07-26 2007-02-01 Tam Wa J Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012156961A (ja) * 2011-01-28 2012-08-16 Hitachi Solutions Ltd 立体画像処理システム、立体画像処理装置および立体画像処理方法
JP2015530777A (ja) * 2012-07-20 2015-10-15 コーニンクレッカ フィリップス エヌ ヴェ 奥行きフィルタリング用のメタデータ
CN107004256A (zh) * 2014-11-20 2017-08-01 原子能和能源替代品委员会 用于噪声深度或视差图像的实时自适应滤波的方法和装置
JP2017535884A (ja) * 2014-11-20 2017-11-30 コミサリヤ・ア・レネルジ・アトミク・エ・オ・エネルジ・アルテルナテイブ ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置
CN107004256B (zh) * 2014-11-20 2020-10-27 原子能和能源替代品委员会 用于噪声深度或视差图像的实时自适应滤波的方法和装置

Also Published As

Publication number Publication date
JP5519258B2 (ja) 2014-06-11
EP2541496A2 (en) 2013-01-02
US20100183236A1 (en) 2010-07-22
EP2541496A3 (en) 2013-02-27
EP2211555A3 (en) 2012-08-22
KR20100085675A (ko) 2010-07-29
EP2211555B1 (en) 2019-12-11
KR101526866B1 (ko) 2015-06-10
EP2541496B1 (en) 2015-08-12
EP2211555A2 (en) 2010-07-28
CN101783024A (zh) 2010-07-21
US20140241644A1 (en) 2014-08-28
CN101783024B (zh) 2015-01-07
US9471963B2 (en) 2016-10-18
US8744167B2 (en) 2014-06-03

Similar Documents

Publication Publication Date Title
JP5519258B2 (ja) 深さ情報を用いた深さノイズフィルタリング方法および装置
EP2261853B1 (en) Image processing apparatus, medium, and method
KR101248808B1 (ko) 경계 영역의 잡음 제거 장치 및 방법
TWI441095B (zh) 距離估算方法及其距離估算裝置,及其機器可讀取媒體
US8983221B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP2811457B1 (en) Image processing method and apparatus
JP2012253713A (ja) 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるプログラム
JP6598660B2 (ja) 画像処理装置および画像処理方法
JP6254938B2 (ja) 画像ノイズ除去装置、および画像ノイズ除去方法
KR20140118031A (ko) 영상 처리 장치 및 방법
JP2017535884A (ja) ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置
JP4958806B2 (ja) ぶれ検出装置、ぶれ補正装置及び撮像装置
JP2013127759A (ja) 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
US20180082432A1 (en) Information processing apparatus, information processing method, and program
JP2015088832A5 (ja)
JP6341087B2 (ja) 画像処理装置及び画像処理プログラム
JP2013201724A (ja) 画像処理装置及び画像処理方法
JP6584083B2 (ja) 画像処理装置および画像処理プログラム
JP2007179211A (ja) 画像処理装置、画像処理方法、およびそのプログラム
JP5349671B1 (ja) 画像処理装置、画像表示装置および方法
JP5420049B1 (ja) 拡大率推定装置またはその方法
JP2019016222A (ja) 画像処理装置およびその制御方法
Wang et al. Depth estimation from a single defocused image using multi-scale kernels
JP5870260B2 (ja) 画像処理装置、方法、コンピュータプログラムおよびチップ回路
KR20130008434A (ko) Ir 인텐시티를 이용한 잡음 예측 기반 영상 필터링 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140403

R150 Certificate of patent or registration of utility model

Ref document number: 5519258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250