JP2010286488A - 映像処理装置および方法 - Google Patents

映像処理装置および方法 Download PDF

Info

Publication number
JP2010286488A
JP2010286488A JP2010132165A JP2010132165A JP2010286488A JP 2010286488 A JP2010286488 A JP 2010286488A JP 2010132165 A JP2010132165 A JP 2010132165A JP 2010132165 A JP2010132165 A JP 2010132165A JP 2010286488 A JP2010286488 A JP 2010286488A
Authority
JP
Japan
Prior art keywords
value
pixel
frame depth
depth value
weighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010132165A
Other languages
English (en)
Other versions
JP5679702B2 (ja
Inventor
Hwa Sup Lim
和 燮 林
Byong-Min Kang
柄 敏 姜
Seong-Jin Kim
成 珍 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010286488A publication Critical patent/JP2010286488A/ja
Application granted granted Critical
Publication of JP5679702B2 publication Critical patent/JP5679702B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】 映像処理装置が提供される。
【解決手段】 映像処理装置は、深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の取得の時間差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出する第1算出部と、前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定する第2算出部と、を含んでもよい。
【選択図】 図1

Description

本発明における一部の実施形態は、深さ映像獲得のための深さカメラのノイズを除去してノイズが減少する深さ映像を提供する映像処理装置および方法に関する。
最近、3D(3−Dimensional)情報に対する関心が高まっている。3D情報は、形状情報とカラー情報で構成される。カラー情報は、CCD(Charged Coupled Device)またはCMOS(Complementary Metal−Oxide−Semiconductor)センサを採用するカメラによって取得され、形状情報は深さカメラ(depth camera)によって取得される。
深さカメラは、赤外線(Infra Red、IR)のような光を被写体に照射し、反射器をセンサで検出して光照射と反射光の受光との間の飛行時間(Time of Flight、TOF)を測定することによって深さ映像を生成することができる。
ところで、一般的に前記TOFタイプの深さカメラに採用される深さセンサは、センサ自体の電気的および/または熱的ノイズの影響だけでなく、周辺の光源および物体の材質特性などの影響を受けることから、深さカメラによって生成される深さ映像の深さ値もノイズの影響を受けることになる。また、このようなノイズは3Dモデリングの品質を低下する要因として作用する。
かかるノイズの除去は様々な方法によって試みられるが、既存の方法によれば、同じ被写体に対して複数回測定することによって取得される深さ映像を平均することによってノイズを除去する方法が提案された。
上記の方法は、被写体が静的であるときは優れた特性を見せるものの、被写体が動的であるときは、むしろ歪み(例えば、モーションブラー(motion blurring))を発生させる場合もある。
本発明の一実施形態は、動的な被写体に対する深さ映像を生成する場合、ノイズを効率的に除去する映像処理装置および方法を提供することにある。
また、本発明の一実施形態は、深さ映像に対するノイズ除去において、モーションブラー等の歪みを最小化する映像処理装置および方法を提供することにある。
本発明の一実施形態によれば、深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の取得の時間差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出する第1算出部と、前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定する第2算出部と、を含む映像処理装置が提供される。
この場合、前記第1算出部は、前記取得の時間差が大きいほど前記第1重み付け値と前記第2重み付け値との差を大きく決めてもよい。例えば、前記第1算出部は、前記取得の時間差が大きいほど前記第1重み付け値に対する前記第2重み付け値の比率が小さくなるよう決めてもよい。
本発明の一実施形態によれば、前記第1算出部は、前記取得の時間差が大きいほど前記第1重み付け値に対する前記第2重み付け値の比率がガウス曲線分布に応じて小さくなるよう決定される決定される。
一方、本発明の一実施形態によれば、前記映像処理装置は、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1算出部によって算出された前記第1フレーム深さ値に対する第1重み付け値、および前記第2フレーム深さ値に対する第2重み付け値を再調整する第3算出部をさらに含む。
この場合、前記第2算出部は、前記第1ピクセルの第1フレーム深さ値に前記第3算出部によって再調整された前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第3算出部によって再調整された前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決めてもよい。
一方、前記第3算出部は、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率は小さくなるよう再調整してもよい。
例えば、前記第3算出部は、第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなるよう再調整してもよい。
本発明の他の実施形態によれば、深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出する第1算出部と、前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定する第2算出部と、を含む映像処理装置が提供される。
この場合、前記第1算出部は、第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率は小さくなるよう決めてもよい。
例えば、前記第1算出部は、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなるよう決めてもよい。
本発明のまた他の実施形態によれば、深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の取得の時間差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出するステップと、前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定するステップと、を含む映像処理方法が提供される。
ここで、前記取得の時間差が大きくなるほど前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなってもよい。
一方、本発明の一部実施形態において、前記映像処理方法は、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を再調整するステップをさらに含んでもよい。
この場合、前記第1ピクセルの補正された第1フレーム深さ値を決定するステップにおいては、前記第1ピクセルの第1フレーム深さ値に前記再調整された第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記再調整された第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決めてもよい。
本発明の更なる実施形態によれば、深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出するステップと、前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定するステップと、を含む映像処理方法が提供される。
本発明の一実施形態によれば、動的な被写体に対する深さ映像を生成する場合、ノイズを効率的に除去した深さ映像を提供することができる。
また、本発明の一実施形態によれば、深さ映像に対するノイズ除去において、モーションブラーなどの歪みを最小化することができる。
本発明の一実施形態に係る映像処理装置を示す。 本発明の一実施形態に係る映像処理装置に入力される複数フレームの深さ映像を示す。 本発明の一実施形態に係る映像処理装置に入力される、図2内の特定ピクセルの深さ値の測定値を時間の流れに応じて表すグラフである。 図3のグラフに対応する深さ値を従来の時間平均フィルタによって処理した結果を表すグラフである。 本発明の一実施形態に係る、フレーム間深さ値の取得の時間差に対する時間重み付け値の変化を表すグラフである。 本発明の一実施形態に係る、フレーム間深さ値の差に対する重み付け範囲の変化を表すグラフである。 本発明の一実施形態により、図3のグラフに対応する深さ値を処理した結果を表すグラフである。 本発明の一実施形態に係る映像処理方法を示す。
以下、本発明の一実施形態を添付の図面を参照して詳細に説明する。しかし、本発明が実施形態によって制限されたり、または限定されることはない。各図面に提示された同じ参照符号は同じ部材を示す。
図1は、本発明の一実施形態に係る映像処理装置100を示す。
映像処理装置100は、深さカメラ101から提供される複数フレームの深さ映像(または特定のピクセルに対する複数フレームの深さ値)が提供され、バッファメモリ110内に格納する。
本発明の一実施形態によれば、映像処理装置100は、時間重み付け値(temporal weight)を算出する時間重み付け値算出部121を含む。
時間重み付け値算出部121は、第1ピクセルの第1フレーム深さ値を補正するために第1ピクセルの少なくとも1つの第2フレーム深さ値のそれぞれに適用される時間重み付け値を算出する。時間重み付け値は、フレーム間取得の時間差によって適用される重み付け値である。
第1ピクセルに対する第1フレーム深さ値をd(i、j、t)として、第2フレーム深さ値をd(i、j、t−k)とすれば、(但し、kは実数であって、フレーム間取得の時間差)時間重み付け値算出部121は、kが大きいほど第2フレームに適用される重み付け値を小さい値に決定する。
本発明の一実施形態によれば、kの増加によって時間重み付け値は指数的に減少することもある。特に、この場合、ガウス(gaussian)曲線に応じて減少することもある。時間重み付け値算出部121の詳細な動作は図5を参照して詳細に後述する。
重み付け範囲算出部122は、第1ピクセルの第1フレーム深さ値を補正するために第1ピクセルの少なくとも1つの第2フレーム深さ値のそれぞれに適用される重み付け範囲(range weight)を算出する。重み付け範囲は、深さ値の差に応じて適用する重み付け値である。
本発明の一実施形態によれば、d(i、j、t)とd(i、j、t−k)との差が大きくなることによって、距離重み付けの比率は指数的に減少することがある。また、ガウス曲線に応じて減少することもある。この場合、重み付け範囲算出部122が重み付け範囲を算出するという詳細な過程は、図6を参照して詳細に後述する。
また、補正された深さ値算出部123は、算出された重み付け値および/または重み付け範囲を適用し、第1ピクセルの第1フレーム深さ値と少なくとも1つ以上の第2フレーム深さ値の線形和(linear sum)であって、第1ピクセルの補正された第1フレーム深さ値を算出する。
補正された深さ値算出部123の動作は、図6〜図7を参照してより詳細に後述する。
図2は、本発明の一実施形態に係る映像処理装置に入力される複数フレームの深さ映像を示す。
深さ映像210は、時間t=20において、カラー映像201に対応するオブジェクト空間から取得されるものである。また、深さ映像220は、時間t=30において、カラー映像202に対応するオブジェクト空間から取得されるものであり、深さ映像230は、時間t=40においてカラー映像203に対応するオブジェクト空間から取得されるものである。
すなわち、深さ映像210〜深さ映像230は、互いに同じオブジェクト空間に対して時間を別にして獲得された複数の深さ映像フレームである。
深さ映像210の領域211、深さ映像220の領域221、および深さ映像230の領域231を比較して観察すれば、深さ映像内のピクセルが前述のようにノイズの影響を受けたことを確認することができる。
本発明の一実施形態によれば、複数フレームの深さ映像210〜230のうち、いずれか1つのフレームの深さ映像(例えば、深さ映像230)の特定ピクセルが選択される。
例えば、t=40である場合に取得される深さ映像230内において、「X」表示で識別される第1ピクセル232が選択されたと仮定する。この場合、第1ピクセル232は、t=20である場合に取得される深さ映像210内の「X」表示で識別されるピクセル212に対応する。また、第1ピクセル232は、t=30である場合に取得される深さ映像220内の「X」表示で識別されるピクセル222にも対応する。
時間の流れに応じて測定された第1ピクセル232の深さ値の例示的のグラフが図3に示される。
図3は、本発明の一実施形態に係る映像処理装置に入力される図2の第1ピクセル232の深さ値の例示的な測定値を時間の流れに応じて表すグラフである。
横軸は深さ値測定時間に対応し、縦軸は測定された深さ値である。深さ値のパターンを観察すればノイズの影響を確認することができる。
ところで、測定時間tが略25である部分において、深さ値が大きく増加したことが観察される。すなわち、t<25である部分と、t>25である部分は深さ値が大きく異なる。これは被写体の動きによるものと判断される。
再び、図2を参照すれば、t=20におけるピクセル212の深さ値は、被写体である人の手に該当する深さ値であるが、手が動いてt=30におけるピクセル222またはt=40におけるピクセル232は、バックグラウンド部分に該当する深さ値である。したがって、図3のグラフにおいて、tが概略25である部分において深さ値が大きく増加したのである。
上記のように、従来には深さ映像のノイズを除去するために複数フレームの深さ映像の深さ値を単に平均した値を補正された(ノイズが除去された、以下同一)深さ映像値に提供した。
例えば、現在の深さ値がd(i、j、t)であると仮定する。ここで、iとjは、深さ映像内で特定ピクセルを識別させる行と列の値であり、tは現在の時間である。
上記のように、従来の時間平均フィルタ(temporal average filtering)方法は、現在フレーム以外の複数フレームのうち、例えば2つのフレームの深さ値を反映して現在フレームの深さ値を補正する方法である。
この場合、前のフレームの深さ値を、深さ値d(i、j、t−k1)と深さ値d(i、j、t−k2)のように表す場合(k1およびk2は測定時間差)、時間平均フィルタ方法は、現在フレームの深さ値d(i、j、t)、前のフレームの深さ値d(i、j、t−k1)、およびd(i、j、t−k2)に同じ重み付け値である1/3を適用して補正された深さ値d’(i、j、t)を算出する。
すなわち、d’(i、j、t)=1/3×(d(i、j、t)+d(i、j、t−k1+d(i、j、t−k2)のように算出される。
このような方法は、被写体の動きがない静的である場合にはノイズが比較的に良好に除去され、特別な問題が起らずに済む場合もある。
しかし、図2の実施形態において観察されるよう、被写体の動きがある動的な場合は深さ値の間のぼけ(blurring)が生じ、むしろ深さ値を歪曲するという問題がある。このような現象をモーションブラー(motion blurring)ともいう。
図4は、図3のグラフに対応する深さ値を従来の時間平均フィルタによって処理した結果、モーションブラーが発生した場合を示す。
グラフの一部分410でモーションブラーが観察される。本来、時間平均フィルタ方法は、前のフレームの深さ値と現在フレームの深さ値は相関しているという点に着眼して提示されるものであるが、図2の実施形態においてtが略25である時点に被写体の動きによってピクセルの深さ値が明確に変わったため、問題が発生したのである。
このようなモーションブラーは、上記のようにノイズ除去のため算出に反映する前のフレーム深さ値に同じ重み付け値(上記では1/3)を適用したことから著しく発生した。
本発明の一実施形態によれば、このような場合にノイズ除去のために算出に反映する前のフレーム深さ値に互いに異なる重み付け値を適用する。
例えば、前のフレームの深さ値が取得される時点が現在フレームの深さ値の取得される時点と離れるほど重み付け値を小さく適用する。すなわち、フレーム間取得の時間差が大きいほど関連度が小さいと仮定するものである。かかる方式を適宜適用される時間重み付け値(または単に時間重み付け値)と称することにする。
本実施形態に対する詳細な説明は図5を参照してさらに詳細に後述する。
一方、本発明の他の一実施形態によれば、時間重み付け値とともに、または別に、前のフレームの深さ値と現在フレームの深さ値との差が大きいほど重み付け値を小さく適用する。すなわち、深さ値の差が大きいほどノイズによるものでなく、実際被写体の状態が変更されて深さ値が変わる場合の確率が大きいと仮定する。実際にノイズは、白色ガウスの特性を有すると知られているため、上記の仮定は合理的である。
前述した実施形態に対する詳細な説明は、図6を参照してより詳細に後述する。
図5は、本発明の一実施形態に係るフレーム間の深さ値取得の時間差に対する時間重み付け値の変化を表すグラフである。
上記の式のように、第1ピクセルに対する現在フレームの深さ値をd(i、j、t)として、前のフレーム深さ値をd(i、j、t−k)とする。この場合、kは実数であってフレーム間取得の時間差である。
kが大きい前のフレームであるほど低い重み付け値を与える。したがって、時間的に隣接するフレームの深さ値であるほど補正された第1ピクセルの深さ値にさらに大きく反映される。
図5のグラフにおいて、横軸は取得の時間差kに対応し、縦軸は現在フレームの深さ値に対する重み付け値(第1重み付け値)に対する前のフレームの深さ値に対する重み付け値(第2重み付け値)の比率(temporal weight ratio)に対応する。
本発明の一実施形態によれば、kの増加によって重み付け値の比率は指数的に減少することがある。また、ガウス曲線に応じて減少することもある。この場合、前のフレーム深さ値d(i、j、t−k)に適用される重み付け値F(t、t−k)は下記の式(1)のように算出される。
F(t、t−k)=exp(−σ×k )/(Σexp(−σ×kn)) (1)
σは減衰係数であって、正の実数である。
ここで、Σexp(−σ×kn)は、現在フレームを含んで反映されるn個のフレームに対する重み付け値F(t、t−k)を標準化(normalize)する。したがって、ΣF(t、t−k)=1の等式が保障される。
本発明の式を図5のグラフと比較すると、グラフの横軸は取得の時間差kに対応し、グラフの縦軸はF(t、t−k)を表す。
図6は、本発明の一実施形態に係るフレーム間深さ値の差に対する距離重み付けの比率(range weight ratio)の変化を表すグラフである。
図5の例のように、第1ピクセルに対する現在フレームの深さ値をd(i、j、t)といい、前のフレーム深さ値をd(i、j、t−k)という。この場合、kは実数であって、フレーム間取得の時間差である。
本発明の一実施形態によれば、d(i、j、t)とd(i、j、t−k)との差が大きくなることによって、距離重み付けの比率は指数的に減少することがある。また、ガウス曲線に応じて減少することもある。この場合、前のフレーム深さ値d(i、j、t−k)に適用される重み付け値G(d(i、j、t)、d(i、j、t−k))は下記の式(2)のように算出される。
G(d(i、j、t)、d(i、j、t−k))=exp(−σ×(d(i、j、t)−d(i、j、t−k)))/(Σexp(−σ×(d(i、j、t)−d(i、j、t−k))) (2)
σは減衰係数であって正の実数である。一方、分母(Σexp(−σ×(d(i、j、t)−d(i、j、t−k)))は、現在フレームを含んで反映されるn個のフレームに対する重み付け値G(d(i、j、t)、d(i、j、t−k))を標準化する。したがって、ΣG(d(i、j、t)、d(i、j、t−k))=1の等式が保障される。
本発明の式を図6のグラフと比較すると、グラフの横軸は取得時間深さ値の差(d(i、j、t)−d(i、j、t−k))に対応し、グラフの縦軸はG(d(i、j、t)、d(i、j、t−k))を表す。
本発明の一実施形態によれば、重み付け範囲と重み付け値が乗算され、最終の重み付け値になり得る。もちろん、2つの重み付け値のいずれか1つだけを適用して第1ピクセル値を算出することも可能である。
以下は、2つの重み付け値をともに適用する場合に第1ピクセルの補正された深さ値の算出方法を式(3)を参照して提示する。
上記の式(3)においてd(i、j、t)は、現在フレームである第1フレームの第1ピクセルの補正前の深さ値であり、d’(i、j、t)は補正後の深さ値である。
また、d(i、j、t−k)は第1フレームと取得の時間差がkである第2フレーム深さ値であり、F(t、t−k)は第2フレーム深さ値に適用される時間重み付け値であり、G(d(i、j、t)、d(i、j、t−k))は第2フレーム深さ値に適用される重み付け範囲である。各重み付け値に対する詳細な説明は式(1)〜(2)を参照して前述したとおりである。
上記の式(3)が表すよう明確になる。
第1ピクセルの第1フレーム深さ値d(i、j、t)を補正した新しい深さ値d(i、j、t−k)を算出する場合、第1フレームと時間を別にして取得される異なるフレーム(少なくとも1つ以上の第2フレーム)の深さ値d(i、j、t−k)を用いて、重み付け値が乗算される線形和により求めてもよい。
このとき、第2フレーム深さ値d(i、j、t−k)に乗算される重み付け値F(t、t−k)は、第1フレーム深さ値と第2フレーム深さ値の取得の時間差kが大きくなるほど小さくなる(例えば、図5の場合のようにkの増加によって重み付け値はガウス曲線に応じて小さくなり得る)。
また、第2フレーム深さ値d(i、j、t−k)に乗算される重み付け範囲G(d(i、j、t)、d(i、j、t−k))は、第1フレーム深さ値d(i、j、t)と第2フレーム深さ値d(i、j、t−k)との差が大きくなるほど小さくなる(同様に、図6の場合のようにkの増加によって重み付け値はガウス曲線に応じて小さくなり得る)。
図7は、本発明の一実施形態によって式(3)を用いて図3のグラフに対応する深さ値を処理する例示的な結果を表すグラフである。
グラフにおいて表される第1ピクセルの深さ値(補正された値)は、ノイズが減少して全体的にスムースした特性を表し、被写体の変化があるt=25付近のモーションブラーも明確に減少したことが分かる。
図8は、本発明の一実施形態に係る映像処理方法を示す。
深さカメラから測定される複数フレームの深さ映像から抽出された第1ピクセルの複数フレームの深さ値が映像処理装置100に入力される。(S810)
本発明の一実施形態によれば、ステップS820において、第1ピクセルの複数フレームの深さ値に適用される重み付け値が算出される。
重み付け値の算出は、式(1)を参照して前述したとおりである。本発明の一実施形態では、重み付け値だけを適用して第1ピクセルの第1フレーム深さ値を補正する。
しかし、本発明の他の実施形態において重み付け値の代わりに、あるいはそれとともに重み付け範囲が適用されて第1ピクセルの第1フレーム値が補正される。
この場合、ステップS830において、第1ピクセルの複数フレームの深さ値に適用される重み付け範囲が算出される。
本ステップにおける詳細な算出は、式(2)を参照して前述したとおりである。
ステップS840において、算出された重み付け値および/または重み付け範囲を適用し、第1ピクセルの第1フレーム深さ値を補正した新しい深さ値を算出する。このステップで補正された第1ピクセルの第1フレーム深さ値を算出する過程は、式(3)を例に挙げて前述した。
本発明の一実施形態によれば、第1ピクセルに対するステップS810〜ステップS840を行った後、第1フレーム内の他のピクセルに対しても繰り返しステップS810〜ステップS840を行ってもよい。
このように複数のピクセルに対するノイズの除去過程は順次に行われてもよいが、本発明の他の実施形態では並列的に行われてもよい。このような場合、深さ値に対するマトリックス演算が用いられてもよい。
本発明の一実施形態に係る方法は、コンピュータにより実現される多様な動作を実行するためのプログラム命令を含むコンピュータ読取可能な記録媒体を含む。当該記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むこともでき、記録媒体およびプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知であり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれる。また、記録媒体は、プログラム命令、データ構造などを保存する信号を送信する搬送波を含む光または金属線、導波管などの送信媒体でもある。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述したハードウェア装置は、本発明の動作を行うため1つ以上のソフトウェアモジュールとして作動するよう構成され、その逆も同様である。
上述したように、本発明の好ましい実施形態を参照して説明したが、該当の技術分野において熟練した当業者にとっては、特許請求の範囲に記載された本発明の思想および領域から逸脱しない範囲内で、本発明を多様に修正および変更させることができることを理解することができるであろう。すなわち、本発明の技術的範囲は、特許請求の範囲に基づいて定められ、発明を実施するための最良の形態により制限されるものではない。

Claims (22)

  1. 深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の取得の時間差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出する第1算出部と、
    前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定する第2算出部と、
    を含むことを特徴とする映像処理装置。
  2. 前記第1算出部は、前記取得の時間差が大きいほど前記第1重み付け値と前記第2重み付け値との差を大きく決定することを特徴とする請求項1に記載の映像処理装置。
  3. 前記第1算出部は、前記取得の時間差が大きいほど前記第1重み付け値に対する前記第2重み付け値の比率が小さくなるよう決定することを特徴とする請求項1に記載の映像処理装置。
  4. 前記第1算出部は、前記取得の時間差が大きいほど前記第1重み付け値に対する前記第2重み付け値の比率がガウス曲線分布に応じて小さくなるよう決定することを特徴とする請求項3に記載の映像処理装置。
  5. 前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1算出部によって算出された前記第1フレーム深さ値に対する第1重み付け値、および前記第2フレーム深さ値に対する第2重み付け値を再調整する第3算出部をさらに含み、
    前記第2算出部は、前記第1ピクセルの第1フレーム深さ値に前記第3算出部によって再調整された前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第3算出部によって再調整された前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定することを特徴とする請求項1に記載の映像処理装置。
  6. 前記第2算出部は、深さ値差が大きいほど前記第1重み付け値および前記第2重み付け値の差を大きく決定することを特徴とする請求項5に記載の映像処理装置。
  7. 前記第3算出部は、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率は小さくなるよう再調整することを特徴とする請求項5に記載の映像処理装置。
  8. 前記第3算出部は、第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなるよう再調整することを特徴とする請求項7に記載の映像処理装置。
  9. 深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出する第1算出部と、
    前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定する第2算出部と、
    を含むことを特徴とする映像処理装置。
  10. 前記第2算出部は、深さ値差が大きいほど前記第1重み付け値と前記第2重み付け値との差を大きく決定することを特徴とする請求項9に記載の映像処理装置。
  11. 前記第1算出部は、第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率は小さくなるよう決定することを特徴とする請求項9に記載の映像処理装置。
  12. 前記第1算出部は、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなるよう決定することを特徴とする請求項11に記載の映像処理装置。
  13. 深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の取得の時間差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出するステップと、
    前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定するステップと、
    を含むことを特徴とする映像処理方法。
  14. 前記取得の時間差が大きくなるほど前記第1重み付け値に対する前記第2重み付け値の比率は小さくなることを特徴とする請求項13に記載の映像処理方法。
  15. 前記取得の時間差が大きくなるほど前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなることを特徴とする請求項14に記載の映像処理方法。
  16. 前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を再調整するステップをさらに含み、
    前記第1ピクセルの補正された第1フレーム深さ値を決定するステップは、前記第1ピクセルの第1フレーム深さ値に前記再調整された第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記再調整された第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定することを特徴とする請求項13に記載の映像処理方法。
  17. 前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率はさらに小さくなるよう再調整されることを特徴とする請求項16に記載の映像処理方法。
  18. 前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなるよう再調整されることを特徴とする請求項17に記載の映像処理方法。
  19. 深さ映像の第1ピクセルの複数フレームの深さ値のうち、前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差に基づいて、前記第1フレーム深さ値に対する第1重み付け値および前記第2フレーム深さ値に対する第2重み付け値を算出するステップと、
    前記第1ピクセルの第1フレーム深さ値に前記第1重み付け値を適用し、前記第1ピクセルの第2フレーム深さ値に前記第2重み付け値を適用して算出した線形和を用いて、前記第1ピクセルの補正された第1フレーム深さ値を決定するステップと、
    を含むことを特徴とする映像処理方法。
  20. 前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きくなるほど、前記第1重み付け値に対する前記第2重み付け値の比率は小さくなることを特徴とする請求項19に記載の映像処理方法。
  21. 前記第1ピクセルの第1フレーム深さ値と前記第1ピクセルの第2フレーム深さ値との間の差が大きいほど、前記第1重み付け値に対する前記第2重み付け値の比率はガウス曲線分布に応じて小さくなることを特徴とする請求項20に記載の映像処理方法。
  22. 請求項13〜請求項21のいずれか一項において、前記映像処理方法を行うための命令語を収録することを特徴とするコンピュータ読み取り可能記録媒体。
JP2010132165A 2009-06-09 2010-06-09 映像処理装置および方法 Expired - Fee Related JP5679702B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090050877A KR101590767B1 (ko) 2009-06-09 2009-06-09 영상 처리 장치 및 방법
KR10-2009-0050877 2009-06-09

Publications (2)

Publication Number Publication Date
JP2010286488A true JP2010286488A (ja) 2010-12-24
JP5679702B2 JP5679702B2 (ja) 2015-03-04

Family

ID=42647347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010132165A Expired - Fee Related JP5679702B2 (ja) 2009-06-09 2010-06-09 映像処理装置および方法

Country Status (5)

Country Link
US (1) US8810602B2 (ja)
EP (1) EP2261853B1 (ja)
JP (1) JP5679702B2 (ja)
KR (1) KR101590767B1 (ja)
CN (1) CN101924878B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014528059A (ja) * 2011-07-12 2014-10-23 サムスン エレクトロニクス カンパニー リミテッド ブラー処理装置及び方法
US9456152B2 (en) 2011-07-12 2016-09-27 Samsung Electronics Co., Ltd. Device and method for blur processing
US10684121B2 (en) 2016-10-18 2020-06-16 Ricoh Company, Ltd. Distance-measuring apparatus which uses different calculations depending on whether the object is dynamically changing
US10775502B2 (en) 2016-11-10 2020-09-15 Ricoh Company, Ltd Distance-measuring apparatus, mobile object, robot, three-dimensional measuring device, surveillance camera, and distance-measuring method
JP2021135656A (ja) * 2020-02-26 2021-09-13 Kddi株式会社 触感提示方法、システムおよびプログラム

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101483462B1 (ko) * 2008-08-27 2015-01-16 삼성전자주식회사 깊이 영상 획득 장치 및 방법
JP5025786B2 (ja) * 2010-12-21 2012-09-12 株式会社東芝 画像処理装置、及び画像処理方法
JP5699609B2 (ja) * 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
KR20130001762A (ko) * 2011-06-28 2013-01-07 삼성전자주식회사 영상 생성 장치 및 방법
US9047681B2 (en) 2011-07-07 2015-06-02 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
KR101300350B1 (ko) * 2011-08-09 2013-08-28 삼성전기주식회사 영상 처리 장치 및 영상 처리 방법
WO2013058735A1 (en) * 2011-10-18 2013-04-25 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization
US9213883B2 (en) * 2012-01-10 2015-12-15 Samsung Electronics Co., Ltd. Method and apparatus for processing depth image
JP6115781B2 (ja) * 2012-03-29 2017-04-19 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
KR101977711B1 (ko) 2012-10-12 2019-05-13 삼성전자주식회사 깊이 센서, 이의 이미지 캡쳐 방법, 및 상기 깊이 센서를 포함하는 이미지 처리 시스템
KR101932587B1 (ko) 2012-11-20 2018-12-26 삼성전자주식회사 컬러-깊이 디모자이킹 영상 처리 장치 및 방법
KR102040152B1 (ko) 2013-04-08 2019-12-05 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서의 깊이 영상 생성 방법
KR20150037366A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 깊이 영상의 노이즈를 저감하는 방법, 이를 이용한 영상 처리 장치 및 영상 생성 장치
CN107979729B (zh) * 2014-01-24 2020-06-16 青岛海信移动通信技术股份有限公司 一种显示预览图像的方法及设备
US11102467B2 (en) * 2016-08-25 2021-08-24 Facebook Technologies, Llc Array detector for depth mapping
CN109242901B (zh) * 2017-07-11 2021-10-22 深圳市道通智能航空技术股份有限公司 应用于三维相机的图像校准方法和装置
CN107274447B (zh) * 2017-07-14 2022-06-10 梅卡曼德(北京)机器人科技有限公司 深度图像获取装置和深度图像获取方法
GB2580691B (en) * 2019-01-24 2022-07-20 Imperial College Innovations Ltd Depth estimation
EP3739503B1 (en) * 2019-05-14 2023-10-25 Nokia Technologies Oy Video processing
CN110400344B (zh) * 2019-07-11 2021-06-18 Oppo广东移动通信有限公司 深度图处理方法和装置
KR102240054B1 (ko) 2019-08-30 2021-04-14 (주)미래컴퍼니 영상 처리 장치
CN110794422B (zh) * 2019-10-08 2022-03-29 歌尔光学科技有限公司 一种含有tof成像模组的机器人数据采集系统及方法
US11663697B2 (en) 2020-02-03 2023-05-30 Stmicroelectronics (Grenoble 2) Sas Device for assembling two shots of a scene and associated method
KR102251115B1 (ko) * 2020-04-23 2021-05-13 엘지이노텍 주식회사 깊이 정보 추출 장치 및 방법
KR20230053323A (ko) * 2021-10-14 2023-04-21 울산과학기술원 최대 명암비 증강 영상 획득 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004028874A (ja) * 2002-06-27 2004-01-29 Matsushita Electric Ind Co Ltd レンジファインダ装置、物体検出装置および物体検出方法
JP2006033062A (ja) * 2004-07-12 2006-02-02 Seiko Epson Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP2006072495A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 立体物監視装置
JP2012516637A (ja) * 2009-01-30 2012-07-19 トムソン ライセンシング デプスマップの符号化

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005034035A1 (en) 2003-10-07 2005-04-14 Koninklijke Philips Electronics N.V. Depth-map improvement
KR100564592B1 (ko) * 2003-12-11 2006-03-28 삼성전자주식회사 동영상 데이터 잡음제거방법
US7822285B2 (en) * 2004-05-20 2010-10-26 Omnivision Technologies, Inc. Methods and systems for locally adaptive image processing filters
KR100814638B1 (ko) 2006-06-09 2008-03-18 성균관대학교산학협력단 레이저 간섭계를 이용한 변위량 측정 시스템 및 그 오차 보정 방법
KR100843084B1 (ko) 2006-06-22 2008-07-02 삼성전자주식회사 노이즈 저감 방법 및 장치
KR101298642B1 (ko) 2006-11-21 2013-08-21 삼성전자주식회사 영상 잡음 제거 방법 및 장치
US8059207B2 (en) * 2007-02-23 2011-11-15 Samsung Electronics Co., Ltd. System and method for video noise reduction using an adaptive temporal method with motion detection and motion compensation
KR100888459B1 (ko) 2007-03-14 2009-03-19 전자부품연구원 피사체의 깊이 정보 검출 방법 및 시스템
KR100891549B1 (ko) 2007-05-22 2009-04-03 광주과학기술원 깊이 카메라를 이용하여 보완한 깊이 정보 생성 방법 및장치, 그리고 그 방법을 수행하는 프로그램이 기록된 기록매체
KR20090063824A (ko) * 2007-12-14 2009-06-18 엘지전자 주식회사 영상처리 방법 및 장치
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004028874A (ja) * 2002-06-27 2004-01-29 Matsushita Electric Ind Co Ltd レンジファインダ装置、物体検出装置および物体検出方法
JP2006033062A (ja) * 2004-07-12 2006-02-02 Seiko Epson Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP2006072495A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 立体物監視装置
JP2012516637A (ja) * 2009-01-30 2012-07-19 トムソン ライセンシング デプスマップの符号化

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7014000427; Eric P.Bennett,etc: 'Video Enhancement Using Per-Pixel Virtual Exposures' ACM Transactions on Graphics -Proceedings of ACM SIGGRAPH 2005 Vol.24, 20050703, p.845-852 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014528059A (ja) * 2011-07-12 2014-10-23 サムスン エレクトロニクス カンパニー リミテッド ブラー処理装置及び方法
US9456152B2 (en) 2011-07-12 2016-09-27 Samsung Electronics Co., Ltd. Device and method for blur processing
US10684121B2 (en) 2016-10-18 2020-06-16 Ricoh Company, Ltd. Distance-measuring apparatus which uses different calculations depending on whether the object is dynamically changing
US10775502B2 (en) 2016-11-10 2020-09-15 Ricoh Company, Ltd Distance-measuring apparatus, mobile object, robot, three-dimensional measuring device, surveillance camera, and distance-measuring method
JP2021135656A (ja) * 2020-02-26 2021-09-13 Kddi株式会社 触感提示方法、システムおよびプログラム
JP7252916B2 (ja) 2020-02-26 2023-04-05 Kddi株式会社 触感提示方法、システムおよびプログラム

Also Published As

Publication number Publication date
KR101590767B1 (ko) 2016-02-03
EP2261853B1 (en) 2015-12-02
US8810602B2 (en) 2014-08-19
EP2261853A1 (en) 2010-12-15
JP5679702B2 (ja) 2015-03-04
KR20100132189A (ko) 2010-12-17
CN101924878B (zh) 2015-08-05
US20100309201A1 (en) 2010-12-09
CN101924878A (zh) 2010-12-22

Similar Documents

Publication Publication Date Title
JP5679702B2 (ja) 映像処理装置および方法
US9852525B2 (en) Method and apparatus for providing panorama image data
EP2489007B1 (en) Image deblurring using a spatial image prior
US20110102642A1 (en) Image deblurring using a combined differential image
JP5864958B2 (ja) 画像処理装置、画像処理方法、プログラムおよびコンピュータ記録媒体
JP5370542B1 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
TW201127028A (en) Method and apparatus for image stabilization
JP2010171949A (ja) 深さ情報を用いた深さノイズフィルタリング方法および装置
JP6387646B2 (ja) グレースケール画像の処理方法及び装置
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2013531268A (ja) 符号化開口を使用した距離の測定
JP5530399B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
WO2014069103A1 (ja) 画像処理装置
JP6253633B2 (ja) 画像処理装置、画像処理方法、プログラムおよびコンピュータ記録媒体
JP6221333B2 (ja) 画像処理装置、画像処理回路及び画像処理方法
JP5903305B2 (ja) 画像処理装置及び画像処理方法
JPWO2015002247A1 (ja) 放射線画像生成装置及び画像処理方法
US11501417B2 (en) Image processing apparatus for estimating the number of specific objects in an image
JP6378496B2 (ja) 画像処理装置、制御方法及び記録媒体
JP2011039795A (ja) 動画像強調処理システムおよび方法
JP6128878B2 (ja) 映像処理装置、映像処理方法、放送受信装置、映像撮影装置、映像蓄積装置及びプログラム
JP2018072942A (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JP6189172B2 (ja) 画像処理装置、画像処理方法およびプログラム
Fan et al. New Image Restoration Method Based on Multiple Aperture Defocus Images for Microscopic Images
JP2007272334A (ja) 高解像度画像を生成する画像拡大装置、その画像拡大方法及びその画像拡大プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150106

R150 Certificate of patent or registration of utility model

Ref document number: 5679702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees