JP2016119542A - 画像処理方法、画像処理プログラム、画像処理装置および撮像装置 - Google Patents

画像処理方法、画像処理プログラム、画像処理装置および撮像装置 Download PDF

Info

Publication number
JP2016119542A
JP2016119542A JP2014257239A JP2014257239A JP2016119542A JP 2016119542 A JP2016119542 A JP 2016119542A JP 2014257239 A JP2014257239 A JP 2014257239A JP 2014257239 A JP2014257239 A JP 2014257239A JP 2016119542 A JP2016119542 A JP 2016119542A
Authority
JP
Japan
Prior art keywords
information
noise reduction
imaging
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014257239A
Other languages
English (en)
Other versions
JP6682184B2 (ja
JP2016119542A5 (ja
Inventor
法人 日浅
Norito Hiasa
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014257239A priority Critical patent/JP6682184B2/ja
Priority to US15/514,019 priority patent/US10326951B2/en
Priority to PCT/JP2015/006259 priority patent/WO2016098348A1/en
Publication of JP2016119542A publication Critical patent/JP2016119542A/ja
Publication of JP2016119542A5 publication Critical patent/JP2016119542A5/ja
Application granted granted Critical
Publication of JP6682184B2 publication Critical patent/JP6682184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/616Noise processing, e.g. detecting, correcting, reducing or removing noise involving a correlated sampling function, e.g. correlated double sampling [CDS] or triple sampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • H04N25/673Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources
    • H04N25/674Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources based on the scene itself, e.g. defocusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Picture Signal Circuits (AREA)

Abstract

【課題】撮像により生成された画像に対して良好なノイズリダクションを行うことができるようにする。【解決手段】画像処理装置104は、撮像系101,102を用いた撮像により生成された入力画像のうち少なくとも一部に対してノイズリダクションを行う処理手段と、撮像系の光学特性に関する第1の情報を取得する取得手段とを有する。処理手段は、第1の情報に応じて、ノイズリダクションの処理を変更する。また、撮像系の標本化に関する第2の情報を取得し、第1の情報と第2の情報に応じてノイズリダクションの処理を変更するようにしてもよい。【選択図】図1

Description

本発明は、画像に対するノイズリダクションを行う画像処理技術に関する。
被写体空間を撮像することで生成された画像を高画質化するためには、該画像からノイズを低減することが重要である。一般に、画像に含まれる被写体空間の情報は高周波になるほど強度が小さくなるが、これに対して画像中のノイズは周波数に依らずほぼ一定の強度を有する。このため、周波数が高い領域ほど画像の本来の信号に含まれるノイズの割合が増す。したがって、画像の高周波成分を弱めることで該画像のノイズを低減する処理としてのノイズリダクションが多く行われる。
このようなノイズリダクションとして、画像の信号が有する局所的な特徴を用いることで、被写体空間のエッジ情報を保ちつつ画像からノイズを低減する手法が提案されている。特許文献1には、画像の局所領域をエッジ部、平坦部およびグラデーション部に分類し、その分類に応じてノイズリダクションのパラメタを変化させる方法が開示されている。この方法は、エッジ部ではノイズリダクション効果を弱くし、ノイズが目立ちやすい平坦部ではノイズリダクション効果を強くすることで、エッジの鮮鋭感を保ったまま画像からノイズを低減することを目的としている。
特開2010−109834号公報
しかしながら、特許文献1にて開示された方法では、ノイズリダクションの対象となる画像を生成した撮像系(撮像光学系や撮像素子等を含む)の光学特性が考慮されていない。
撮像系には、F値やフォーカス位置、さらに撮像光学系がズームレンズである場合は焦点距離等について自由度があり、それらによって決まる光学特性に応じて生成される画像の性質が異なる。したがって、撮像系の光学特性を考慮したノイズリダクションを行わなければ、効率的にノイズを低減することができないばかりか、被写体空間の情報のロスを増加させる等の不都合が生じる可能性がある。
本発明は、撮像により生成された画像に対して良好なノイズリダクションを行うことができるようにした画像処理装置等を提供する。
本発明の一側面としての画像処理装置は、撮像系を用いた撮像により生成された入力画像のうち少なくとも一部に対してノイズリダクションを行う処理手段と、撮像系の光学特性に関する第1の情報を取得する取得手段とを有する。処理手段は、第1の情報に応じて、ノイズリダクションの処理を変更することを特徴とする。
なお、上記画像処理装置と、撮像系のうち少なくとも一部とを有する撮像装置も、本発明の他の一側面を構成する。
また、本発明の他の一側面としての画像処理方法は、撮像系を用いた撮像により生成された入力画像のうち少なくとも一部に対してノイズリダクションを行う。該画像処理方法は、撮像系の光学特性に関する第1の情報を用意し、第1の情報に応じて、ノイズリダクションの処理を変更することを特徴とする。
さらに、本発明の他の一側面としての画像処理プログラムは、コンピュータに、撮像系を用いた撮像により生成された入力画像のうち少なくとも一部に対してノイズリダクションを行わせるコンピュータプログラムである。該画像処理方プログラムは、コンピュータに、撮像系の光学特性に関する第1の情報を取得させ、第1の情報に応じて、ノイズリダクションの処理を変更させることを特徴とする。
本発明によれば、撮像により生成された入力画像に対するノイズリダクションの処理を、撮像系の光学特性に関する情報に応じて変更するので、該入力画像に対する高精度なノイズリダクションを行うことができる。
本発明の実施例1である撮像装置の構成を示すブロック図。 実施例1の撮像装置の外観図。 実施例1におけるノイズリダクション処理の流れを示すフローチャート。 実施例1〜3における光学特性の説明図。 本発明の実施例2である画像処理システムの構成を示すブロック図。 実施例2の画像処理システムの外観図。 実施例2における結像光学系の配置図。 実施例2,3におけるノイズリダクション処理の流れを示すフローチャート。 実施例2,3におけるデフォーカス量とその像の拡がりとの関係を示す図。 実施例2,3における撮像シーンの例を示す図。 実施例2,3において撮像により生成された画像の例を示す図。 実施例2,3におけるデフォーカス特性領域を示す図。 実施例3の撮像システムの構成を示すブロック図。 実施例3の撮像システムの外観図。
以下、本発明の実施例について図面を参照しながら説明する。
撮像に用いられる結像光学系には、F値やフォーカス位置、さらに該光学系がズームレンズである場合は焦点距離等について自由度があり、それらによって決まる光学特性に応じて生成される画像の性質が異なる。例えば、F値を大きくすると、それに応じて回折の影響が増し、撮像により生成される画像で取得できる被写体空間の周波数情報は低周波成分のみとなる。このため、該画像に対して、F値が小さい場合に比べて強いノイズリダクションを行っても、該画像に含まれる被写体空間の情報は失われない。このように、撮像に用いられる結像光学系の光学特性を考慮したノイズリダクションを行えば、被写体空間の情報のロスを抑制しつつ、ノイズのみを効率的に低減することが可能となる。後述する実施例では、このような高精度のノイズリダクションを実現するための構成や方法について説明する。
また、具体的な実施例の説明に先だって、実施例にいう撮像系の光学特性について説明する。まず、実施例にいう撮像系は、主として結像光学系(撮像光学系)と撮像素子により構成され、被写体空間からの光によって光学像を形成させ、該光学像の光電変換によりアナログ電気信号を生成する(標本化する)系をいう。
被写体空間の情報を劣化させる要因は、結像光学系による回折、収差、デフォーカスに加え、撮像素子の露光中に発生する撮像系の変位または被写体の移動によるぶれがある。これらの要因のうち、実施例では、結像光学系の設計値または計測によって事前に知ることができる回折、収差およびデフォーカスを取り上げ、これらの特性をまとめて光学特性という。そして、後述するノイズリダクションにおいて、該光学特性に関する情報を考慮する。ただし、光学特性の要素は回折、収差およびデフォーカスの全てでもよいし一部のみでもよい。これは、回折、収差およびデフォーカスはそれぞれ発生原因が異なり、撮像シーンによってその影響の大きさが変化するためである。
また、実施例では、撮像素子での標本化に関する情報である撮像素子の画素ピッチやナイキスト周波数もノイズリダクションにおいて考慮する。
実施例1では、撮像系(結像光学系)の光学特性の要素を回折と収差とする場合について説明する。図1には、実施例1の撮像装置100の基本構成を示し、図2には、該撮像装置100の外観を示している。
不図示の被写体空間から結像光学系101に入射した光は該結像光学系101の結像作用によって光学像を撮像素子102上に形成する。撮像素子102は、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal-Oxide Semiconductor)センサ等により構成される光電変換素子である。撮像素子102は、光学像を光電変換してアナログ電気信号を生成する。このアナログ信号は、A/Dコンバータ103によってデジタル信号に変換され、デジタル信号は画像処理部104に入力される。
なお、結像光学系101は、撮像素子102を含む撮像装置100に対して交換可能であってもよい。つまり、撮像装置100は、撮像系の少なくとも一部(撮像素子102)を有すればよい。
画像処理装置としての画像処理部104は、入力されたデジタル信号に対して一般的な画像処理を行うことで画像データとしての入力画像を生成する。また、画像処理部104は、該入力画像に対してノイズを低減するための処理であるノイズリダクションを行う。ノイズリダクションには、詳しくは後述するが、記憶部105に保存された結像光学系101の光学特性に関する情報(第1の情報:以下、光学特性情報という)が用いられる。
画像処理部104で上記処理を受けた結果として得られる出力画像は、画像記録媒体106に所定のフォーマットで保存される。この際、出力画像とともに撮像条件に関する情報(以下、撮像条件情報という)を保存してもよい。撮像条件情報とは、入力画像を生成するための撮像時における結像光学系101の絞りやフォーカスの状態、また結像光学系101がズームレンズである場合にはその焦点距離等を含む。状態検知部107は、撮像条件情報をシステムコントローラ108から得てもよいし、光学系制御部109から得てもよい。
また、既に画像記録媒体106に保存された画像を入力画像として読み出し、該入力画像に対する撮像条件情報を参照して記憶部105から光学特性情報を取得し、該光学特性情報を用いて入力画像に対して画像処理部104でノイズリダクションを行ってもよい。
画像記録媒体106に保存された画像は、液晶ディスプレイ等により構成される表示部110にて表示される。
システムコントローラ108は、以上説明した撮像装置100の各構成要素を制御する。結像光学系101のフォーカスレンズ、絞りおよび変倍レンズ等の機械的な駆動は、システムコントローラ108からの指示に応じて光学制御部109が制御する。
次に、図3のフローチャートと図4を用いて、画像処理部104で行われるノイズリダクション処理(画像処理方法)について詳しく説明する。画像処理コンピュータとしての画像処理部104は、コンピュータプログラムである画像処理プログラムに従ってこの処理を実行する。なお、画像処理部104は、取得手段および処理手段として機能する。
ステップS101では、画像処理部104は、入力画像を取得する。入力画像には、被写体空間の情報のほか、撮像素子102で発生したショットノイズ等が含まれている。
ステップS102では、画像処理部104は、撮像系(撮像素子102)の標本化に関する情報(第2の情報:以下、標本化情報という)を取得する。標本化情報は、前述したように、撮像素子102における標本化の間隔を表す画素ピッチや、標本化の周波数(サンプリング周波数)の1/2の周波数であるナイキスト周波数等の標本化の条件を示す情報である。撮像素子102が、異なる色や偏光を取得するために複数の色チャンネル有している場合は、各色チャンネルに対応した標本化情報を取得する。例えば、撮像素子102の画素配列がRGB(Red,Green,Blue)のベイヤー配列である場合には、GとR,Bとでは標本化情報が異なる。
ステップS103では、画像処理部104は、入力画像におけるノイズリダクション対象領域(入力画像の少なくとも一部)から、今回のルーチンでノイズリダクションを行う部分領域を取得する。
ステップS104では、画像処理部104は、ステップS103で取得した部分領域の入力画像内での位置に対応する光学特性情報を取得(用意)する。光学特性情報は、入力画像を生成するための撮像時における結像光学系101の光学特性を示し、光学伝達関数(OTF)や点像強度分布(PSF)等が挙げられる。また、光学特性情報として、簡易的に点像の拡がり量であるスポット径等でもよい。しかし、より高精度なノイズリダクションを求める場合には、光学伝達関数や点像強度分布を取得することが望ましい。
ここで、光学特性情報がどのようなパラメタにより決定されるかについて説明する。前述したように、本実施例では、光学特性情報として回折と収差の情報を扱う。デフォーカスについては後に説明する実施例2で扱う。
回折は像高に依らずほぼ一定である。このため、回折のみを考慮する場合には、光学特性情報は、結像光学系101の瞳の状態(形状や大きさ)によって決まり、ステップS103で取得した部分領域の位置には依存しない。したがって、この場合には、ステップS103で部分領域を取得して該部分領域に対してノイズリダクションを行うのではなく、入力画像の全体に対して一括でノイズリダクションを行ってもよい。
一方、収差は像高に応じて変化する。このため、像高に応じて取得できる被写体空間の限界周波数も変化する。したがって、ステップS103で取得した部分領域の位置、つまりは像高によって光学特性情報が変化する。また、収差は、結像光学系101のF値、フォーカス位置および焦点距離(ズームレンズの場合)等によっても変化する。このため、これらも部分領域に対応する光学特性情報を決める上で必要な情報となる。
さらに、収差は波長に応じても変化する。このため、撮像素子102が複数の複数の色チャンネルを有する場合には、波長も光学特性情報の決定に必要となる。より望ましくは、部分領域のデフォーカス量、すなわち結像光学系101のフォーカス位置と部分領域のデプスとの差に応じても収差が変化する。このため、部分領域のデプスも光学特性情報を決定する情報とするとよい。
本実施例では、回折と収差の両方を光学特性の要素とするが、必要に応じてどちらか一方だけに絞ってもよい。例えば大口径レンズでは、回折より収差による性能劣化が支配的になるため、収差のみを光学特性の要素としてもよい。また、絞りを絞ってF値を非常に大きくした状態では、収差が非常に小さくなるが、回折の影響が大きくなるため、回折のみを光学特性の要素としてもよい。
ただし、回折のみを要素とする場合でも、結像光学系101におけるヴィネッティングの影響が大きい場合は、像高に応じて回折限界が変化するため、光学特性情報を決定する際に部分領域の位置がパラメタとして必要となる。一方、収差のみを要素とする場合でも、フォーカス位置や像高等の全てのパラメタを必ずしも考慮する必要はない。例えば、望遠レンズのように性能劣化に軸外収差よりも球面収差の方が支配的である場合は、像高による性能変化を無視してもよく、収差の変化に大きく関係しているパラメタのみを用いてもよい。
ステップS105では、画像処理部104は、取得した光学特性情報と標本化情報とからノイズリダクションの処理を決定する。言い換えれば、光学特性情報と標本化情報とに応じてノイズリダクションの処理を変更する。「ノイズリダクションの処理」を決定または変更するとは、ノイズリダクションの強度を変化させる(調節する)パラメタを決定または変更したり、ノイズリダクションの方法自体を選択または変更したりすることを含む。本実施例では、結像光学系101で取得可能な周波数成分が小さいほど、ノイズリダクションの強度(ノイズリダクション効果)を強めるようにノイズリダクションの処理を決定または変更する。これについて、図4を用いて説明する。
図4には、光学特性情報から得られた結像光学系101のMTF(Modulation Transfer Function)を示している。横軸qは周波数を示し、qは標本化情報から得た撮像素子102のナイキスト周波数を示す。ここでは説明を簡易にするためにMTFを1次元で表し、また負の周波数成分は省略している。ただし、以下に述べる内容は2次元の場合に関しても同様である。
図4(A)と図4(B)には2種類のMTFを示している。図4(B)のMTFは、図4(A)のMTFに対して取得可能な周波数成分が小さい。このMTFの差は、例えば、回折に関してはF値の違いにより、収差に関しては像高の違い等で生ずる。図4(B)の光学特性で取得された画像は、図4(A)で取得した画像よりも低い周波数域までしか被写体空間の情報が存在しない。図4(B)中のqはMTFの値がゼロとなる周波数を示す。つまり、画像中でこの周波数qよりも高い周波数成分は全てノイズということである。以上のことから、図4(B)のMTFに対応する光学特性に対しては、図4(A)より強いノイズリダクションの処理を選べばよい。
ここで、ノイズリダクションの処理を決定する基準の例として、MTFが既定値以下となる周波数を用いる方法を挙げる。MTFが所定の閾値rthr以下になる周波数をqdnとすると、図4(A)ではqdn=qdn1となり、図4(B)ではqdn=qdn2となる。この周波数を基準として、ノイズリダクションの処理を決定する。その最も単純な具体例として、ノイズリダクションにステップ関数を用い、そのパラメタを決定する場合を考える。この場合、入力画像から取得した部分領域のフーリエ変換に、以下の式(1)の値を乗じ、その結果を逆フーリエ変換する。
また、qdnがqより大きい場合には、被写体空間の信号とノイズを区別することができなくなる。このため、qdnとq、つまりは光学特性情報と標本化情報に応じて(光学特性情報と標本化情報との関係に応じて)ノイズリダクションの処理を変更してもよい。なお、ここでは画像のフーリエ変換を用いて説明したが、離散コサイン変換やウェーブレット変換などを用いてもよい。
ステップS106では、画像処理部104は、ステップS105で決定した処理によるノイズリダクションを、ステップS103で取得した部分領域に対して行う。ノイズリダクションの方法としては、バイラテラルフィルタ等の平滑化フィルタや、NLM(Non-Local Means)フィルタや、式(1)のステップ関数等が挙げられる。
ステップS107では、画像処理部104は、入力画像内のノイズリダクション対象領域の全域から取得した部分領域に対するノイズリダクションを終了したか否かを判定する。終了した場合は本処理を終了し、まだである場合はステップS103に戻って新たな部分領域をノイズリダクション対象領域から取得してステップS103〜S107の処理を繰り返す。
本実施例によれば、撮像系の光学特性(回折および収差)と標本化の条件(画素ピッチやナイキスト周波数)を考慮した高精度なノイズリダクションが可能な画像処理部104を備えた撮像装置100を実現することができる。
次に、上述した画像処理方法を画像処理システムに適用した実施例2について説明する。本実施例では、撮像系の光学特性の要素としてデフォーカスを取り上げる。実施例1では撮像装置100に画像処理装置(画像処理部104)が内蔵されている場合について説明した。これに対して、本実施例では、図5のシステム構成図および図6のシステム外観図に示すように、撮像装置201とノイズリダクションを行う画像処理装置202とが別装置となっている。
撮像装置201による撮像により生成された入力画像は、画像処理装置202の通信部203を介して該画像処理装置202に入力される。撮像装置201は互いに視差を有する複数の視差画像の取得が可能な構成を有する(詳しくは後述する)。画像処理装置202は、該視差情報から、入力画像における位置(座標)ごとの被写体空間のデプスに関する情報、言い換えれば入力画像におけるデプスの分布に関する情報であるデプスマップを取得(生成)して記憶部204に保存する。また、画像処理装置202は、入力画像を生成するための撮影に用いられた撮像装置(撮像系)201の光学特性情報を、撮像装置201または入力画像に付随した情報群から取得して記憶部204に保存する。
画像処理装置202のノイズリダクション部(取得手段および処理手段)205は、通信部203を介して取得した入力画像に対してノイズリダクションを行う。ノイズリダクション後の出力画像は、通信部203を介して表示装置206、記録媒体207および出力装置208の少なくとも1つに出力される。表示装置206は、液晶ディスプレイやプロジェクタ等により構成され、出力画像を表示する。記録媒体207は、半導体メモリ、ハードディスク、ネットワーク上のサーバー等であり、出力画像を保存する。出力装置208は、プリンタ等により構成され、出力画像を印刷等する。画像処理装置202は、必要に応じて現像処理やその他の画像処理を行う機能を有していてよい。
図7には、撮像装置201の構成を示している。撮像装置201は多眼結像光学系を有する。結像光学系211a〜211pは2次元に配置され、それぞれの像面側には不図示の撮像素子が結像光学系ごとに配されている。これにより、撮像装置201は複数の視点からの撮像により互いに視差を有する複数の視差画像を生成することができ、これら視差画像から被写体空間の視差情報を得ることができる。ただし、撮像素子は結像光学系211a〜211pがそれぞれ形成する光学像を受光できれば単一のものでもよい。また、各結像光学系に対応する撮像素子の画素数がそれぞれ異なっていてもよい。
結像光学系211a〜211pには焦点距離が互いに異なる複数種の結像光学系を含む。結像光学系211a〜211dが広角レンズであり、結像光学系211e〜211hが標準レンズである。また、結像光学系211i〜211lが中望遠レンズであり、結像光学系211m〜211pが望遠レンズである。ただし、結像光学系の種類や種類ごとの数や配置は図7に示すものに限定されない。また、撮像装置201は多眼結像光学系を有するものに限らず、Plenopticカメラ等でもよい。さらに、視差画像以外から被写体空間のデプスの分布に関する情報を取得可能であれば、撮像装置201は単眼結像光学系を有していてもよい。デプスの分布に関する情報は、TOF(Time of Flight)法や構造化照明の利用等によって取得してもよい。
次に、図8のフローチャートと図9〜図11を用いて、画像処理装置202(ノイズリダクション部205)で行われるノイズリダクション処理(画像処理方法)について詳しく説明する。画像処理コンピュータとしての画像処理装置202は、コンピュータプログラムである画像処理プログラムに従ってこの処理を実行する。
ステップS201では、ノイズリダクション部205は、撮像装置201から通信部203を介して入力画像を取得する。入力画像は、上述したように撮像装置201で得られた複数の視差画像であってもよいし、該視差画像のうちの1つの視点の画像でもよい。また、それらを合成した画像でもよい。ただし、複数の視差画像を合成して得られた合成画像を入力画像とする場合において各視差画像に対応する結像光学系の光学特性がそれぞれ異なる(例えば、結像光学系211a〜211dのF値が異なる状態で撮像が行われた)ときには、以下の問題がある。すなわち、そのような合成画像のノイズを低減するためには、該合成画像の位置ごとの光学特性を算出しなければならないが、これは容易ではない。したがって、対応する結像光学系の光学特性がそれぞれ異なる複数の視差画像を合成して得られた合成画像を入力画像とする場合には、合成前の各視差画像に対して以下に説明するノイズリダクションを行うことが望ましい。以下の説明では、複数の視差画像が入力画像である場合について説明する。
ステップS202では、ノイズリダクション部205は、入力画像に対するデプスマップを取得(生成)する。本実施例では入力画像である複数の視差画像から被写体空間の視差情報を取得できるため、ステレオ法等を用いてデプスマップを取得する。この場合にデプスが推定できるのは特徴点が存在する画像のエッジ部分などに限られるが、グラデーション領域のような非エッジ領域のデプスは、エッジ部のデプスから補間して求めることができる。
ステップS203では、ノイズリダクション部205は、撮像装置201に設けられた複数の撮像素子のうち入力画像である各視差画像に対応する撮像素子の標本化情報を取得する。
ステップS204では、ノイズリダクション部205は、入力画像におけるノイズリダクション対象領域(入力画像の全部または一部)から、今回のルーチンでノイズリダクションを行う部分領域を取得する。
ステップS205では、ノイズリダクション部205は、ステップS204で取得した部分領域の視差画像内での位置に対応する光学特性情報を取得する。本実施例における光学特性情報は、視差画像に対応する結像光学系のデフォーカス特性を指す。デフォーカスによる性能劣化は、結像光学系のフォーカス位置(合焦面)に対してステップS204で取得した部分領域のデプスが離れているほど、つまりはデフォーカス量が大きいほど大きくなる。また、同じデフォーカス量でも、結像光学系の焦点距離やF値によって性能劣化の度合いが変化する。このため、光学特性情報を決定するためには、結像光学系のF値、フォーカス位置、焦点距離(結像光学系がズームレンズの場合)および部分領域の位置(つまりはデプス)が必要となる。また、波長ごとにデフォーカス特性が異なるが、デフォーカス量の絶対値が大きくなると波長による差異は小さくなるので、デフォーカス量に応じて波長ごとのデフォーカス特性を考慮するか否かを決定してもよい。
このように光学特性としてデフォーカスを考慮するためには、被写体空間のデプスの情報が必要となる。しかし、一般に被写体は様々な奥行き位置に存在するため、デフォーカスによる取得可能な周波数の変化は、実施例1で取り上げた収差や回折よりも大きい。このため、本実施例のようにデフォーカスを光学特性として考慮したノイズリダクションを行うことで、実施例1よりも高精度なノイズリダクション効果が得られる。
ステップS206〜S208での処理は、実施例1(図3)のステップS105〜S107での処理と同様である。すなわち、ノイズリダクション部205は、ステップS206で光学特性情報と標本化情報に応じてノイズリダクションの処理を決定し、ステップS207で部分領域に対して決定した処理によるノイズリダクションを行う。そして、ステップS208で入力画像(視差画像)におけるノイズリダクション対象領域の全域についてノイズリダクションが終了したと判定されるまで、ステップS204〜ステップS207の処理を繰り返す。
本実施例によれば、撮像系の光学特性(デフォーカス)と標本化の条件を考慮した高精度なノイズリダクションが可能な画像処理装置202、さらには画像処理システムを実現することができる。
次に、本実施例においてノイズリダクションのより高精度化を図るために望ましい条件について説明する。
ステップS204において入力画像から取得される部分領域は、以下のように取得(抽出)されることが望ましい。まず、デプスマップを撮像系(撮像装置201)からデプスに対応する奥行き方向(デプス方向)に離れるほど分割ピッチが大きくなるように分割することにより、デフォーカス特性が互いに異なる複数のデフォーカス特性領域を設ける。言い換えれば、それぞれデフォーカス特性が同一とみなせる範囲内にあり、かつその範囲が互いに異なる複数のデフォーカス特性領域を設ける。そして、部分領域を、該複数のデフォーカス特性領域のうち1つ(単一)のデフォーカス特性領域から取得する。
仮に部分領域内に複数の被写体の境界に生じるデプスが不連続な複数の領域が存在すると、該部分領域内に全く異なるデフォーカス特性が存在することになり、本実施例の効果が低減する。このため、デフォーカス特性が同一とみなせる範囲にある単一のデフォーカス特性領域から部分領域を取得することが望ましい。
デフォーカス特性領域の分割ピッチが、撮像装置201から離れるほど大きくなる理由について説明する。説明を簡単にするため、ここでは結像光学系を薄肉系に近似する。このときの結像式は、以下の式(2)で与えられる。
ただし、fは結像光学系の焦点距離であり、σは結像光学系から撮像素子までの距離であり、sは結像光学系から合焦面(撮像素子と結像光学系を介して共役な被写体側の面)までの距離である。距離座標の原点は結像光学系の位置である。このため、結像光学系が実像を結ぶ場合には、sとσとが異符号となる。
撮像素子上でのデフォーカスによる像の拡がりがδになる結像距離は2通りあり、以下の式(3)で表される。
ただし、Fは結像光学系のF値である。σ+Δσは撮像素子上でデフォーカスによる像の拡がりがδになる2種類の結像距離で、iは1または2である。式(3)で表される結像距離に対応する物体距離s+Δsは、式(2)から以下の式(4)で表される。
式(3)は、fがFδより十分に大きい場合は、近似的に以下の式(5)に書き換えられる。
式(4)に式(5)を代入することで、以下の式(6)が得られる。
式(6)を変形すると、以下の式(7)が得られ、デフォーカスによる像の拡がりδと被写体空間側のデフォーカス量Δsとの関係が求まる。
図9には、式(7)により得られるデフォーカス量と像の拡がりδとの関係を示す。図9では、f=50(mm)およびs=−2500(mm)で、F値が1.4の場合(実線)と2.8の場合(破線)における上記関係を示している。横軸は被写体空間上でのデフォーカス量Δs(原点がs=−2500で−側から+側に向かうほど撮像装置201に近付く)を示し、縦軸はデフォーカス量に対応する撮像素子上でのデフォーカスによる像の拡がり(デフォーカスぼけの拡がり)δを示す。δは絶対値を付けてもよいが、ここではグラフの形状が分かりやすいように符号付きで表している。
図9から分かるように、撮像装置201から被写体までの距離が大きくなるほどデフォーカスぼけの拡がりの変化は小さくなる。このため、デフォーカスぼけの拡がりの範囲が互いにほぼ等しくなるように被写体空間を分割すると、撮像装置201から離れるほど大きくなる間隔(ピッチ)でデプスを区切ることとなる。
その具体例を、図10〜図12を用いて示す。図10は、撮像装置201によって撮像されるシーン(撮像シーン)の例を示している。該撮像シーン内には、撮像装置201側から順に、第1被写体301と、第2被写体302と、第3被写体303と、第4被写体304とが存在している。図11には、図10に示した撮像シーンを撮像することで生成された複数の視差画像のうちの1つを示している。実際には、図11の視差画像内のいずれかの被写体に対して撮像装置201の結像光学系が合焦しており、その合焦面から離れるほど像のデフォーカスぼけが大きくなるが、図11ではこのデフォーカスによる像劣化を無視している。図10中の破線は、各被写体のデプスと図11の視差画像を生成するための撮像に用いられた結像光学系の撮像画角を示している。
図10において、被写体空間におけるデフォーカスぼけの拡がりが等間隔になるようデプスを区切ると一点鎖線の位置で区切られる。2本の一点鎖線で挟まれた各領域はデフォーカス特性が同一とみなせる範囲にある領域、言い換えればデフォーカス特性が同一の範囲である領域を示し、これが1つ1つのデフォーカス特性領域である。図10には、例として、4つのデフォーカス特性領域311〜314を示している。ただし、デフォーカス特性領域311より手前側(近い)やデフォーカス特性領域314より奥側(遠い側)にさらにデフォーカス特性領域が存在してもよい。
図12では、デフォーカス特性領域311〜314を入力画像上に重ねて示している。濃度がデプスの違いを表し、同一濃度で描かれた領域が1つのデフォーカス特性領域である。図12には、図10には示していない、デフォーカス特性領域314よりも遠い側のデフォーカス特性領域315も示している。単一のデフォーカス特性領域から部分領域を取得することで、ノイズリダクションの精度の低下を抑制することができる。
また、ステップS204で取得した部分領域に対応する光学特性情報は、該部分領域内におけるデプスの平均値に対して決定することが望ましい。これにより、部分領域内にてばらつきのあるデプスに対して適切な(誤差の小さい)光学特性情報が与えられることになり、該部分領域に対するノイズリダクションを精度良く行うことができる。
さらに、入力画像に対するデプスマップの精度を表すデプス信頼度のマップを取得し、該デプス信頼度に応じてノイズリダクションの処理を決定(変更)することが望ましい。本実施例では、デプスマップを視差画像から算出しているため、例えば視差画像間で対応点が少ないとデプスの推定精度が低下する。同様に、TOF法や構造化照明を用いたデプス取得方法でも、外乱や物体表面の特性によって取得精度が低下することがある。これらの低い精度のデプスを処理に用いると、ノイズリダクションの精度も低下する。例えば、本来は被写体空間の情報が高周波域まで取得されているデプスであるにもかかわらず、デプス精度が低いことから低周波域しか取得されていないと判定され、過剰なノイズリダクションがかけられて被写体空間の情報まで喪失する可能性が考えられる。このため、デプス信頼度に応じてノイズリダクションの処理を変更することが望ましい。
例えば、デプス信頼度に関する閾値を設け、デプス信頼度が該閾値より低い領域は、同じデプス値を持ち、かつデプス信頼度が閾値より高い領域に比べてノイズリダクションの強度(ノイズリダクション効果)を弱めるようなノイズリダクションの処理を選択する。これにより、上述したような過剰なノイズリダクションによって被写体空間の情報を喪失させるおそれを低減することができる。ノイズリダクションの強度を弱めるには、同一のノイズリダクションの方法にてパラメタを調節してもよいし、ノイズリダクションの方法自体を変更してもよい。
また、デプス信頼度は、視差画像からデプスを算出する場合には、視差画像間の対応点が多い部分や強度が強いエッジ部でデプス信頼度が高くなるように定義するとよい。これは、対応点が多い部分や強度が強いエッジ部でデプスの算出精度が高まるためである。
また、視差画像からデプスを算出する場合には、各視差画像のデフォーカスの影響により、視差画像間で抽出されるべき特徴点(被写体)が合焦面から離れるほどその特徴点が抽出されにくくなり、この結果、特徴点のデプス信頼度が低下しやすくなる。このような場合には、予め特徴点の抽出精度が所定値以下となる特定デプスを取得しておき、デプス信頼度が低いデプスを有する部分領域に対しては、その特定デプスを用いて(つまり、該特定デプスの光学特性を用いて)ノイズリダクションを行ってもよい。この場合、部分領域の本来のデプスよりも合焦面側に近づいたデプスとなるため、ノイズリダクションの強度は弱まることとなる。
また、本実施例における光学特性情報として、光学伝達関数に基づく情報を用いる代わりに、結像光学系の焦点距離とF値を用いて式(7)等から簡易的にデフォーカス特性を得てもよい。ただし、より高精度な処理を求めるならば、光学伝達関数に基づく光学特性情報を用いた方がよい。
次に、実施例3としての撮像システムについて説明する。本実施例では、図13のシステム構成図および図14のシステム外観図に示すように、撮像装置401が、撮像により生成した画像(入力画像)とデプスマップを無線通信によって画像処理装置としてのサーバー(コンピュータ)403に送信する。そして、サーバー403は、受信した入力画像に対して受信したデプスマップを用いてノイズリダクションを行う。本実施例では、撮像装置(撮像系)401の光学特性の要素として、実施例2と同様にデフォーカスを用いる。
撮像装置401は、TOF(Time of Flight)方式の撮像素子を有し、撮像によって入力画像と該入力画像のデプスマップを生成する。サーバー403は、通信部404を有し、ネットワーク402を介して撮像装置401と通信可能に接続されている。撮像装置401で撮像が行われると、それにより生成された入力画像とデプスマップが自動的にまたは撮像装置401のユーザーの指示に応じてサーバー403に送信され、それら入力画像とデプスマップがサーバー403内の記憶部405に保存される。この際、撮像装置401の光学特性情報と標本化情報も撮像装置401からサーバー403に送信され、記憶部405に保存される。
サーバー403内の画像処理部406は、入力画像に対して実施例2(図8)にて説明したノイズリダクションを行う。サーバー406は、ノイズリダクションが行われた結果として得られた出力画像を、撮像装置401に送信したり記憶部405に保存したりする。
同様の撮像システムにおいて、撮像装置(撮像系)の光学特性の要素として、収差や回折を用いてもよい。
本実施例によれば、撮像装置401の光学特性と標本化の条件を考慮した高精度なノイズリダクションが可能なサーバー403、さらには撮像システムを実現することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
101 結像光学系
102 撮像素子
104 画像処理部
202 画像処理装置
403 サーバー

Claims (14)

  1. 撮像系を用いた撮像により生成された入力画像のうち少なくとも一部に対してノイズリダクションを行う処理手段と、
    前記撮像系の光学特性に関する第1の情報を取得する取得手段とを有し、
    前記処理手段は、前記第1の情報に応じて、前記ノイズリダクションの処理を変更することを特徴とする画像処理装置。
  2. 前記取得手段は、前記撮像系の標本化に関する第2の情報を取得し、
    前記処理手段は、前記第1の情報と前記第2の情報に応じて前記ノイズリダクションの処理を変更することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の情報は、前記入力画像における位置に応じて変化する情報であり、
    前記処理手段は、前記入力画像における部分領域に対して、該部分領域の位置に対応する前記第1の情報に応じた処理の前記ノイズリダクションを行うことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の情報は、前記入力画像におけるデプスに応じて変化する情報であり、
    前記取得手段は、前記入力画像における前記デプスの分布に関する情報を取得し、
    前記処理手段は、前記入力画像における部分領域に対して、該部分領域の位置での前記デプスに対応する前記第1の情報に応じた処理の前記ノイズリダクションを行うことを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
  5. 前記第1の情報は、前記撮像系のデフォーカス量に応じて変化する情報であることを特徴とする請求項4に記載の画像処理装置。
  6. 前記処理手段は、前記デプスの分布に関する情報を前記撮像系から前記デプスに対応する方向に離れるほど分割ピッチが大きくなるように分割することにより、デフォーカス特性が互いに異なる複数のデフォーカス特性領域を設け、
    前記部分領域は、単一の前記デフォーカス特性領域から取得されることを特徴とする請求項4または5に記載の画像処理装置。
  7. 前記部分領域の位置における前記デプスは、該部分領域内での前記デプスの平均値であることを特徴とする請求項4から6のいずれか一項に記載の画像処理装置。
  8. 前記処理手段は、前記デプスの分布に関する情報の信頼度に応じて前記ノイズリダクションの処理を変更することを特徴とする請求項4から7のいずれか一項に記載の画像処理装置。
  9. 前記処理手段は、前記信頼度が低いほど、前記ノイズリダクションの処理を前記ノイズリダクションの強度が弱い処理に変更することを特徴とする請求項8に記載の画像処理装置。
  10. 前記第1の情報とは、前記撮像系の光学伝達関数に基づく情報であることを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記ノイズリダクションの処理の変更は、該ノイズリダクションの強度を変化させるパラメタの変更または該ノイズリダクションの方法の変更であることを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 請求項1から11のいずれか1項に記載の画像処理装置と、
    前記撮像系のうち少なくとも一部とを有することを特徴とする撮像装置。
  13. 撮像系を用いた撮像により生成された入力画像のうち少なくとも一部に対してノイズリダクションを行う画像処理方法であって、
    前記撮像系の光学特性に関する第1の情報を用意し、
    前記第1の情報に応じて、前記ノイズリダクションの処理を変更することを特徴とする画像処理方法。
  14. コンピュータに、撮像系を用いた撮像により生成された入力画像のうち少なくとも一部に対してノイズリダクションを行わせるコンピュータプログラムとしての画像処理プログラムであって、
    前記コンピュータに、
    前記撮像系の光学特性に関する第1の情報を取得させ、
    前記第1の情報に応じて、前記ノイズリダクションの処理を変更させることを特徴とする画像処理プログラム。
JP2014257239A 2014-12-19 2014-12-19 画像処理方法、画像処理プログラム、画像処理装置および撮像装置 Active JP6682184B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014257239A JP6682184B2 (ja) 2014-12-19 2014-12-19 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
US15/514,019 US10326951B2 (en) 2014-12-19 2015-12-15 Image processing apparatus, image processing method, image capturing apparatus and image processing program
PCT/JP2015/006259 WO2016098348A1 (en) 2014-12-19 2015-12-15 Image processing apparatus, image processing method, image capturing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014257239A JP6682184B2 (ja) 2014-12-19 2014-12-19 画像処理方法、画像処理プログラム、画像処理装置および撮像装置

Publications (3)

Publication Number Publication Date
JP2016119542A true JP2016119542A (ja) 2016-06-30
JP2016119542A5 JP2016119542A5 (ja) 2017-11-30
JP6682184B2 JP6682184B2 (ja) 2020-04-15

Family

ID=56126256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014257239A Active JP6682184B2 (ja) 2014-12-19 2014-12-19 画像処理方法、画像処理プログラム、画像処理装置および撮像装置

Country Status (3)

Country Link
US (1) US10326951B2 (ja)
JP (1) JP6682184B2 (ja)
WO (1) WO2016098348A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020020781A (ja) * 2018-06-06 2020-02-06 ザ・ボーイング・カンパニーThe Boeing Company チョップドファイバ付加製造における空隙検出

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10580121B2 (en) 2017-11-16 2020-03-03 Axis Ab Image noise reduction based on a modulation transfer function of a camera dome
DE102018118187A1 (de) * 2018-07-27 2020-01-30 Carl Zeiss Ag Verfahren und Datenverarbeitungssystem zur Synthese von Bildern

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003234950A (ja) * 2002-02-12 2003-08-22 Nikon Corp 画像処理装置、画像処理プログラム、および画像処理方法
JP2009038439A (ja) * 2007-07-31 2009-02-19 Tokyo Institute Of Technology 空間フィルタ処理を行う撮像方法及びその撮像装置
JP2011041089A (ja) * 2009-08-13 2011-02-24 Fujifilm Corp 画像処理方法、画像処理装置、画像処理プログラム、撮像装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040085459A1 (en) * 2002-02-12 2004-05-06 Nikon Corporation Image processing device, image processing program, and image processing method
JP4925198B2 (ja) * 2007-05-01 2012-04-25 富士フイルム株式会社 信号処理装置および方法、ノイズ低減装置および方法並びにプログラム
JP5153350B2 (ja) 2008-01-17 2013-02-27 オリンパスイメージング株式会社 撮像装置
JP5352191B2 (ja) 2008-10-31 2013-11-27 三星電子株式会社 ノイズ低減装置、ノイズ低減方法及びプログラム
JP6060764B2 (ja) 2013-03-26 2017-01-18 富士ゼロックス株式会社 画像処理装置及び画像形成装置
US9967535B2 (en) * 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003234950A (ja) * 2002-02-12 2003-08-22 Nikon Corp 画像処理装置、画像処理プログラム、および画像処理方法
JP2009038439A (ja) * 2007-07-31 2009-02-19 Tokyo Institute Of Technology 空間フィルタ処理を行う撮像方法及びその撮像装置
JP2011041089A (ja) * 2009-08-13 2011-02-24 Fujifilm Corp 画像処理方法、画像処理装置、画像処理プログラム、撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020020781A (ja) * 2018-06-06 2020-02-06 ザ・ボーイング・カンパニーThe Boeing Company チョップドファイバ付加製造における空隙検出
JP7403973B2 (ja) 2018-06-06 2023-12-25 ザ・ボーイング・カンパニー チョップドファイバ付加製造における空隙検出

Also Published As

Publication number Publication date
US10326951B2 (en) 2019-06-18
US20170302868A1 (en) 2017-10-19
JP6682184B2 (ja) 2020-04-15
WO2016098348A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
JP5830348B2 (ja) 撮像装置
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP5709911B2 (ja) 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
US10154216B2 (en) Image capturing apparatus, image capturing method, and storage medium using compressive sensing
US9911183B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
JP7234057B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
JP2012124555A (ja) 撮像装置
JP2013242658A (ja) 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP6544978B2 (ja) 画像出力装置およびその制御方法、撮像装置、プログラム
JP6682184B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP6624785B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2015115733A (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP2012003454A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2012156716A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP2017050662A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6436840B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6245847B2 (ja) 画像処理装置および画像処理方法
JP2017163412A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP2015109681A (ja) 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
JP6486076B2 (ja) 画像処理装置および画像処理方法
JP2015119428A (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
JP6604737B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200325

R151 Written notification of patent or utility model registration

Ref document number: 6682184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151