JP2020003885A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2020003885A JP2020003885A JP2018120189A JP2018120189A JP2020003885A JP 2020003885 A JP2020003885 A JP 2020003885A JP 2018120189 A JP2018120189 A JP 2018120189A JP 2018120189 A JP2018120189 A JP 2018120189A JP 2020003885 A JP2020003885 A JP 2020003885A
- Authority
- JP
- Japan
- Prior art keywords
- correction
- processing apparatus
- image
- image processing
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は画像における大気ゆらぎの影響を低減する方法に関する。 The present invention relates to a method for reducing the effects of atmospheric turbulence in an image.
従来、監視カメラシステムなどにおいて、大気ゆらぎに起因する画像の劣化を補正する技術(以降ではゆらぎ補正と呼ぶ)が用いられている。ここで大気ゆらぎとは、大気の乱流や温度差により屈折率が空間的および時間的に変化する自然現象を指す。また、大気ゆらぎは陽炎とも呼ばれる。大気ゆらぎは光の屈折や位相のばらつきを引き起こし、その結果として特に望遠レンズで遠方を撮影した場合に、被写体の像に時間的に変化するぼけと歪み(以降ではゆらぎと呼ぶ)が発生する。このような画像の劣化は、被写体の視認性を大きく低下させるため、除去されることが望ましい。 2. Description of the Related Art Conventionally, in a surveillance camera system and the like, a technique for correcting image degradation due to atmospheric turbulence (hereinafter referred to as fluctuation correction) has been used. Here, atmospheric fluctuation refers to a natural phenomenon in which the refractive index changes spatially and temporally due to atmospheric turbulence and temperature differences. Atmospheric fluctuations are also called heat haze. Atmospheric fluctuations cause variations in the refraction and phase of light, and as a result, blurring and distortion (hereinafter referred to as fluctuations) that temporally change occur in an image of a subject, particularly when a distant image is taken with a telephoto lens. It is desirable that such deterioration of the image be removed because it greatly reduces the visibility of the subject.
このような課題に対し、複数フレームの画像からぼけと歪みを同時に低減した画像を生成する技術として、スペックルイメージングが知られている。以降の説明では、動画像を構成する時系列に並んだ画像データをフレームと呼ぶ。スペックルイメージングは元来天文分野で開発された手法であり、再構成画像のフーリエスペクトルの振幅成分と位相成分を独立に推定する。振幅成分は、入力フレームのパワースペクトルの平均を算出し、これに対し撮像装置の光学系の光学伝達関数に基づいて決定された高周波成分を増幅するフィルタをかけることで推定される。一方位相成分は、入力画像のバイスペクトラムに基づき、低周波成分の既知の位相値を用いて高周波成分の位相値を逐次的に推定していく。特許文献1では、スペックルイメージングをゆらぎ補正に応用する方法が開示されている。 In order to solve such a problem, speckle imaging is known as a technique for generating an image in which blur and distortion are simultaneously reduced from images of a plurality of frames. In the following description, the image data that forms a moving image and is arranged in time series is called a frame. Speckle imaging is a technique originally developed in the field of astronomy, and independently estimates the amplitude component and the phase component of the Fourier spectrum of a reconstructed image. The amplitude component is estimated by calculating the average of the power spectrum of the input frame and applying a filter to amplify the high-frequency component determined based on the optical transfer function of the optical system of the imaging apparatus. On the other hand, as for the phase component, the phase value of the high-frequency component is sequentially estimated using the known phase value of the low-frequency component based on the bispectrum of the input image. Patent Literature 1 discloses a method of applying speckle imaging to fluctuation correction.
しかしながら、従来技術はゆらぎ強度が高い場合やセンサノイズが強い場合などに位相推定精度が低下し、結果として再構成画像に特有のアーティファクトが生じて視認性を低下させるという課題があった。 However, the prior art has a problem that the phase estimation accuracy is reduced when the fluctuation intensity is high or the sensor noise is strong, and as a result, an artifact specific to the reconstructed image is generated, and the visibility is reduced.
上述の課題を解決するために、本発明の画像処理装置は、大気のゆらぎの影響により画質が劣化した複数の画像データのゆらぎの影響度に基づいて、第一の補正処理による前記複数の画像データの第一の補正結果と、前記第一の補正処理とは異なる第二の補正処理による前記複数の画像データの第二の補正結果とを出力する出力手段を有する。 In order to solve the above-described problem, the image processing apparatus according to the present invention is configured such that the plurality of images obtained by the first correction process are based on the influence of the fluctuation of a plurality of image data whose image quality has deteriorated due to the fluctuation of the atmosphere. Output means for outputting a first correction result of the data and a second correction result of the plurality of image data by a second correction process different from the first correction process.
ゆらぎ強度が高い場合やセンサノイズが強い場合でも、アーティファクトの少ないゆらぎ補正の結果を得ることができる。 Even when the fluctuation intensity is high or the sensor noise is high, it is possible to obtain a fluctuation correction result with less artifact.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the following embodiments do not limit the present invention, and not all combinations of the features described in the present embodiments are necessarily essential to the solution of the present invention. The same components will be described with the same reference numerals.
本実施例では、入力された画像データから、大気ゆらぎの強度を示すパラメータとして面内の変位量の不均一さ(ばらつき)を算出することで、良好なゆらぎ補正を実現する例を述べる。まず、本実施例の情報処理装置(画像処理装置)の構成を説明する。 In the present embodiment, an example will be described in which a non-uniformity (variation) of an in-plane displacement amount is calculated from input image data as a parameter indicating the intensity of atmospheric fluctuation, thereby achieving good fluctuation correction. First, the configuration of the information processing apparatus (image processing apparatus) according to the present embodiment will be described.
図1は、本実施例の情報処理装置の構成の一例を示す図である。本実施例の情報処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース105、出力インターフェース106を含む。情報処理装置100の各構成要素はシステムバス107によって相互に接続されている。また、情報処理装置100は、入力インターフェース105を介して外部記憶装置108および操作部110に接続されている。また、情報処理装置100は、出力インターフェース106を介して外部記憶装置108および表示装置109に接続されている。
FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus according to the present embodiment. The
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス107を介して情報処理装置100の各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。二次記憶装置104は、情報処理装置100で取り扱われる種々のデータを記憶する記憶装置であり、本実施例ではHDDが用いられる。CPU101は、システムバス107を介して二次記憶装置104へのデータの書き込みおよび二次記憶装置104に記憶されたデータの読出しを行う。なお、二次記憶装置104にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。
The
入力インターフェース105は、例えばUSBやIEEE1394等のシリアルバスインターフェースである。情報処理装置100は、入力インターフェース105を介して、外部装置からデータや命令等を入力する。本実施例では、情報処理装置100は、入力インターフェース105を介して、外部記憶装置108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。また本実施例では、情報処理装置100は、操作部110に入力されたユーザの指示を、入力インターフェース105を介して取得する。操作部110は、マウスやキーボードなどの入力装置であり、ユーザの指示を入力する。
The
出力インターフェース106は、入力インターフェース105と同様にUSBやIEEE1394等のシリアルバスインターフェースである。なお、出力インターフェース106は、例えばDVIやHDMI(登録商標)等の映像出力端子であってもよい。情報処理装置100は、出力インターフェース106を介して、外部装置にデータ等を出力する。本実施例では、情報処理装置100は、出力インターフェース106を介して表示装置109(液晶ディスプレイなどの各種画像表示デバイス)に、CPU101によって処理されたデータ(例えば、画像データ)を出力する。なお、情報処理装置100の構成要素は上記以外にも存在するが、本実施例の主眼ではないため、説明を省略する。
The
図2は、本実施例による情報処理装置の機能ブロック図である。情報処理装置100は、図2に示すように、画像データ取得部201、画像分割部202、パラメータ算出部203、位相推定精度判定部204、第1の補正部205、第2の補正部206、画像結合部207としての機能を有する。
FIG. 2 is a functional block diagram of the information processing apparatus according to the present embodiment. As shown in FIG. 2, the
また、パラメータ算出部203は、本実施例においては図3に示すように動きベクトル算出部301、ばらつき302部としての機能を有する。
Further, in this embodiment, the
また、第1の補正部205は、図5に示すように、前処理部501、フーリエ変換部502、バイスペクトラム算出部503、位相推定部504、平均パワースペクトル算出部505、振幅推定部506、画像合成部507としての機能を有する。
As shown in FIG. 5, the
上記各部の機能は、CPU101がROM103内に格納された制御プログラムを読み込み実行することで実現される。なお、各部に相当する専用の処理回路を備えるように情報処理装置100を構成するようにしてもよい。以下、各部により行われる処理の流れを説明する。
The functions of the above components are realized by the
以下、各部により行われる処理の流れを説明する。ゆらぎ補正を行う手法として、「スペックルイメージング処理」が知られている。この処理は、他に知られている処理(例えば「ブラインド・デコンボリューション処理」や「平均化処理(前後の複数フレームを平均し、フィルタ処理でエッジ強調)」など)と比較してボケや歪みを良好に補正することができる。しかしながら、ゆらぎ強度が高い場合やセンサノイズが強い場合に位相推定精度が低下し、結果として再構成画像に特有のアーティファクトが生じて視認性を低下させてしまう。そこで本実施例では、位相推定精度が高いと判定される場合にスペックルイメージング処理でゆらぎ補正を行い、そうでない場合に他の処理(例えば「ブラインド・デコンボリューション処理」や「平均化処理」など)を用いてゆらぎ補正を行う。 Hereinafter, the flow of processing performed by each unit will be described. As a method of performing the fluctuation correction, a “speckle imaging process” is known. This processing is compared with other known processing (for example, "blind deconvolution processing" or "averaging processing (averaging the preceding and following frames, and filtering to enhance the edge)"). Can be satisfactorily corrected. However, when the fluctuation intensity is high or the sensor noise is high, the phase estimation accuracy is reduced, and as a result, an artifact peculiar to the reconstructed image is generated and visibility is reduced. Therefore, in this embodiment, when it is determined that the phase estimation accuracy is high, the fluctuation is corrected by the speckle imaging process, and when not, other processes (for example, “blind deconvolution process”, “averaging process”, etc.) ) To perform the fluctuation correction.
図6は、本実施例における処理の流れを示すフローチャートである。 FIG. 6 is a flowchart illustrating the flow of the process according to the present embodiment.
ステップS601では、画像データ取得部201が、処理対象である複数フレームからなる画像データを取得する。
In step S601, the image
ステップS602では、画像分割部202が、前記画像データを複数の小領域データ(ブロックデータ)に分割する。ここで複数の小領域データは重複が許容される。小領域データのサイズは、大気ゆらぎの影響が一定であるとみなせる範囲(アイソプラナティックパッチ)よりも小さいことが好ましい。以降のステップS603、ステップS604、ステップS605a/bは、ブロック単位で小領域データそれぞれに対して行う。
In step S602, the
ステップS603では、パラメータ算出部203が、前記画像データ取得時の大気ゆらぎの強度を示すパラメータを算出する。処理の詳細は後述する。
In step S603, the
ステップS604では、位相推定精度判定部204が、後述するスペックルイメージング処理における位相推定精度の判定を行う。ステップS603で算出したパラメータが、予め算出した閾値より小さい場合に位相推定精度が高いと判定し、ステップS605aに進む。ステップS603で算出したパラメータが、予め算出した閾値より大きい場合に位相推定精度が低いと判定し、ステップS605bに進む。
In step S604, the phase estimation
ステップS605aでは、第1の補正部が、スペックルイメージング処理によって前記小領域データからゆらぎ補正された小領域データを生成する。処理の詳細は後述する。 In step S605a, the first correction unit generates small area data in which fluctuation has been corrected from the small area data by speckle imaging processing. Details of the processing will be described later.
ステップS605bでは、第2の補正部が、スペックルイメージング処理とは異なる第2の補正処理によって前記小領域データからゆらぎ補正された小領域データを生成する。 In step S605b, the second correction unit generates small area data in which fluctuation has been corrected from the small area data by a second correction process different from the speckle imaging process.
ステップS606では、ステップS605a/bで生成されたゆらぎ補正された小領域データを結合して、ゆらぎ補正された画像データを生成する。 In step S606, the fluctuation-corrected small area data generated in step S605a / b is combined to generate fluctuation-corrected image data.
このように、大気ゆらぎの強度に応じて異なる処理でゆらぎ補正を行い、アーティファクトを抑制して高画質な出力画像を得ることが本実施例の特徴である。 As described above, it is a feature of the present embodiment that fluctuation correction is performed by different processes according to the intensity of atmospheric fluctuation to suppress artifacts and obtain a high-quality output image.
次に、ステップS603の処理の詳細を説明する。図7は、本実施例におけるパラメータ算出部203が行う処理の流れを示すフローチャートである。大気ゆらぎの影響として、画像には局所的な変位が発生する。本処理では、この変位を評価して前記パラメータを算出する。このとき、大気ゆらぎと同じく画像に変位をもたらす「カメラのブレ」や「被写体の動き」と区別して評価する必要がある。そこで、大気ゆらぎに特有の「変位の方向や量が面内で不均一である」という性質に着目し、面内の変位量の不均一さ(ばらつき)を評価する。
Next, details of the processing in step S603 will be described. FIG. 7 is a flowchart illustrating a flow of a process performed by the
ステップS701では、小領域データ内の複数点(n個)に対して、動きベクトルを算出する。 In step S701, a motion vector is calculated for a plurality of points (n) in the small area data.
ステップS702では、前記動きベクトルのばらつき(大気ゆらぎ強度B、ゆらぎの影響度)を算出する。n個の動きベクトル In step S702, the variation of the motion vector (atmospheric fluctuation intensity B, degree of fluctuation influence) is calculated. n motion vectors
に対して、大気ゆらぎ強度B1は、 Against, atmospheric turbulence intensity B 1 is,
のように算出することができる。ここで Can be calculated as follows. here
は Is
の平均ベクトルであり、||はベクトルの絶対値を示す。 Mean vector, and || indicates the absolute value of the vector.
以上の処理により、画像データに基づき大気ゆらぎの強度を示すパラメータB1を算出することができる。 By the above processing, the parameter B 1 showing the strength of atmospheric turbulence on the basis of the image data can be calculated.
ステップS604では、この大気ゆらぎ強度B1が、あらかじめ定めた閾値Bthより小さい場合にはスペックルイメージング処理における位相推定精度が高いと判定し、ステップS605aに進む。一方で大気ゆらぎ強度B1が、閾値Bthより大きい場合にはスペックルイメージング処理における位相推定精度が低いと判定し、ステップS605bに進む。 At step S604, the the atmospheric turbulence intensity B 1 is, determines that a high phase estimation accuracy in speckle imaging process when a predetermined threshold value B th smaller, the process proceeds to step S605a. Meanwhile atmospheric turbulence intensity B 1 is, determines that the low phase estimation accuracy in speckle imaging process when the threshold B th greater, the process proceeds to step S605b.
次に、ステップS605aの処理の詳細を説明する。図8は、第1の補正部が行うスペックルイメージング処理の流れを示すフローチャートである。 Next, details of the processing in step S605a will be described. FIG. 8 is a flowchart illustrating the flow of the speckle imaging process performed by the first correction unit.
ステップS801では、前処理部501が、小領域データの各々に対し前処理を行う。前処理は、不良画素処理、位置合わせ、輝度傾斜補正、アポダイゼーションのいずれかを含む。不良画素処理は、光学系に存在する塵や撮像素子の画素の欠陥により正常な値を持たない画素を事前に検出しておき、撮像後に当該画素の値を周辺画素の値の平均値などで置き換える処理である。位置合わせは、撮像装置の振動などによりフレーム間で位置ずれが発生する場合に、ある基準フレームに対する各フレームの位置ずれを推定し、各フレームの位置ずれを補正する。位置ずれが平行移動に限定されると仮定すれば、位置ずれの推定にはフーリエ相関法などの既存の方法を用いることができる。輝度傾斜補正は、各小領域データの輝度分布に対し1次平面をフィッティングし、それを各画素の輝度値から差し引く処理である。1次平面は傾き0に限定してもよく、その場合は小領域データの平均輝度値を差し引くことになる。アポダイゼーションは、小領域データごとに画像処理を行った結果を統合する際に境界で発生する不整合を抑制する目的で、小領域データに窓関数をかける。以上の処理は全てが必ずしも実行される必要はなく、必要な処理だけが実行されればよい。
In step S801, the
ステップS802では、フーリエ変換部502が、小領域データの各フレームに対してフーリエ変換を行ってフーリエスペクトルを生成する。
In step S802, the
ステップS803では、バイスペクトラム算出部503が、ステップS802で得られたフーリエスペクトルを用いて、小領域データの各々に対応したバイスペクトラムデータを生成する。nフレーム目の小領域データのフーリエスペクトルInからバイスペクトラムIB,nは数式5によって定義される。
In step S803, the
ここで、u、vはそれぞれ周波数平面上の座標を表す2次元のデータである。フーリエスペクトルが2次元のデータであるのに対し、バイスペクトラムは4次元のデータである。 Here, u and v are two-dimensional data representing coordinates on the frequency plane, respectively. The Fourier spectrum is two-dimensional data, while the bi-spectrum is four-dimensional data.
ステップS804では、位相推定部504が、前記バイスペクトラムデータを用いて、出力画像のフーリエスペクトルOの位相を推定する。特許文献1に示されている通り、この位相は数式6によって決定される。
In step S804, the
ここで、<>は複数フレームにわたる平均を表す。数式6によると、周波数平面上の(0,0)、(1,0)、(0,1)の3点における位相を初期位相として予め決めておけば、逐次的に任意の座標における位相を決定することができる。この3点の位相として、例えば複数フレームを平均した小領域データのフーリエスペクトルの位相の値を用いる。初期位相は周波数平面上の4点以上に対して定めるようにしても良い。 Here, <> represents an average over a plurality of frames. According to Equation 6, if the phases at three points (0, 0), (1, 0), and (0, 1) on the frequency plane are determined in advance as initial phases, the phases at arbitrary coordinates are sequentially determined. Can be determined. As the phases of these three points, for example, the value of the phase of the Fourier spectrum of the small area data obtained by averaging a plurality of frames is used. The initial phase may be determined for four or more points on the frequency plane.
ステップS805では、平均パワースペクトル算出部505が、複数フレームの小領域データのパワースペクトルの平均を算出する。
In step S805, the average power
ステップS806では、振幅推定部506が、ステップS805で得られた平均パワースペクトルAを用いて、出力画像のフーリエスペクトルの振幅を推定する。具体的には、例えば参考文献1に示されているように、数式7に従い算出される。
In step S806, the
ここで、Tは撮像装置の光学伝達関数、Sはスペックル伝達関数である。Tは、予め大気ゆらぎなどの外乱がない状態で点光源を撮像して求めてもよいし、モデルを用いて数値計算によって求めてもよい。Sは大気ゆらぎに起因する画像の劣化を表現する関数であり、予め計測してデータを保持しても良いし、モデルを用いて数値計算によって求めても良い。また、大気ゆらぎの強度に応じて異なる複数の計測データやモデルを保持しておき、ステップS603で算出した大気ゆらぎの強度を示すパラメータに基づいて選択して用いるようにしても良い。 Here, T is an optical transfer function of the imaging device, and S is a speckle transfer function. T may be obtained by imaging a point light source in a state where there is no disturbance such as atmospheric turbulence in advance, or may be obtained by numerical calculation using a model. S is a function that expresses the deterioration of an image due to atmospheric turbulence, and may be measured in advance and stored, or may be obtained by numerical calculation using a model. Alternatively, a plurality of measurement data and models different depending on the intensity of the atmospheric turbulence may be stored, and selected and used based on the parameter indicating the intensity of the atmospheric variability calculated in step S603.
ステップS807では、画像合成部507が、出力画像のフーリエスペクトルOの位相と振幅を統合し、逆フーリエ変換によって出力画像を生成し、合成画像データを出力する。
In step S807, the
以上のスペックルイメージング処理により、大気ゆらぎの影響による画質が劣化した画像に対して画質を向上させる補正を行うことができる。このスペックルイメージング処理によれば高画質化が可能である一方で、大気ゆらぎの強度が高い場合やセンサノイズが強い場合に特有のアーティファクトが生じ視認性が低下するというデメリットがあった。 Through the above-described speckle imaging processing, it is possible to perform correction for improving image quality on an image whose image quality has been degraded due to the influence of atmospheric turbulence. According to this speckle imaging processing, while high image quality can be achieved, there is a demerit that when the intensity of atmospheric turbulence is high or sensor noise is strong, a specific artifact occurs and visibility is reduced.
一方で、第2の補正部204による補正処理である「ブラインド・デコンボリューション処理」や「平均化処理」によっても大気ゆらぎの影響を低減し高画質な画像を出力することができる。この第2の補正部204による補正は、第1の補正部205による補正よりも高画質化は図れないが、大気ゆらぎの強度が高い場合やセンサノイズが強い場合であっても安定した画質の画像を出力できる。
On the other hand, the effects of atmospheric turbulence can be reduced and a high-quality image can be output even by “blind deconvolution processing” or “averaging processing” that is correction processing by the
以下、ステップS606の処理の詳細を説明する。ステップS606において画像結合部207は、第1の補正部205により出力された第1の補正結果と第2の補正部206により出力された第2の補正結果を取得する。画像結合部207は、小領域単位で受領される補正結果を結合することにより、最終的な画像データを出力する。
Hereinafter, the details of the processing in step S606 will be described. In step S606, the
以上、本実施例によれば、位相推定精度判定部204の判定により、画質向上とアーティファクト低減との二つの効果を適宜得ることができる。
As described above, according to the present embodiment, two effects of image quality improvement and artifact reduction can be appropriately obtained by the determination of the phase estimation
なお、上述の実施例では位相推定精度判定部204の結果により、第1の補正部205及び第2の補正部の何れか一方のみが補正処理するとした。一方で図14に示す通り位相推定精度判定部1404の結果に関わらず第1の補正部1405及び第2の補正部1406による補正処理を行うことも可能である。位相推定精度判定部1404の判定結果は、第1の補正結果と第2の補正結果のいずれを採用するかに使用される。
In the above-described embodiment, only one of the
更に、第1の補正結果と第2の補正結果を位相推定精度判定部の判定結果に基づいて「合成」することも可能である。たとえば、大気ゆらぎ強度B1を重み係数として第1の補正結果と第2の補正結果を重み付加算することにより、より適切な補正結果を得られる。 Further, the first correction result and the second correction result can be "combined" based on the determination result of the phase estimation accuracy determination unit. For example, by adding a weighted first correction result and the second correction results atmospheric turbulence intensity B 1 as the weighting coefficient, to obtain a more appropriate correction result.
本実施例では、入力された画像データから、大気ゆらぎの強度を示すパラメータとして変位量の時間変化を算出することで、良好なゆらぎ補正を実現する例を述べる。 In the present embodiment, an example will be described in which good fluctuation correction is realized by calculating a temporal change of a displacement amount as a parameter indicating the intensity of atmospheric fluctuation from input image data.
本実施例の構成は、実施例1と比較して、図2のパラメータ算出部203が有する機能が異なる。図2のパラメータ算出部203は、本実施例においては、図4に示すように動きベクトル算出部401、時間変化算出部402としての機能を有する。
The configuration of the present embodiment is different from the first embodiment in the function of the
本実施例の処理は、実施例1の処理と比較して、ステップS603の処理内容が異なる。 The processing of the present embodiment is different from the processing of the first embodiment in the processing content of step S603.
以下に、ステップS603の処理の詳細を説明する。図9は、本実施例のステップS603においてパラメータ算出部203が行う処理の流れを示すフローチャートである。大気ゆらぎの影響として、画像には局所的な変位が発生する。本処理では、この変位を評価して前記パラメータを算出する。このとき、大気ゆらぎと同じく画像に変位をもたらす「カメラのブレ」や「被写体の動き」と区別して評価する必要がある。そこで、大気ゆらぎに特有の「変位の方向や量の時間変化が大きい」という性質に着目し、面内の変位量の時間変化を評価する。
The details of the process in step S603 will be described below. FIG. 9 is a flowchart illustrating a flow of a process performed by the
ステップS901では、小領域データ内の複数フレームに対して、動きベクトルを算出する。 In step S901, a motion vector is calculated for a plurality of frames in the small area data.
ステップS902では、前記動きベクトルの時間変化を算出する。kフレームに対する動きベクトル In step S902, a time change of the motion vector is calculated. motion vector for k frames
に対して、時間変化B2は例えば、 Respect, time variation B 2, for example,
のように算出することができる。ここで、<>は複数フレームにわたる平均を表す。また、||はベクトルの絶対値を示す。小領域データ内の複数点で上記動きベクトルの時間変化を算出し、その統計量(平均値や中央値など)を算出するようにしても良い。 Can be calculated as follows. Here, <> represents an average over a plurality of frames. || indicates the absolute value of the vector. The temporal change of the motion vector may be calculated at a plurality of points in the small area data, and the statistic (such as an average value or a median value) may be calculated.
以上の処理により、画像データに基づき大気ゆらぎの強度を示すパラメータを算出することができる。 Through the above processing, a parameter indicating the intensity of atmospheric turbulence can be calculated based on the image data.
実施例1および2では、入力画像データを複数の小領域データに分割し、それぞれの小領域データに対して算出される大気ゆらぎの強度を示すパラメータに基づいてゆらぎ補正方法を異ならせる例を説明した。本実施例では、入力画像データ全体に対して同一の処理で大気ゆらぎ補正を行う例を説明する。その際に用いる大気ゆらぎ補正の結果は、入力画像データ全体に対して算出される大気ゆらぎの影響度を示すパラメータに基づいて選択的に出力される。 In the first and second embodiments, an example will be described in which input image data is divided into a plurality of small area data, and a fluctuation correction method is changed based on a parameter indicating the intensity of atmospheric fluctuation calculated for each of the small area data. did. In the present embodiment, an example will be described in which atmospheric turbulence correction is performed on the entire input image data by the same processing. The result of the atmospheric turbulence correction used at that time is selectively output based on a parameter indicating the degree of influence of the atmospheric turbulence calculated for the entire input image data.
本実施例の情報処理装置100は、図10に示すように、画像データ取得部1001、パラメータ算出部1003、位相推定精度判定部1004、画像分割部1002、第1の補正部1005、第2の補正部1006、画像結合部1007としての機能を有する。図10の各部は、図2の同一名称のブロックと同一の機能を有する。
As illustrated in FIG. 10, the
図11は、本実施例における処理の流れを示すフローチャートである。 FIG. 11 is a flowchart illustrating the flow of the process according to the present embodiment.
ステップS1101では、画像データ取得部1001が、処理対象である複数フレームからなる画像データを取得する。
In step S1101, the image
ステップS1102では、パラメータ算出部1003が、前記画像データ取得時の大気ゆらぎの強度を示すパラメータを算出する。図7あるいは図9で説明した処理では、画像データを分割した小領域データに対してゆらぎの強度を示すパラメータを算出したが、ここでは同様の処理を、前記入力画像データ全体に対して行う。他の方法として、大気ゆらぎの強度を示すパラメータをユーザが操作部110に入力してそれを用いるようにしても良い。別の方法として、前記画像データ取得時の気象条件(気温や風速など)の情報から算出するようにしても良い。
In step S1102, the
ステップS1103では、位相推定精度判定部1004が、スペックルイメージング処理における位相推定精度の判定を行う。ステップS1102で算出したパラメータが、予め算出した閾値より小さい場合に位相推定精度が高いと判定し、ステップS1104に進む。ステップS1102で算出したパラメータが、予め算出した閾値より大きい場合に位相推定精度が低いと判定し、ステップS1107に進む。
In step S1103, the phase estimation
ステップS1104では、画像分割部1002が、前記画像データを複数の小領域データに分割する。ここで複数の小領域データは重複が許容される。小領域データのサイズは、大気ゆらぎの影響が一定であるとみなせる範囲(アイソプラナティックパッチ)よりも小さいことが好ましい。次のステップS1105は、前記複数の小領域データそれぞれに対して行う。
In step S1104, the
ステップS1105では、第1の補正部1005が、スペックルイメージング処理によって前記小領域データからゆらぎ補正された小領域データを生成する。
In step S1105, the
ステップS1106では、ステップS1105で生成されたゆらぎ補正された小領域データを結合して、ゆらぎ補正された画像データを生成する。 In step S1106, the fluctuation-corrected small area data generated in step S1105 is combined to generate fluctuation-corrected image data.
ステップS1107では、第2の補正部が、スペックルイメージング処理とは異なる第2の補正処理によって前記画像データからゆらぎ補正された画像データを生成する。 In step S1107, the second correction unit generates image data subjected to fluctuation correction from the image data by a second correction process different from the speckle imaging process.
このように、第1の補正部による補正結果と第2の補正部による補正結果とが大気のゆらぎの影響度に応じて選択的に出力される。この結果、アーティファクトを抑制して高画質な出力画像データを得ることができる。 As described above, the correction result by the first correction unit and the correction result by the second correction unit are selectively output according to the degree of influence of atmospheric fluctuation. As a result, it is possible to obtain high-quality output image data while suppressing artifacts.
本実施例では、入力された画像に含まれるノイズの強度を示すパラメータを算出することで、良好なゆらぎ補正を実現する例を述べる。 In the present embodiment, an example will be described in which a parameter indicating the intensity of noise included in an input image is calculated to realize good fluctuation correction.
スペックルイメージング処理では、ノイズ強度が高い場合に位相推定精度が低下し、結果として再構成画像に特有のアーティファクトが生じて視認性を低下させてしまう。 In the speckle imaging process, when the noise intensity is high, the phase estimation accuracy is reduced, and as a result, a unique artifact is generated in the reconstructed image and visibility is reduced.
本実施例の構成は、実施例3と比較して、図10のパラメータ算出部1003が有する機能が異なる。図10のパラメータ算出部1003は、本実施例においては、図12に示すように撮影情報取得部1201、ノイズ強度算出部1202としての機能を有する。
The configuration of the present embodiment is different from the third embodiment in the function of the
本実施例の処理は、実施例3の処理と比較して、ステップS1102の処理内容が異なる。 The processing according to the present embodiment is different from the processing according to the third embodiment in the processing content of step S1102.
以下に、ステップS1102の処理の詳細を説明する。図13は、本実施例におけるパラメータ算出部1003が行う処理の流れを示すフローチャートである。
Hereinafter, details of the processing in step S1102 will be described. FIG. 13 is a flowchart illustrating a flow of a process performed by the
ステップS1301では、撮影情報取得部1201が処理対象である画像データ取得時の撮影情報を取得する。撮影情報には、ISO感度等のノイズ強度に影響を与える情報が含まれる。
In step S1301, the shooting
ステップS1302では、ノイズ強度算出部1202がノイズ強度を算出する。ノイズ強度を算出する方法としては、LUT(ルックアップテーブル)を参照する方法や、モデル式を適用する方法が挙げられる。
In step S1302, the
このように、ノイズの強度に応じて異なる処理でゆらぎ補正を行い、アーティファクトを抑制して高画質な出力画像を得ることができる。 As described above, it is possible to perform fluctuation correction by different processes according to the noise intensity, suppress artifacts, and obtain a high-quality output image.
(他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program and reads the program. This is the process to be performed.
100 情報処理装置
101 CPU
102 RAM
103 ROM
109 表示装置
201 画像データ取得部
202 画像分割部
203 パラメータ算出部
204 位相推定精度判定部
205 第1の補正部
206 第2の補正部
207 画像結合部
100
102 RAM
103 ROM
109
Claims (13)
前記出力手段は、前記複数のブロック単位で前記第一の補正結果と前記第二の補正結果を出力することを特徴とする請求項1に記載の画像処理装置。 The plurality of images are composed of a plurality of blocks,
The image processing apparatus according to claim 1, wherein the output unit outputs the first correction result and the second correction result in units of the plurality of blocks.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018120189A JP2020003885A (en) | 2018-06-25 | 2018-06-25 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018120189A JP2020003885A (en) | 2018-06-25 | 2018-06-25 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020003885A true JP2020003885A (en) | 2020-01-09 |
Family
ID=69099916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018120189A Pending JP2020003885A (en) | 2018-06-25 | 2018-06-25 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020003885A (en) |
-
2018
- 2018-06-25 JP JP2018120189A patent/JP2020003885A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9344636B2 (en) | Scene motion correction in fused image systems | |
KR102106537B1 (en) | Method for generating a High Dynamic Range image, device thereof, and system thereof | |
JP6485078B2 (en) | Image processing method and image processing apparatus | |
US9558534B2 (en) | Image processing apparatus, image processing method, and medium | |
JP5890547B2 (en) | Image processing device | |
US20110128422A1 (en) | Image capturing apparatus and image processing method | |
JP6598660B2 (en) | Image processing apparatus and image processing method | |
JP6293374B2 (en) | Image processing apparatus, image processing method, program, recording medium recording the same, video photographing apparatus, and video recording / reproducing apparatus | |
JP2010041064A (en) | Image processing unit, image processing method, and program | |
US10846839B2 (en) | Image processing apparatus, image processing method, and storage medium | |
KR20150145725A (en) | Method and apparatus for dynamic range expansion of ldr video sequence | |
JP2013192224A (en) | Method and apparatus for deblurring non-uniform motion blur using multi-frame including blurred image and noise image | |
JP2017050683A (en) | Image processor, imaging apparatus, and image processing method and program | |
JP7263149B2 (en) | Image processing device, image processing method, and program | |
KR20150024733A (en) | Device and Method for dewobbling | |
CN108885790B (en) | Processing images based on generated motion data | |
JP2012169701A (en) | Image processing device, image processing method, and program | |
JP2020003885A (en) | Image processing apparatus, image processing method, and program | |
JP2015177528A (en) | image processing apparatus, image processing method, and program | |
JP6386670B2 (en) | Image processing device | |
JP2019016865A (en) | Image processing device and image processing method | |
JP2021005324A (en) | Image processing apparatus, image processing method, and program | |
Tiwari et al. | A review on estimation of defocus blur from a single image | |
Palani et al. | ISNR measure on deblurred blind images using Weiner filter | |
JP2022069197A (en) | Image processing apparatus, method for controlling the same, and program |