JP2020003885A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2020003885A
JP2020003885A JP2018120189A JP2018120189A JP2020003885A JP 2020003885 A JP2020003885 A JP 2020003885A JP 2018120189 A JP2018120189 A JP 2018120189A JP 2018120189 A JP2018120189 A JP 2018120189A JP 2020003885 A JP2020003885 A JP 2020003885A
Authority
JP
Japan
Prior art keywords
correction
processing apparatus
image
image processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018120189A
Other languages
Japanese (ja)
Inventor
陽一 滝川
Yoichi Takigawa
陽一 滝川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018120189A priority Critical patent/JP2020003885A/en
Publication of JP2020003885A publication Critical patent/JP2020003885A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing apparatus, an image processing method, and a program that can obtain a result of fluctuation correction with less artifact even when fluctuation intensity is high or sensor noise is strong.SOLUTION: An information processing apparatus includes output means for outputting a first correction result of a plurality of image data by a first correction process and a second correction result of the plurality of image data obtained by a second correction process different from the first correction process based on an influence degree of fluctuation of the plurality of image data having image quality deteriorated by influence of the atmospheric fluctuation.SELECTED DRAWING: Figure 2

Description

本発明は画像における大気ゆらぎの影響を低減する方法に関する。   The present invention relates to a method for reducing the effects of atmospheric turbulence in an image.

従来、監視カメラシステムなどにおいて、大気ゆらぎに起因する画像の劣化を補正する技術(以降ではゆらぎ補正と呼ぶ)が用いられている。ここで大気ゆらぎとは、大気の乱流や温度差により屈折率が空間的および時間的に変化する自然現象を指す。また、大気ゆらぎは陽炎とも呼ばれる。大気ゆらぎは光の屈折や位相のばらつきを引き起こし、その結果として特に望遠レンズで遠方を撮影した場合に、被写体の像に時間的に変化するぼけと歪み(以降ではゆらぎと呼ぶ)が発生する。このような画像の劣化は、被写体の視認性を大きく低下させるため、除去されることが望ましい。   2. Description of the Related Art Conventionally, in a surveillance camera system and the like, a technique for correcting image degradation due to atmospheric turbulence (hereinafter referred to as fluctuation correction) has been used. Here, atmospheric fluctuation refers to a natural phenomenon in which the refractive index changes spatially and temporally due to atmospheric turbulence and temperature differences. Atmospheric fluctuations are also called heat haze. Atmospheric fluctuations cause variations in the refraction and phase of light, and as a result, blurring and distortion (hereinafter referred to as fluctuations) that temporally change occur in an image of a subject, particularly when a distant image is taken with a telephoto lens. It is desirable that such deterioration of the image be removed because it greatly reduces the visibility of the subject.

このような課題に対し、複数フレームの画像からぼけと歪みを同時に低減した画像を生成する技術として、スペックルイメージングが知られている。以降の説明では、動画像を構成する時系列に並んだ画像データをフレームと呼ぶ。スペックルイメージングは元来天文分野で開発された手法であり、再構成画像のフーリエスペクトルの振幅成分と位相成分を独立に推定する。振幅成分は、入力フレームのパワースペクトルの平均を算出し、これに対し撮像装置の光学系の光学伝達関数に基づいて決定された高周波成分を増幅するフィルタをかけることで推定される。一方位相成分は、入力画像のバイスペクトラムに基づき、低周波成分の既知の位相値を用いて高周波成分の位相値を逐次的に推定していく。特許文献1では、スペックルイメージングをゆらぎ補正に応用する方法が開示されている。   In order to solve such a problem, speckle imaging is known as a technique for generating an image in which blur and distortion are simultaneously reduced from images of a plurality of frames. In the following description, the image data that forms a moving image and is arranged in time series is called a frame. Speckle imaging is a technique originally developed in the field of astronomy, and independently estimates the amplitude component and the phase component of the Fourier spectrum of a reconstructed image. The amplitude component is estimated by calculating the average of the power spectrum of the input frame and applying a filter to amplify the high-frequency component determined based on the optical transfer function of the optical system of the imaging apparatus. On the other hand, as for the phase component, the phase value of the high-frequency component is sequentially estimated using the known phase value of the low-frequency component based on the bispectrum of the input image. Patent Literature 1 discloses a method of applying speckle imaging to fluctuation correction.

米国特許7245742号U.S. Pat. No. 7,245,742

しかしながら、従来技術はゆらぎ強度が高い場合やセンサノイズが強い場合などに位相推定精度が低下し、結果として再構成画像に特有のアーティファクトが生じて視認性を低下させるという課題があった。   However, the prior art has a problem that the phase estimation accuracy is reduced when the fluctuation intensity is high or the sensor noise is strong, and as a result, an artifact specific to the reconstructed image is generated, and the visibility is reduced.

上述の課題を解決するために、本発明の画像処理装置は、大気のゆらぎの影響により画質が劣化した複数の画像データのゆらぎの影響度に基づいて、第一の補正処理による前記複数の画像データの第一の補正結果と、前記第一の補正処理とは異なる第二の補正処理による前記複数の画像データの第二の補正結果とを出力する出力手段を有する。   In order to solve the above-described problem, the image processing apparatus according to the present invention is configured such that the plurality of images obtained by the first correction process are based on the influence of the fluctuation of a plurality of image data whose image quality has deteriorated due to the fluctuation of the atmosphere. Output means for outputting a first correction result of the data and a second correction result of the plurality of image data by a second correction process different from the first correction process.

ゆらぎ強度が高い場合やセンサノイズが強い場合でも、アーティファクトの少ないゆらぎ補正の結果を得ることができる。   Even when the fluctuation intensity is high or the sensor noise is high, it is possible to obtain a fluctuation correction result with less artifact.

実施例1の装置の構成を示す概略図。FIG. 1 is a schematic diagram illustrating a configuration of an apparatus according to a first embodiment. 実施例1の情報処理装置の構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of the information processing apparatus according to the first embodiment. 実施例1のパラメータ算出部の構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of a parameter calculation unit according to the first embodiment. 実施例2のパラメータ算出部の構成を示すブロック図。FIG. 9 is a block diagram illustrating a configuration of a parameter calculation unit according to the second embodiment. 実施例1の第1の補正部の構成を示すブロック図。FIG. 3 is a block diagram illustrating a configuration of a first correction unit according to the first embodiment. 実施例1の情報処理装置の処理の流れを示すフローチャート。5 is a flowchart illustrating a flow of a process performed by the information processing apparatus according to the first embodiment. 実施例1のパラメータ算出部が行う処理の流れを示すフローチャート。5 is a flowchart illustrating a flow of a process performed by a parameter calculation unit according to the first embodiment. 実施例1の第1の補正部が行う処理の流れを示すフローチャート。9 is a flowchart illustrating a flow of a process performed by a first correction unit according to the first embodiment. 実施例2のパラメータ算出部が行う処理の流れを示すフローチャート。9 is a flowchart illustrating a flow of a process performed by a parameter calculation unit according to the second embodiment. 実施例3の情報処理装置の構成を示すブロック図。FIG. 9 is a block diagram illustrating a configuration of an information processing apparatus according to a third embodiment. 実施例3の情報処理装置の処理の流れを示すフローチャート。13 is a flowchart illustrating a flow of a process performed by the information processing apparatus according to the third embodiment. 実施例4のパラメータ算出部の構成を示すブロック図。FIG. 13 is a block diagram illustrating a configuration of a parameter calculation unit according to a fourth embodiment. 実施例4のパラメータ算出部が行う処理の流れを示すフローチャート。15 is a flowchart illustrating the flow of a process performed by a parameter calculation unit according to the fourth embodiment. 実施例1の情報処理装置の構成を示す別のブロック図。FIG. 2 is another block diagram illustrating the configuration of the information processing apparatus according to the first embodiment.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the following embodiments do not limit the present invention, and not all combinations of the features described in the present embodiments are necessarily essential to the solution of the present invention. The same components will be described with the same reference numerals.

本実施例では、入力された画像データから、大気ゆらぎの強度を示すパラメータとして面内の変位量の不均一さ(ばらつき)を算出することで、良好なゆらぎ補正を実現する例を述べる。まず、本実施例の情報処理装置(画像処理装置)の構成を説明する。   In the present embodiment, an example will be described in which a non-uniformity (variation) of an in-plane displacement amount is calculated from input image data as a parameter indicating the intensity of atmospheric fluctuation, thereby achieving good fluctuation correction. First, the configuration of the information processing apparatus (image processing apparatus) according to the present embodiment will be described.

図1は、本実施例の情報処理装置の構成の一例を示す図である。本実施例の情報処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース105、出力インターフェース106を含む。情報処理装置100の各構成要素はシステムバス107によって相互に接続されている。また、情報処理装置100は、入力インターフェース105を介して外部記憶装置108および操作部110に接続されている。また、情報処理装置100は、出力インターフェース106を介して外部記憶装置108および表示装置109に接続されている。   FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus according to the present embodiment. The information processing apparatus 100 according to the present embodiment includes a CPU 101, a RAM 102, a ROM 103, a secondary storage device 104, an input interface 105, and an output interface 106. The components of the information processing apparatus 100 are mutually connected by a system bus 107. Further, the information processing apparatus 100 is connected to the external storage device 108 and the operation unit 110 via the input interface 105. Further, the information processing apparatus 100 is connected to an external storage device 108 and a display device 109 via an output interface 106.

CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス107を介して情報処理装置100の各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。二次記憶装置104は、情報処理装置100で取り扱われる種々のデータを記憶する記憶装置であり、本実施例ではHDDが用いられる。CPU101は、システムバス107を介して二次記憶装置104へのデータの書き込みおよび二次記憶装置104に記憶されたデータの読出しを行う。なお、二次記憶装置104にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。   The CPU 101 executes a program stored in the ROM 103 using the RAM 102 as a work memory, and comprehensively controls each component of the information processing apparatus 100 via the system bus 107. Thereby, various processes described later are executed. The secondary storage device 104 is a storage device that stores various data handled by the information processing device 100, and in this embodiment, an HDD is used. The CPU 101 writes data into the secondary storage device 104 via the system bus 107 and reads data stored in the secondary storage device 104. Various storage devices such as an optical disk drive and a flash memory can be used for the secondary storage device 104 in addition to the HDD.

入力インターフェース105は、例えばUSBやIEEE1394等のシリアルバスインターフェースである。情報処理装置100は、入力インターフェース105を介して、外部装置からデータや命令等を入力する。本実施例では、情報処理装置100は、入力インターフェース105を介して、外部記憶装置108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。また本実施例では、情報処理装置100は、操作部110に入力されたユーザの指示を、入力インターフェース105を介して取得する。操作部110は、マウスやキーボードなどの入力装置であり、ユーザの指示を入力する。   The input interface 105 is, for example, a serial bus interface such as USB or IEEE1394. The information processing apparatus 100 inputs data, commands, and the like from an external device via the input interface 105. In the present embodiment, the information processing apparatus 100 acquires data from the external storage device 108 (for example, a storage medium such as a hard disk, a memory card, a CF card, an SD card, or a USB memory) via the input interface 105. In the present embodiment, the information processing apparatus 100 acquires a user instruction input to the operation unit 110 via the input interface 105. The operation unit 110 is an input device such as a mouse or a keyboard, and inputs a user's instruction.

出力インターフェース106は、入力インターフェース105と同様にUSBやIEEE1394等のシリアルバスインターフェースである。なお、出力インターフェース106は、例えばDVIやHDMI(登録商標)等の映像出力端子であってもよい。情報処理装置100は、出力インターフェース106を介して、外部装置にデータ等を出力する。本実施例では、情報処理装置100は、出力インターフェース106を介して表示装置109(液晶ディスプレイなどの各種画像表示デバイス)に、CPU101によって処理されたデータ(例えば、画像データ)を出力する。なお、情報処理装置100の構成要素は上記以外にも存在するが、本実施例の主眼ではないため、説明を省略する。   The output interface 106 is a serial bus interface such as USB or IEEE1394, like the input interface 105. The output interface 106 may be a video output terminal such as DVI or HDMI (registered trademark). The information processing device 100 outputs data and the like to an external device via the output interface 106. In this embodiment, the information processing apparatus 100 outputs data (for example, image data) processed by the CPU 101 to the display device 109 (various image display devices such as a liquid crystal display) via the output interface 106. Although the components of the information processing apparatus 100 are present in addition to those described above, they are not the main focus of the present embodiment, and a description thereof will be omitted.

図2は、本実施例による情報処理装置の機能ブロック図である。情報処理装置100は、図2に示すように、画像データ取得部201、画像分割部202、パラメータ算出部203、位相推定精度判定部204、第1の補正部205、第2の補正部206、画像結合部207としての機能を有する。   FIG. 2 is a functional block diagram of the information processing apparatus according to the present embodiment. As shown in FIG. 2, the information processing apparatus 100 includes an image data acquisition unit 201, an image division unit 202, a parameter calculation unit 203, a phase estimation accuracy determination unit 204, a first correction unit 205, a second correction unit 206, It has a function as the image combining unit 207.

また、パラメータ算出部203は、本実施例においては図3に示すように動きベクトル算出部301、ばらつき302部としての機能を有する。   Further, in this embodiment, the parameter calculation unit 203 has functions as a motion vector calculation unit 301 and a variation 302 unit as shown in FIG.

また、第1の補正部205は、図5に示すように、前処理部501、フーリエ変換部502、バイスペクトラム算出部503、位相推定部504、平均パワースペクトル算出部505、振幅推定部506、画像合成部507としての機能を有する。   As shown in FIG. 5, the first correction unit 205 includes a preprocessing unit 501, a Fourier transform unit 502, a bispectrum calculation unit 503, a phase estimation unit 504, an average power spectrum calculation unit 505, an amplitude estimation unit 506, It has a function as an image synthesizing unit 507.

上記各部の機能は、CPU101がROM103内に格納された制御プログラムを読み込み実行することで実現される。なお、各部に相当する専用の処理回路を備えるように情報処理装置100を構成するようにしてもよい。以下、各部により行われる処理の流れを説明する。   The functions of the above components are realized by the CPU 101 reading and executing a control program stored in the ROM 103. The information processing device 100 may be configured to include a dedicated processing circuit corresponding to each unit. Hereinafter, the flow of processing performed by each unit will be described.

以下、各部により行われる処理の流れを説明する。ゆらぎ補正を行う手法として、「スペックルイメージング処理」が知られている。この処理は、他に知られている処理(例えば「ブラインド・デコンボリューション処理」や「平均化処理(前後の複数フレームを平均し、フィルタ処理でエッジ強調)」など)と比較してボケや歪みを良好に補正することができる。しかしながら、ゆらぎ強度が高い場合やセンサノイズが強い場合に位相推定精度が低下し、結果として再構成画像に特有のアーティファクトが生じて視認性を低下させてしまう。そこで本実施例では、位相推定精度が高いと判定される場合にスペックルイメージング処理でゆらぎ補正を行い、そうでない場合に他の処理(例えば「ブラインド・デコンボリューション処理」や「平均化処理」など)を用いてゆらぎ補正を行う。   Hereinafter, the flow of processing performed by each unit will be described. As a method of performing the fluctuation correction, a “speckle imaging process” is known. This processing is compared with other known processing (for example, "blind deconvolution processing" or "averaging processing (averaging the preceding and following frames, and filtering to enhance the edge)"). Can be satisfactorily corrected. However, when the fluctuation intensity is high or the sensor noise is high, the phase estimation accuracy is reduced, and as a result, an artifact peculiar to the reconstructed image is generated and visibility is reduced. Therefore, in this embodiment, when it is determined that the phase estimation accuracy is high, the fluctuation is corrected by the speckle imaging process, and when not, other processes (for example, “blind deconvolution process”, “averaging process”, etc.) ) To perform the fluctuation correction.

図6は、本実施例における処理の流れを示すフローチャートである。   FIG. 6 is a flowchart illustrating the flow of the process according to the present embodiment.

ステップS601では、画像データ取得部201が、処理対象である複数フレームからなる画像データを取得する。   In step S601, the image data obtaining unit 201 obtains image data including a plurality of frames to be processed.

ステップS602では、画像分割部202が、前記画像データを複数の小領域データ(ブロックデータ)に分割する。ここで複数の小領域データは重複が許容される。小領域データのサイズは、大気ゆらぎの影響が一定であるとみなせる範囲(アイソプラナティックパッチ)よりも小さいことが好ましい。以降のステップS603、ステップS604、ステップS605a/bは、ブロック単位で小領域データそれぞれに対して行う。   In step S602, the image dividing unit 202 divides the image data into a plurality of small area data (block data). Here, duplication of the plurality of small area data is allowed. The size of the small area data is preferably smaller than a range (isoplanatic patch) in which the influence of atmospheric turbulence can be considered to be constant. Subsequent steps S603, S604, and S605a / b are performed for each of the small area data in block units.

ステップS603では、パラメータ算出部203が、前記画像データ取得時の大気ゆらぎの強度を示すパラメータを算出する。処理の詳細は後述する。   In step S603, the parameter calculation unit 203 calculates a parameter indicating the intensity of atmospheric turbulence at the time of acquiring the image data. Details of the processing will be described later.

ステップS604では、位相推定精度判定部204が、後述するスペックルイメージング処理における位相推定精度の判定を行う。ステップS603で算出したパラメータが、予め算出した閾値より小さい場合に位相推定精度が高いと判定し、ステップS605aに進む。ステップS603で算出したパラメータが、予め算出した閾値より大きい場合に位相推定精度が低いと判定し、ステップS605bに進む。   In step S604, the phase estimation accuracy determination unit 204 determines the phase estimation accuracy in speckle imaging processing described later. When the parameter calculated in step S603 is smaller than the threshold value calculated in advance, it is determined that the phase estimation accuracy is high, and the process proceeds to step S605a. When the parameter calculated in step S603 is larger than the threshold calculated in advance, it is determined that the phase estimation accuracy is low, and the process proceeds to step S605b.

ステップS605aでは、第1の補正部が、スペックルイメージング処理によって前記小領域データからゆらぎ補正された小領域データを生成する。処理の詳細は後述する。   In step S605a, the first correction unit generates small area data in which fluctuation has been corrected from the small area data by speckle imaging processing. Details of the processing will be described later.

ステップS605bでは、第2の補正部が、スペックルイメージング処理とは異なる第2の補正処理によって前記小領域データからゆらぎ補正された小領域データを生成する。   In step S605b, the second correction unit generates small area data in which fluctuation has been corrected from the small area data by a second correction process different from the speckle imaging process.

ステップS606では、ステップS605a/bで生成されたゆらぎ補正された小領域データを結合して、ゆらぎ補正された画像データを生成する。   In step S606, the fluctuation-corrected small area data generated in step S605a / b is combined to generate fluctuation-corrected image data.

このように、大気ゆらぎの強度に応じて異なる処理でゆらぎ補正を行い、アーティファクトを抑制して高画質な出力画像を得ることが本実施例の特徴である。   As described above, it is a feature of the present embodiment that fluctuation correction is performed by different processes according to the intensity of atmospheric fluctuation to suppress artifacts and obtain a high-quality output image.

次に、ステップS603の処理の詳細を説明する。図7は、本実施例におけるパラメータ算出部203が行う処理の流れを示すフローチャートである。大気ゆらぎの影響として、画像には局所的な変位が発生する。本処理では、この変位を評価して前記パラメータを算出する。このとき、大気ゆらぎと同じく画像に変位をもたらす「カメラのブレ」や「被写体の動き」と区別して評価する必要がある。そこで、大気ゆらぎに特有の「変位の方向や量が面内で不均一である」という性質に着目し、面内の変位量の不均一さ(ばらつき)を評価する。   Next, details of the processing in step S603 will be described. FIG. 7 is a flowchart illustrating a flow of a process performed by the parameter calculation unit 203 according to the present embodiment. As an effect of atmospheric turbulence, a local displacement occurs in the image. In this processing, the displacement is evaluated to calculate the parameter. At this time, it is necessary to evaluate separately from “camera shake” and “subject movement” that cause displacement of the image as in the case of atmospheric turbulence. Therefore, the non-uniformity (variation) of the displacement amount in the plane is evaluated by paying attention to the property that the direction and amount of displacement are non-uniform in the plane, which is characteristic of atmospheric turbulence.

ステップS701では、小領域データ内の複数点(n個)に対して、動きベクトルを算出する。   In step S701, a motion vector is calculated for a plurality of points (n) in the small area data.

ステップS702では、前記動きベクトルのばらつき(大気ゆらぎ強度B、ゆらぎの影響度)を算出する。n個の動きベクトル   In step S702, the variation of the motion vector (atmospheric fluctuation intensity B, degree of fluctuation influence) is calculated. n motion vectors

Figure 2020003885
Figure 2020003885

に対して、大気ゆらぎ強度Bは、 Against, atmospheric turbulence intensity B 1 is,

Figure 2020003885
Figure 2020003885

のように算出することができる。ここで Can be calculated as follows. here

Figure 2020003885
Figure 2020003885

Is

Figure 2020003885
Figure 2020003885

の平均ベクトルであり、||はベクトルの絶対値を示す。 Mean vector, and || indicates the absolute value of the vector.

以上の処理により、画像データに基づき大気ゆらぎの強度を示すパラメータBを算出することができる。 By the above processing, the parameter B 1 showing the strength of atmospheric turbulence on the basis of the image data can be calculated.

ステップS604では、この大気ゆらぎ強度Bが、あらかじめ定めた閾値Bthより小さい場合にはスペックルイメージング処理における位相推定精度が高いと判定し、ステップS605aに進む。一方で大気ゆらぎ強度Bが、閾値Bthより大きい場合にはスペックルイメージング処理における位相推定精度が低いと判定し、ステップS605bに進む。 At step S604, the the atmospheric turbulence intensity B 1 is, determines that a high phase estimation accuracy in speckle imaging process when a predetermined threshold value B th smaller, the process proceeds to step S605a. Meanwhile atmospheric turbulence intensity B 1 is, determines that the low phase estimation accuracy in speckle imaging process when the threshold B th greater, the process proceeds to step S605b.

次に、ステップS605aの処理の詳細を説明する。図8は、第1の補正部が行うスペックルイメージング処理の流れを示すフローチャートである。   Next, details of the processing in step S605a will be described. FIG. 8 is a flowchart illustrating the flow of the speckle imaging process performed by the first correction unit.

ステップS801では、前処理部501が、小領域データの各々に対し前処理を行う。前処理は、不良画素処理、位置合わせ、輝度傾斜補正、アポダイゼーションのいずれかを含む。不良画素処理は、光学系に存在する塵や撮像素子の画素の欠陥により正常な値を持たない画素を事前に検出しておき、撮像後に当該画素の値を周辺画素の値の平均値などで置き換える処理である。位置合わせは、撮像装置の振動などによりフレーム間で位置ずれが発生する場合に、ある基準フレームに対する各フレームの位置ずれを推定し、各フレームの位置ずれを補正する。位置ずれが平行移動に限定されると仮定すれば、位置ずれの推定にはフーリエ相関法などの既存の方法を用いることができる。輝度傾斜補正は、各小領域データの輝度分布に対し1次平面をフィッティングし、それを各画素の輝度値から差し引く処理である。1次平面は傾き0に限定してもよく、その場合は小領域データの平均輝度値を差し引くことになる。アポダイゼーションは、小領域データごとに画像処理を行った結果を統合する際に境界で発生する不整合を抑制する目的で、小領域データに窓関数をかける。以上の処理は全てが必ずしも実行される必要はなく、必要な処理だけが実行されればよい。   In step S801, the preprocessing unit 501 performs preprocessing on each of the small area data. The pre-processing includes any of defective pixel processing, alignment, luminance inclination correction, and apodization. In the defective pixel processing, a pixel that does not have a normal value due to dust existing in the optical system or a defect of the pixel of the image sensor is detected in advance, and the value of the pixel is determined by an average value of values of peripheral pixels after imaging. This is the replacement process. In the alignment, when a positional shift occurs between frames due to vibration of the imaging apparatus or the like, the positional shift of each frame with respect to a certain reference frame is estimated, and the positional shift of each frame is corrected. Assuming that the displacement is limited to translation, an existing method such as Fourier correlation can be used to estimate the displacement. The luminance gradient correction is a process of fitting a primary plane to the luminance distribution of each small area data and subtracting the primary plane from the luminance value of each pixel. The primary plane may be limited to the inclination 0, in which case the average luminance value of the small area data is subtracted. In the apodization, a window function is applied to the small area data in order to suppress inconsistency that occurs at the boundary when integrating the results of image processing for each small area data. Not all of the above processes need to be executed, and only the necessary processes need to be executed.

ステップS802では、フーリエ変換部502が、小領域データの各フレームに対してフーリエ変換を行ってフーリエスペクトルを生成する。   In step S802, the Fourier transform unit 502 performs a Fourier transform on each frame of the small area data to generate a Fourier spectrum.

ステップS803では、バイスペクトラム算出部503が、ステップS802で得られたフーリエスペクトルを用いて、小領域データの各々に対応したバイスペクトラムデータを生成する。nフレーム目の小領域データのフーリエスペクトルIからバイスペクトラムIB,nは数式5によって定義される。 In step S803, the bi-spectrum calculation unit 503 generates bi-spectrum data corresponding to each of the small area data using the Fourier spectrum obtained in step S802. n th frame of the Fourier spectrum I by the n spectrum I B of small area data, n represents is defined by Equation 5.

Figure 2020003885
Figure 2020003885

ここで、u、vはそれぞれ周波数平面上の座標を表す2次元のデータである。フーリエスペクトルが2次元のデータであるのに対し、バイスペクトラムは4次元のデータである。   Here, u and v are two-dimensional data representing coordinates on the frequency plane, respectively. The Fourier spectrum is two-dimensional data, while the bi-spectrum is four-dimensional data.

ステップS804では、位相推定部504が、前記バイスペクトラムデータを用いて、出力画像のフーリエスペクトルOの位相を推定する。特許文献1に示されている通り、この位相は数式6によって決定される。   In step S804, the phase estimating unit 504 estimates the phase of the Fourier spectrum O of the output image using the bi-spectrum data. As shown in Patent Document 1, this phase is determined by Expression 6.

Figure 2020003885
Figure 2020003885

ここで、<>は複数フレームにわたる平均を表す。数式6によると、周波数平面上の(0,0)、(1,0)、(0,1)の3点における位相を初期位相として予め決めておけば、逐次的に任意の座標における位相を決定することができる。この3点の位相として、例えば複数フレームを平均した小領域データのフーリエスペクトルの位相の値を用いる。初期位相は周波数平面上の4点以上に対して定めるようにしても良い。   Here, <> represents an average over a plurality of frames. According to Equation 6, if the phases at three points (0, 0), (1, 0), and (0, 1) on the frequency plane are determined in advance as initial phases, the phases at arbitrary coordinates are sequentially determined. Can be determined. As the phases of these three points, for example, the value of the phase of the Fourier spectrum of the small area data obtained by averaging a plurality of frames is used. The initial phase may be determined for four or more points on the frequency plane.

ステップS805では、平均パワースペクトル算出部505が、複数フレームの小領域データのパワースペクトルの平均を算出する。   In step S805, the average power spectrum calculation unit 505 calculates the average of the power spectra of the small area data of a plurality of frames.

ステップS806では、振幅推定部506が、ステップS805で得られた平均パワースペクトルAを用いて、出力画像のフーリエスペクトルの振幅を推定する。具体的には、例えば参考文献1に示されているように、数式7に従い算出される。   In step S806, the amplitude estimating unit 506 estimates the amplitude of the Fourier spectrum of the output image using the average power spectrum A obtained in step S805. Specifically, for example, as shown in Reference Document 1, it is calculated according to Equation 7.

Figure 2020003885
Figure 2020003885

ここで、Tは撮像装置の光学伝達関数、Sはスペックル伝達関数である。Tは、予め大気ゆらぎなどの外乱がない状態で点光源を撮像して求めてもよいし、モデルを用いて数値計算によって求めてもよい。Sは大気ゆらぎに起因する画像の劣化を表現する関数であり、予め計測してデータを保持しても良いし、モデルを用いて数値計算によって求めても良い。また、大気ゆらぎの強度に応じて異なる複数の計測データやモデルを保持しておき、ステップS603で算出した大気ゆらぎの強度を示すパラメータに基づいて選択して用いるようにしても良い。   Here, T is an optical transfer function of the imaging device, and S is a speckle transfer function. T may be obtained by imaging a point light source in a state where there is no disturbance such as atmospheric turbulence in advance, or may be obtained by numerical calculation using a model. S is a function that expresses the deterioration of an image due to atmospheric turbulence, and may be measured in advance and stored, or may be obtained by numerical calculation using a model. Alternatively, a plurality of measurement data and models different depending on the intensity of the atmospheric turbulence may be stored, and selected and used based on the parameter indicating the intensity of the atmospheric variability calculated in step S603.

ステップS807では、画像合成部507が、出力画像のフーリエスペクトルOの位相と振幅を統合し、逆フーリエ変換によって出力画像を生成し、合成画像データを出力する。   In step S807, the image synthesis unit 507 integrates the phase and amplitude of the Fourier spectrum O of the output image, generates an output image by inverse Fourier transform, and outputs synthesized image data.

以上のスペックルイメージング処理により、大気ゆらぎの影響による画質が劣化した画像に対して画質を向上させる補正を行うことができる。このスペックルイメージング処理によれば高画質化が可能である一方で、大気ゆらぎの強度が高い場合やセンサノイズが強い場合に特有のアーティファクトが生じ視認性が低下するというデメリットがあった。   Through the above-described speckle imaging processing, it is possible to perform correction for improving image quality on an image whose image quality has been degraded due to the influence of atmospheric turbulence. According to this speckle imaging processing, while high image quality can be achieved, there is a demerit that when the intensity of atmospheric turbulence is high or sensor noise is strong, a specific artifact occurs and visibility is reduced.

一方で、第2の補正部204による補正処理である「ブラインド・デコンボリューション処理」や「平均化処理」によっても大気ゆらぎの影響を低減し高画質な画像を出力することができる。この第2の補正部204による補正は、第1の補正部205による補正よりも高画質化は図れないが、大気ゆらぎの強度が高い場合やセンサノイズが強い場合であっても安定した画質の画像を出力できる。   On the other hand, the effects of atmospheric turbulence can be reduced and a high-quality image can be output even by “blind deconvolution processing” or “averaging processing” that is correction processing by the second correction unit 204. The correction performed by the second correction unit 204 cannot achieve higher image quality than the correction performed by the first correction unit 205. However, even when the intensity of atmospheric turbulence is high or the sensor noise is strong, stable image quality is obtained. Images can be output.

以下、ステップS606の処理の詳細を説明する。ステップS606において画像結合部207は、第1の補正部205により出力された第1の補正結果と第2の補正部206により出力された第2の補正結果を取得する。画像結合部207は、小領域単位で受領される補正結果を結合することにより、最終的な画像データを出力する。   Hereinafter, the details of the processing in step S606 will be described. In step S606, the image combining unit 207 acquires the first correction result output from the first correction unit 205 and the second correction result output from the second correction unit 206. The image combining unit 207 outputs final image data by combining the correction results received in small area units.

以上、本実施例によれば、位相推定精度判定部204の判定により、画質向上とアーティファクト低減との二つの効果を適宜得ることができる。   As described above, according to the present embodiment, two effects of image quality improvement and artifact reduction can be appropriately obtained by the determination of the phase estimation accuracy determination unit 204.

なお、上述の実施例では位相推定精度判定部204の結果により、第1の補正部205及び第2の補正部の何れか一方のみが補正処理するとした。一方で図14に示す通り位相推定精度判定部1404の結果に関わらず第1の補正部1405及び第2の補正部1406による補正処理を行うことも可能である。位相推定精度判定部1404の判定結果は、第1の補正結果と第2の補正結果のいずれを採用するかに使用される。   In the above-described embodiment, only one of the first correction unit 205 and the second correction unit performs the correction process based on the result of the phase estimation accuracy determination unit 204. On the other hand, as shown in FIG. 14, it is possible to perform the correction processing by the first correction unit 1405 and the second correction unit 1406 regardless of the result of the phase estimation accuracy determination unit 1404. The determination result of the phase estimation accuracy determination unit 1404 is used to determine which of the first correction result and the second correction result is adopted.

更に、第1の補正結果と第2の補正結果を位相推定精度判定部の判定結果に基づいて「合成」することも可能である。たとえば、大気ゆらぎ強度Bを重み係数として第1の補正結果と第2の補正結果を重み付加算することにより、より適切な補正結果を得られる。 Further, the first correction result and the second correction result can be "combined" based on the determination result of the phase estimation accuracy determination unit. For example, by adding a weighted first correction result and the second correction results atmospheric turbulence intensity B 1 as the weighting coefficient, to obtain a more appropriate correction result.

本実施例では、入力された画像データから、大気ゆらぎの強度を示すパラメータとして変位量の時間変化を算出することで、良好なゆらぎ補正を実現する例を述べる。   In the present embodiment, an example will be described in which good fluctuation correction is realized by calculating a temporal change of a displacement amount as a parameter indicating the intensity of atmospheric fluctuation from input image data.

本実施例の構成は、実施例1と比較して、図2のパラメータ算出部203が有する機能が異なる。図2のパラメータ算出部203は、本実施例においては、図4に示すように動きベクトル算出部401、時間変化算出部402としての機能を有する。   The configuration of the present embodiment is different from the first embodiment in the function of the parameter calculation unit 203 in FIG. In this embodiment, the parameter calculation unit 203 in FIG. 2 has functions as a motion vector calculation unit 401 and a time change calculation unit 402, as shown in FIG.

本実施例の処理は、実施例1の処理と比較して、ステップS603の処理内容が異なる。   The processing of the present embodiment is different from the processing of the first embodiment in the processing content of step S603.

以下に、ステップS603の処理の詳細を説明する。図9は、本実施例のステップS603においてパラメータ算出部203が行う処理の流れを示すフローチャートである。大気ゆらぎの影響として、画像には局所的な変位が発生する。本処理では、この変位を評価して前記パラメータを算出する。このとき、大気ゆらぎと同じく画像に変位をもたらす「カメラのブレ」や「被写体の動き」と区別して評価する必要がある。そこで、大気ゆらぎに特有の「変位の方向や量の時間変化が大きい」という性質に着目し、面内の変位量の時間変化を評価する。   The details of the process in step S603 will be described below. FIG. 9 is a flowchart illustrating a flow of a process performed by the parameter calculation unit 203 in step S603 of the present embodiment. As an effect of atmospheric turbulence, a local displacement occurs in the image. In this processing, the displacement is evaluated to calculate the parameter. At this time, it is necessary to evaluate separately from “camera shake” and “subject movement” that cause displacement of the image as in the case of atmospheric turbulence. Therefore, attention is paid to the characteristic that the time change of the direction and amount of displacement is large, which is peculiar to atmospheric turbulence, and the time change of the amount of displacement in the plane is evaluated.

ステップS901では、小領域データ内の複数フレームに対して、動きベクトルを算出する。   In step S901, a motion vector is calculated for a plurality of frames in the small area data.

ステップS902では、前記動きベクトルの時間変化を算出する。kフレームに対する動きベクトル   In step S902, a time change of the motion vector is calculated. motion vector for k frames

Figure 2020003885
Figure 2020003885

に対して、時間変化Bは例えば、 Respect, time variation B 2, for example,

Figure 2020003885
Figure 2020003885

のように算出することができる。ここで、<>は複数フレームにわたる平均を表す。また、||はベクトルの絶対値を示す。小領域データ内の複数点で上記動きベクトルの時間変化を算出し、その統計量(平均値や中央値など)を算出するようにしても良い。 Can be calculated as follows. Here, <> represents an average over a plurality of frames. || indicates the absolute value of the vector. The temporal change of the motion vector may be calculated at a plurality of points in the small area data, and the statistic (such as an average value or a median value) may be calculated.

以上の処理により、画像データに基づき大気ゆらぎの強度を示すパラメータを算出することができる。   Through the above processing, a parameter indicating the intensity of atmospheric turbulence can be calculated based on the image data.

実施例1および2では、入力画像データを複数の小領域データに分割し、それぞれの小領域データに対して算出される大気ゆらぎの強度を示すパラメータに基づいてゆらぎ補正方法を異ならせる例を説明した。本実施例では、入力画像データ全体に対して同一の処理で大気ゆらぎ補正を行う例を説明する。その際に用いる大気ゆらぎ補正の結果は、入力画像データ全体に対して算出される大気ゆらぎの影響度を示すパラメータに基づいて選択的に出力される。   In the first and second embodiments, an example will be described in which input image data is divided into a plurality of small area data, and a fluctuation correction method is changed based on a parameter indicating the intensity of atmospheric fluctuation calculated for each of the small area data. did. In the present embodiment, an example will be described in which atmospheric turbulence correction is performed on the entire input image data by the same processing. The result of the atmospheric turbulence correction used at that time is selectively output based on a parameter indicating the degree of influence of the atmospheric turbulence calculated for the entire input image data.

本実施例の情報処理装置100は、図10に示すように、画像データ取得部1001、パラメータ算出部1003、位相推定精度判定部1004、画像分割部1002、第1の補正部1005、第2の補正部1006、画像結合部1007としての機能を有する。図10の各部は、図2の同一名称のブロックと同一の機能を有する。   As illustrated in FIG. 10, the information processing apparatus 100 according to the present exemplary embodiment includes an image data acquisition unit 1001, a parameter calculation unit 1003, a phase estimation accuracy determination unit 1004, an image division unit 1002, a first correction unit 1005, and a second It has a function as a correction unit 1006 and an image combination unit 1007. Each unit in FIG. 10 has the same function as the block with the same name in FIG.

図11は、本実施例における処理の流れを示すフローチャートである。   FIG. 11 is a flowchart illustrating the flow of the process according to the present embodiment.

ステップS1101では、画像データ取得部1001が、処理対象である複数フレームからなる画像データを取得する。   In step S1101, the image data obtaining unit 1001 obtains image data including a plurality of frames to be processed.

ステップS1102では、パラメータ算出部1003が、前記画像データ取得時の大気ゆらぎの強度を示すパラメータを算出する。図7あるいは図9で説明した処理では、画像データを分割した小領域データに対してゆらぎの強度を示すパラメータを算出したが、ここでは同様の処理を、前記入力画像データ全体に対して行う。他の方法として、大気ゆらぎの強度を示すパラメータをユーザが操作部110に入力してそれを用いるようにしても良い。別の方法として、前記画像データ取得時の気象条件(気温や風速など)の情報から算出するようにしても良い。   In step S1102, the parameter calculation unit 1003 calculates a parameter indicating the intensity of atmospheric turbulence at the time of acquiring the image data. In the processing described with reference to FIG. 7 or FIG. 9, a parameter indicating the intensity of fluctuation is calculated for the small area data obtained by dividing the image data. However, here, the same processing is performed on the entire input image data. As another method, a user may input a parameter indicating the intensity of atmospheric turbulence to the operation unit 110 and use the parameter. As another method, it may be calculated from information on weather conditions (temperature, wind speed, etc.) at the time of acquiring the image data.

ステップS1103では、位相推定精度判定部1004が、スペックルイメージング処理における位相推定精度の判定を行う。ステップS1102で算出したパラメータが、予め算出した閾値より小さい場合に位相推定精度が高いと判定し、ステップS1104に進む。ステップS1102で算出したパラメータが、予め算出した閾値より大きい場合に位相推定精度が低いと判定し、ステップS1107に進む。   In step S1103, the phase estimation accuracy determination unit 1004 determines the phase estimation accuracy in the speckle imaging processing. When the parameter calculated in step S1102 is smaller than the threshold calculated in advance, it is determined that the phase estimation accuracy is high, and the process proceeds to step S1104. If the parameter calculated in step S1102 is larger than the threshold calculated in advance, it is determined that the phase estimation accuracy is low, and the process proceeds to step S1107.

ステップS1104では、画像分割部1002が、前記画像データを複数の小領域データに分割する。ここで複数の小領域データは重複が許容される。小領域データのサイズは、大気ゆらぎの影響が一定であるとみなせる範囲(アイソプラナティックパッチ)よりも小さいことが好ましい。次のステップS1105は、前記複数の小領域データそれぞれに対して行う。   In step S1104, the image dividing unit 1002 divides the image data into a plurality of small area data. Here, duplication of the plurality of small area data is allowed. The size of the small area data is preferably smaller than a range (isoplanatic patch) in which the influence of atmospheric turbulence can be considered to be constant. The next step S1105 is performed for each of the plurality of small area data.

ステップS1105では、第1の補正部1005が、スペックルイメージング処理によって前記小領域データからゆらぎ補正された小領域データを生成する。   In step S1105, the first correction unit 1005 generates small area data whose fluctuation has been corrected from the small area data by speckle imaging processing.

ステップS1106では、ステップS1105で生成されたゆらぎ補正された小領域データを結合して、ゆらぎ補正された画像データを生成する。   In step S1106, the fluctuation-corrected small area data generated in step S1105 is combined to generate fluctuation-corrected image data.

ステップS1107では、第2の補正部が、スペックルイメージング処理とは異なる第2の補正処理によって前記画像データからゆらぎ補正された画像データを生成する。   In step S1107, the second correction unit generates image data subjected to fluctuation correction from the image data by a second correction process different from the speckle imaging process.

このように、第1の補正部による補正結果と第2の補正部による補正結果とが大気のゆらぎの影響度に応じて選択的に出力される。この結果、アーティファクトを抑制して高画質な出力画像データを得ることができる。   As described above, the correction result by the first correction unit and the correction result by the second correction unit are selectively output according to the degree of influence of atmospheric fluctuation. As a result, it is possible to obtain high-quality output image data while suppressing artifacts.

本実施例では、入力された画像に含まれるノイズの強度を示すパラメータを算出することで、良好なゆらぎ補正を実現する例を述べる。   In the present embodiment, an example will be described in which a parameter indicating the intensity of noise included in an input image is calculated to realize good fluctuation correction.

スペックルイメージング処理では、ノイズ強度が高い場合に位相推定精度が低下し、結果として再構成画像に特有のアーティファクトが生じて視認性を低下させてしまう。   In the speckle imaging process, when the noise intensity is high, the phase estimation accuracy is reduced, and as a result, a unique artifact is generated in the reconstructed image and visibility is reduced.

本実施例の構成は、実施例3と比較して、図10のパラメータ算出部1003が有する機能が異なる。図10のパラメータ算出部1003は、本実施例においては、図12に示すように撮影情報取得部1201、ノイズ強度算出部1202としての機能を有する。   The configuration of the present embodiment is different from the third embodiment in the function of the parameter calculation unit 1003 in FIG. In the present embodiment, the parameter calculation unit 1003 in FIG. 10 has functions as a shooting information acquisition unit 1201 and a noise intensity calculation unit 1202 as shown in FIG.

本実施例の処理は、実施例3の処理と比較して、ステップS1102の処理内容が異なる。   The processing according to the present embodiment is different from the processing according to the third embodiment in the processing content of step S1102.

以下に、ステップS1102の処理の詳細を説明する。図13は、本実施例におけるパラメータ算出部1003が行う処理の流れを示すフローチャートである。   Hereinafter, details of the processing in step S1102 will be described. FIG. 13 is a flowchart illustrating a flow of a process performed by the parameter calculation unit 1003 in the present embodiment.

ステップS1301では、撮影情報取得部1201が処理対象である画像データ取得時の撮影情報を取得する。撮影情報には、ISO感度等のノイズ強度に影響を与える情報が含まれる。   In step S1301, the shooting information obtaining unit 1201 obtains shooting information at the time of obtaining image data to be processed. The photographing information includes information that affects noise intensity such as ISO sensitivity.

ステップS1302では、ノイズ強度算出部1202がノイズ強度を算出する。ノイズ強度を算出する方法としては、LUT(ルックアップテーブル)を参照する方法や、モデル式を適用する方法が挙げられる。   In step S1302, the noise intensity calculator 1202 calculates the noise intensity. As a method of calculating the noise intensity, a method of referring to an LUT (look-up table) and a method of applying a model formula are exemplified.

このように、ノイズの強度に応じて異なる処理でゆらぎ補正を行い、アーティファクトを抑制して高画質な出力画像を得ることができる。   As described above, it is possible to perform fluctuation correction by different processes according to the noise intensity, suppress artifacts, and obtain a high-quality output image.

(他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program and reads the program. This is the process to be performed.

100 情報処理装置
101 CPU
102 RAM
103 ROM
109 表示装置
201 画像データ取得部
202 画像分割部
203 パラメータ算出部
204 位相推定精度判定部
205 第1の補正部
206 第2の補正部
207 画像結合部
100 information processing device 101 CPU
102 RAM
103 ROM
109 display device 201 image data acquisition unit 202 image division unit 203 parameter calculation unit 204 phase estimation accuracy determination unit 205 first correction unit 206 second correction unit 207 image combining unit

Claims (13)

大気のゆらぎの影響により画質が劣化した複数の画像データのゆらぎの影響度に基づいて、第一の補正処理による前記複数の画像データの第一の補正結果と、前記第一の補正処理とは異なる第二の補正処理による前記複数の画像データの第二の補正結果とを出力する出力手段を有する画像処理装置。   The first correction result of the plurality of image data by the first correction process and the first correction process are based on the degree of influence of the fluctuation of the plurality of image data whose image quality has been deteriorated due to the influence of the atmospheric fluctuation. An image processing apparatus having an output unit that outputs a second correction result of the plurality of image data obtained by different second correction processes. 前記第一の補正結果と前記第二の補正結果に基づいて、合成画像データを生成する合成手段を更に有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a combining unit configured to generate combined image data based on the first correction result and the second correction result. 前記出力手段は、前記影響度に基づいて、前記第一の補正結果と第二の補正結果とを選択的に出力することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit selectively outputs the first correction result and the second correction result based on the degree of influence. 前記出力手段は、前記影響度に基づいて、前記第一の補正結果と第二の補正結果を合成して出力することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit combines and outputs the first correction result and the second correction result based on the degree of influence. 前記出力手段は、前記影響度に基づいて、前記第一の処理又は前記第二の処理を行わないことを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit does not perform the first processing or the second processing based on the degree of influence. 前記複数の画像は複数のブロックからなり、
前記出力手段は、前記複数のブロック単位で前記第一の補正結果と前記第二の補正結果を出力することを特徴とする請求項1に記載の画像処理装置。
The plurality of images are composed of a plurality of blocks,
The image processing apparatus according to claim 1, wherein the output unit outputs the first correction result and the second correction result in units of the plurality of blocks.
前記影響度は前記複数の画像データの間の動きベクトルのばらつきに基づいて決定されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the degree of influence is determined based on a variation of a motion vector among the plurality of pieces of image data. 前記影響度は前記複数の画像データの間の動きベクトルの時間変化に基づいて決定されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the degree of influence is determined based on a temporal change of a motion vector between the plurality of pieces of image data. 前記影響度は、ユーザからの入力により決定されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the degree of influence is determined based on an input from a user. 前記影響度は、前記複数の画像データのノイズを示す情報が含まれていることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the degree of influence includes information indicating noise of the plurality of pieces of image data. 前記影響度は、前記複数の画像が取得された際の気象条件に基づいて決定されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the degree of influence is determined based on weather conditions when the plurality of images are acquired. コンピュータを請求項1乃至11のいずれか一項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing device according to claim 1. 大気のゆらぎの影響により画質が劣化した複数の画像データのゆらぎの影響度に基づいて、第一の補正処理による前記複数の画像データの第一の補正結果と、前記第一の補正処理とは異なる第二の補正処理による前記複数の画像データの第二の補正結果とを出力する出力手段を有する画像処理装置。   The first correction result of the plurality of image data by the first correction process and the first correction process are based on the degree of influence of the fluctuation of the plurality of image data whose image quality has been deteriorated due to the influence of the atmospheric fluctuation. An image processing apparatus having an output unit that outputs a second correction result of the plurality of image data obtained by different second correction processes.
JP2018120189A 2018-06-25 2018-06-25 Image processing apparatus, image processing method, and program Pending JP2020003885A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018120189A JP2020003885A (en) 2018-06-25 2018-06-25 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120189A JP2020003885A (en) 2018-06-25 2018-06-25 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2020003885A true JP2020003885A (en) 2020-01-09

Family

ID=69099916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120189A Pending JP2020003885A (en) 2018-06-25 2018-06-25 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2020003885A (en)

Similar Documents

Publication Publication Date Title
US9344636B2 (en) Scene motion correction in fused image systems
KR102106537B1 (en) Method for generating a High Dynamic Range image, device thereof, and system thereof
JP6485078B2 (en) Image processing method and image processing apparatus
US9558534B2 (en) Image processing apparatus, image processing method, and medium
JP5890547B2 (en) Image processing device
US20110128422A1 (en) Image capturing apparatus and image processing method
JP6598660B2 (en) Image processing apparatus and image processing method
JP6293374B2 (en) Image processing apparatus, image processing method, program, recording medium recording the same, video photographing apparatus, and video recording / reproducing apparatus
JP2010041064A (en) Image processing unit, image processing method, and program
US10846839B2 (en) Image processing apparatus, image processing method, and storage medium
KR20150145725A (en) Method and apparatus for dynamic range expansion of ldr video sequence
JP2013192224A (en) Method and apparatus for deblurring non-uniform motion blur using multi-frame including blurred image and noise image
JP2017050683A (en) Image processor, imaging apparatus, and image processing method and program
JP7263149B2 (en) Image processing device, image processing method, and program
KR20150024733A (en) Device and Method for dewobbling
CN108885790B (en) Processing images based on generated motion data
JP2012169701A (en) Image processing device, image processing method, and program
JP2020003885A (en) Image processing apparatus, image processing method, and program
JP2015177528A (en) image processing apparatus, image processing method, and program
JP6386670B2 (en) Image processing device
JP2019016865A (en) Image processing device and image processing method
JP2021005324A (en) Image processing apparatus, image processing method, and program
Tiwari et al. A review on estimation of defocus blur from a single image
Palani et al. ISNR measure on deblurred blind images using Weiner filter
JP2022069197A (en) Image processing apparatus, method for controlling the same, and program