JP2016082496A - Image processing apparatus, imaging device, image processing system, image processing method and program - Google Patents

Image processing apparatus, imaging device, image processing system, image processing method and program Download PDF

Info

Publication number
JP2016082496A
JP2016082496A JP2014214367A JP2014214367A JP2016082496A JP 2016082496 A JP2016082496 A JP 2016082496A JP 2014214367 A JP2014214367 A JP 2014214367A JP 2014214367 A JP2014214367 A JP 2014214367A JP 2016082496 A JP2016082496 A JP 2016082496A
Authority
JP
Japan
Prior art keywords
image
data
resolution
pixel
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014214367A
Other languages
Japanese (ja)
Other versions
JP2016082496A5 (en
JP6468791B2 (en
Inventor
法人 日浅
Norito Hiasa
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014214367A priority Critical patent/JP6468791B2/en
Priority to PCT/JP2015/004697 priority patent/WO2016063452A1/en
Publication of JP2016082496A publication Critical patent/JP2016082496A/en
Publication of JP2016082496A5 publication Critical patent/JP2016082496A5/ja
Application granted granted Critical
Publication of JP6468791B2 publication Critical patent/JP6468791B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus which allows for simultaneous reduction of a plurality of adverse effects incident to high resolution of the image, and to provide an imaging device, image processing system, image processing method and program.SOLUTION: An image processing apparatus has first acquisition means 103a for acquiring a first image, i.e., a high resolution input image, and a second image having a smaller resolution than that of the first image, selection means 103b for selecting a target pixel from the first image, second acquisition means 103c for acquiring first data including the pixel corresponding to the target pixel, and a plurality of second data from the second image, determination means 103d for determining the weight for each of the plurality of second data, based on the correlation of the first and second data, third acquisition means 103e for acquiring the signal values of a plurality of reference pixels corresponding to the plurality of second data from the first image, and generation means 103f for generating output pixels corresponding to the target pixels, based on the signal value calculated from the signal values and weights of the plurality of reference pixels.SELECTED DRAWING: Figure 4

Description

本発明は、画像の高解像化に伴う弊害の低減を目的とする画像処理装置、撮像装置、画像処理システム、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing system, an image processing method, and an image processing program for the purpose of reducing adverse effects caused by high-resolution images.

近年、表示装置の高精細化に伴って画像の高画質化が望まれている。画質を向上させるためには、画像の高解像化やノイズ低減などが重要となる。高解像化には、単純なシャープネス処理の他、ウィナーフィルタなどの逆フィルタを用いた処理、あるいは最小二乗法に基づいた推定を行う超解像処理などがある。しかしながら、これらの処理は画像の解像感を向上させる一方で、ノイズの増幅やリンギングなどの弊害を発生させ、画質の低下を招いてしまう。   In recent years, there has been a demand for higher image quality as display devices have higher definition. In order to improve the image quality, it is important to increase the resolution of the image and reduce noise. High resolution includes simple sharpness processing, processing using an inverse filter such as a Wiener filter, or super-resolution processing that performs estimation based on the least square method. However, these processes improve the sense of resolution of the image, but cause adverse effects such as noise amplification and ringing, leading to a reduction in image quality.

そこで、特許文献1では、逆フィルタによる高解像化を行う際、画像のエッジ部とそれ以外の領域で高解像化の強度を変化させ、ノイズ増幅を抑えつつ高解像化画像を生成する手法が開示されている。   Therefore, in Patent Document 1, when performing high resolution using an inverse filter, the high resolution intensity is changed at the edge portion of the image and other areas to generate a high resolution image while suppressing noise amplification. A technique is disclosed.

また、特許文献2では、NLM(Non−local Means)フィルタと呼ばれる被写体空間の自己相似性を利用したノイズ低減手法が提案されている。NLMフィルタは、注目画素の信号値を、注目画素の周辺に位置する複数の画素の加重平均された信号値で置換することでノイズを低減する手法である。この際、加重平均で用いる重みは、注目画素の近傍の部分領域における各信号値を成分としたベクトルと、注目画素の周辺に位置する画素から同様に生成したベクトル間の距離に応じて決定される。これにより、エッジの解像感を保ちつつ、画像からノイズを除去することが可能となる。   Patent Document 2 proposes a noise reduction method that uses self-similarity of a subject space called an NLM (Non-local Means) filter. The NLM filter is a technique for reducing noise by replacing a signal value of a target pixel with a weighted average signal value of a plurality of pixels located around the target pixel. At this time, the weight used in the weighted average is determined according to the distance between the vector having each signal value in the partial region near the target pixel as a component and the vector similarly generated from the pixels located around the target pixel. The Thereby, it is possible to remove noise from the image while maintaining the resolution of the edge.

特開2011−71930号公報JP 2011-71930 A 米国特許第8427559号明細書U.S. Pat. No. 8,427,559

しかしながら、特許文献1で開示された手法では、非エッジ領域における高解像化の強度を低下させるだけで、エッジ領域では従来と同様にノイズ増幅とリンギングが発生してしまう。また、高解像化された画像に対して、特許文献2で開示された手法を用いた場合、増幅されたノイズは低減されるものの、強く発生したリンギングはエッジと判定されてしまうため除去することができない。   However, in the method disclosed in Patent Document 1, noise amplification and ringing occur in the edge region as in the conventional case only by reducing the strength of high resolution in the non-edge region. In addition, when the technique disclosed in Patent Document 2 is used for a high-resolution image, amplified noise is reduced, but strong ringing is determined to be an edge and is removed. I can't.

このような課題を鑑みて、本発明は、画像の高解像化に伴って発生する複数の弊害を同時に低減可能な画像処理装置、撮像装置、画像処理システム、画像処理方法および画像処理プログラムを提供することを目的とする。   In view of such problems, the present invention provides an image processing apparatus, an imaging apparatus, an image processing system, an image processing method, and an image processing program capable of simultaneously reducing a plurality of adverse effects that occur in association with an increase in image resolution. The purpose is to provide.

本発明の一側面としての画像処理装置は、入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得する第1の取得手段と、前記第1の画像から注目画素を選択する選択手段と、前記第2の画像から、前記注目画素に対応する画素を含む第1のデータと、複数の第2のデータを取得する第2の取得手段と、前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定する決定手段と、前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得する第3の取得手段と、前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成する生成手段と、を有することを特徴とする。   An image processing apparatus according to one aspect of the present invention is configured to acquire a first image obtained by increasing a resolution of an input image, and a second image having a resolution smaller than that of the first image. Means for selecting a pixel of interest from the first image; first data including a pixel corresponding to the pixel of interest; and a plurality of second data from the second image. Two acquisition means, a determination means for determining a weight for each of the plurality of second data based on a correlation between the first and second data, and the plurality of second data from the first image And a third acquisition means for acquiring signal values of a plurality of reference pixels corresponding to, and generating an output pixel corresponding to the target pixel based on the signal values calculated from the signal values of the plurality of reference pixels and the weights And generating means.

また、本発明の他の側面としての撮像装置は、結像光学系が結像する被写体像を撮像して前記入力画像を出力する撮像手段と、前記入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得する第1の取得手段と、前記第1の画像から注目画素を選択する選択手段と、前記第2の画像から、前記注目画素に対応する画素を含む第1のデータと、複数の第2のデータを取得する第2の取得手段と、前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定する決定手段と、前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得する第3の取得手段と、前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成する生成手段と、を有することを特徴とする。   According to another aspect of the present invention, there is provided an imaging apparatus that includes an imaging unit that captures an image of a subject formed by an imaging optical system and outputs the input image, and a first resolution that is a high resolution of the input image. First acquisition means for acquiring an image and a second image having a resolution smaller than that of the first image, selection means for selecting a target pixel from the first image, and the second image From the first data including the pixel corresponding to the target pixel, the second acquisition means for acquiring a plurality of second data, and the correlation between the first and second data, Determining means for determining a weight for each second data; third acquiring means for acquiring signal values of a plurality of reference pixels corresponding to the plurality of second data from the first image; Based on the signal value of the reference pixel and the signal value calculated from the weight, the attention And having a generating means for generating an output pixel corresponding to element, the.

また、本発明の他の側面としての画像処理システムは、結像光学系が結像する被写体像を撮像して前記入力画像を出力する撮像手段と、前記入力画像を高解像化して第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像を生成する画像生成手段と、前記第1および第2の画像を取得する第1の取得手段と、前記第1の画像から注目画素を選択する選択手段と、前記第2の画像から、前記注目画素に対応する画素を含む第1のデータと、複数の第2のデータを取得する第2の取得手段と、前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定する決定手段と、前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得する第3の取得手段と、前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成する生成手段と、を有することを特徴とする。   According to another aspect of the present invention, there is provided an image processing system that captures a subject image formed by an imaging optical system and outputs the input image; An image generating means for generating a second image having a resolution smaller than that of the first image, a first acquiring means for acquiring the first and second images, and the first image Selecting means for selecting a target pixel from the second image, first data including a pixel corresponding to the target pixel from the second image, second acquisition means for acquiring a plurality of second data, and the second Determining means for determining a weight for each of the plurality of second data based on the correlation between the first and second data; and a plurality of reference pixels corresponding to the plurality of second data from the first image. Third acquisition means for acquiring a signal value; and a plurality of reference pixels Based on the signal value calculated issue value from the weight, and having a generating means for generating an output pixel corresponding to the pixel of interest.

また、本発明の他の側面としての画像処理方法は、入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得するステップと、前記第1の画像から注目画素を選択するステップと、前記第2の画像から前記注目画素に対応した画素を含む第1のデータを取得するステップと、前記第2の画像から複数の第2のデータを取得するステップと、前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定するステップと、前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得するステップと、前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成するステップと、を有することを特徴とする。   According to another aspect of the present invention, there is provided an image processing method of obtaining a first image obtained by increasing the resolution of an input image and a second image having a resolution smaller than that of the first image. Selecting a target pixel from the first image; obtaining first data including a pixel corresponding to the target pixel from the second image; and a plurality of second data from the second image. 2, obtaining a weight for each of the plurality of second data based on the correlation between the first and second data, and the plurality of second data from the first image. Obtaining signal values of a plurality of reference pixels corresponding to the data of the plurality of pixels, and generating an output pixel corresponding to the pixel of interest based on the signal values calculated from the signal values of the plurality of reference pixels and the weights And having And features.

また、本発明の他の側面としての画像処理プログラムは、入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得するステップと、前記第1の画像から注目画素を選択するステップと、前記第2の画像から前記注目画素に対応した画素を含む第1のデータを取得するステップと、前記第2の画像から複数の第2のデータを取得するステップと、前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定するステップと、前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得するステップと、前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成するステップと、をコンピュータに実行させることを特徴とする。   An image processing program according to another aspect of the present invention obtains a first image obtained by increasing the resolution of an input image, and a second image having a resolution smaller than that of the first image. Selecting a target pixel from the first image; obtaining first data including a pixel corresponding to the target pixel from the second image; and a plurality of second data from the second image. 2, obtaining a weight for each of the plurality of second data based on the correlation between the first and second data, and the plurality of second data from the first image. Obtaining signal values of a plurality of reference pixels corresponding to the data of the plurality of pixels, and generating an output pixel corresponding to the pixel of interest based on the signal values calculated from the signal values of the plurality of reference pixels and the weights And the Characterized in that to execute the Yuta.

本発明によれば、画像の高解像化に伴って発生する複数の弊害を同時に低減可能な画像処理装置、撮像装置、画像処理システム、画像処理方法および画像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing device, an imaging device, an image processing system, an image processing method, and an image processing program that can simultaneously reduce a plurality of adverse effects that occur with high resolution of an image.

実施例1の撮像装置の外観図である。1 is an external view of an image pickup apparatus according to Embodiment 1. FIG. 実施例1の撮像装置のブロック図である。1 is a block diagram of an imaging apparatus according to Embodiment 1. FIG. 実施例1の画像処理方法のフローチャートである。3 is a flowchart of an image processing method according to the first exemplary embodiment. 実施例1の画像処理部の構成図である。FIG. 3 is a configuration diagram of an image processing unit according to the first embodiment. 画像の解像度合に関する説明図である。It is explanatory drawing regarding the resolution degree of an image. 実施例1の第1の画像と第2の画像との関係図である。FIG. 3 is a relationship diagram between a first image and a second image according to the first exemplary embodiment. 弊害低減処理の説明図である。It is explanatory drawing of an evil reduction process. 実施例2の画像処理方法のフローチャートである。6 is a flowchart of an image processing method according to the second embodiment. 実施例2の第1の画像と第2の画像との関係図である。FIG. 6 is a relationship diagram between a first image and a second image of Example 2. 実施例3の画像処理システムの外観図である。FIG. 10 is an external view of an image processing system according to a third embodiment. 実施例3の画像処理システムのブロック図である。FIG. 10 is a block diagram of an image processing system according to a third embodiment. 実施例4の撮像システムの外観図である。6 is an external view of an imaging system according to Embodiment 4. FIG. 実施例4の撮像システムのブロック図である。FIG. 10 is a block diagram of an imaging system according to a fourth embodiment.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.

具体的な実施形態の説明に移る前に、本発明の高解像化に伴う弊害の低減方法に関して概要を述べておく。簡単のため、説明はモノクロ画像を例にして行う。カラー画像の場合は、各成分に対して同様の処理を実行すればよい。   Before proceeding to the description of a specific embodiment, an outline of a method for reducing the harmful effects of high resolution according to the present invention will be described. For simplicity, the description will be made with a monochrome image as an example. In the case of a color image, the same processing may be executed for each component.

まず、逆フィルタや超解像処理を用いて、入力画像を高解像化した第1の画像を生成する。この際、第1の画像には高解像化に伴う弊害(ノイズ増幅やリンギングなど)が発生している。   First, a first image with a high resolution is generated using an inverse filter or super-resolution processing. At this time, adverse effects (noise amplification, ringing, etc.) associated with high resolution occur in the first image.

次に、第1の画像から弊害低減の対象となる注目画素を選択する。そして、第2の画像から注目画素に対応する画素(注目対応画素)を含む部分領域を注目対応データ(第1のデータ)として取得する。ここで、第2の画像とは、第1の画像と同一の被写体空間を撮像し、かつ解像度合が第1の画像より小さい画像のことである。すなわち、第2の画像は、第1の画像に対して高解像化の弊害が小さい、あるいは弊害がそもそも存在していない。第2の画像の例として、入力画像そのものや、入力画像に第1の画像より弱い高解像化を施した画像などが挙げられる。また、解像度合とは、画像のコントラストや周波数分布などを指すが、その詳細に関しては後述する。   Next, a target pixel that is a target for reducing the harmful effect is selected from the first image. Then, a partial region including the pixel corresponding to the target pixel (target corresponding pixel) is acquired from the second image as target corresponding data (first data). Here, the second image is an image obtained by capturing the same subject space as the first image and having a resolution smaller than that of the first image. In other words, the second image has less adverse effect on the resolution than the first image, or the harmful effect does not exist in the first place. Examples of the second image include the input image itself and an image obtained by applying a higher resolution to the input image, which is weaker than the first image. The resolution refers to the contrast and frequency distribution of the image, and details thereof will be described later.

次に、第2の画像から部分領域である参照対応データ(第2のデータ)を複数取得し、それぞれ注目対応データとの相関値を算出する。相関値に応じて、各参照対応データの重みが決定される。重みは、相関が高いほど、つまり参照対応データが注目対応データと似ているほど大きくなるように決定される。   Next, a plurality of reference correspondence data (second data), which are partial areas, are obtained from the second image, and a correlation value with each of the attention correspondence data is calculated. The weight of each reference correspondence data is determined according to the correlation value. The weight is determined so as to increase as the correlation increases, that is, as the reference correspondence data is similar to the attention correspondence data.

次に、参照対応データと対応する参照画素の信号値を第1の画像から取得し、参照対応データで算出した重みを用いて、信号値の加重平均値を算出する。そして、注目画素の信号値を加重平均値で置換することにより、弊害の低減が終了する。   Next, the signal value of the reference pixel corresponding to the reference correspondence data is acquired from the first image, and the weighted average value of the signal value is calculated using the weight calculated by the reference correspondence data. Then, by replacing the signal value of the target pixel with the weighted average value, the reduction of the harmful effect is completed.

以上のように、弊害の少ない(あるいは、ない)第2の画像から相関値を算出することで、弊害の影響が抑制された高精度な重みを得ることができる。この重みを用いて平均化を行うことで、従来のNLMフィルタのノイズ低減効果に加え、リンギング等のその他弊害も抑える効果が得られる。   As described above, by calculating the correlation value from the second image with little (or no) harmful effects, it is possible to obtain highly accurate weights in which the adverse effects are suppressed. By averaging using this weight, in addition to the noise reduction effect of the conventional NLM filter, an effect of suppressing other harmful effects such as ringing can be obtained.

本実施例では、本発明の画像処理方法を撮像装置100に適用した場合について説明する。図1は撮像装置100の外観図、図2は撮像装置100のブロック図である。   In this embodiment, a case where the image processing method of the present invention is applied to the imaging apparatus 100 will be described. FIG. 1 is an external view of the imaging apparatus 100, and FIG. 2 is a block diagram of the imaging apparatus 100.

画像取得部101は、結像光学系と撮像素子を有している。撮像素子としては、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)などが挙げられる。撮影時、画像取得部101に入射した光は結像光学系によって集光され、撮像素子でアナログの電気信号に変換される。アナログの電気信号は、A/Dコンバータ102でデジタル信号となり、画像処理部103に入力される。画像処理部(画像処理装置)103は、所定の処理に加えて、高解像化処理とそれに伴う弊害の低減処理を行う。これらの処理に関しては、後述する。また、これらの処理では、記憶部104に記憶された画像取得部101の光学特性や、状態検出部109で検出された画像取得部101の撮影条件に関する情報が使用される。ここで、光学特性とは、画像取得部101内の結像光学系における収差や回折、またはデフォーカスに関する情報(例えば、光学伝達関数や点像強度分布)を指す。また、撮影条件とは、撮影時における画像取得部101の状態を指し、例えば絞りの状態やフォーカス位置、露光中における撮像装置100のぶれ軌跡、またはズームレンズにおける焦点距離などである。状態検出部109は、撮影条件に関する情報をシステムコントローラ107から得てもよいし、制御部108から得てもよい。処理後の画像は、画像記録媒体106に所定のフォーマットで保存される。この際、同時に撮影条件に関する情報を保存してもよい。また、すでに画像記録媒体106に保存されている画像を読み出して、画像処理部103で高解像化と弊害低減処理を行ってもよい。画像記録媒体106に保存された画像を鑑賞する際は、画像が液晶ディスプレイなどの表示部105に出力される。以上に述べた一連の制御は、システムコントローラ107により行われ、画像取得部101の機械的な駆動はシステムコントローラ107の指示によって制御部108で行われる。   The image acquisition unit 101 includes an imaging optical system and an image sensor. Examples of the image pickup device include a charge coupled device (CCD) and a complementary metal-oxide semiconductor (CMOS). At the time of shooting, the light incident on the image acquisition unit 101 is collected by the imaging optical system and converted into an analog electrical signal by the imaging device. The analog electrical signal is converted into a digital signal by the A / D converter 102 and input to the image processing unit 103. The image processing unit (image processing apparatus) 103 performs a high-resolution process and a process for reducing adverse effects associated therewith in addition to a predetermined process. These processes will be described later. In these processes, information about the optical characteristics of the image acquisition unit 101 stored in the storage unit 104 and the shooting conditions of the image acquisition unit 101 detected by the state detection unit 109 are used. Here, the optical characteristics refer to information (for example, optical transfer function and point image intensity distribution) regarding aberration, diffraction, or defocus in the imaging optical system in the image acquisition unit 101. The shooting condition refers to the state of the image acquisition unit 101 at the time of shooting, for example, the state of the aperture, the focus position, the blurring locus of the imaging device 100 during exposure, the focal length of the zoom lens, or the like. The state detection unit 109 may obtain information regarding the shooting conditions from the system controller 107 or the control unit 108. The processed image is stored in the image recording medium 106 in a predetermined format. At this time, information regarding the photographing conditions may be stored at the same time. Alternatively, an image already stored in the image recording medium 106 may be read out, and the image processing unit 103 may perform high resolution and adverse effect reduction processing. When viewing an image stored in the image recording medium 106, the image is output to the display unit 105 such as a liquid crystal display. The series of controls described above is performed by the system controller 107, and the mechanical drive of the image acquisition unit 101 is performed by the control unit 108 according to an instruction from the system controller 107.

次に、図3のフローチャートを用いて、画像処理部103で行われる高解像化の弊害に対する低減処理方法に関して詳細に説明する。図3に示す方法は、コンピュータに各ステップの機能を実行させるための画像処理プログラムとして具現化が可能である。また、図4は、画像処理部103の構成図である。   Next, a reduction processing method for the adverse effect of high resolution performed in the image processing unit 103 will be described in detail with reference to the flowchart of FIG. The method shown in FIG. 3 can be embodied as an image processing program for causing a computer to execute the function of each step. FIG. 4 is a configuration diagram of the image processing unit 103.

ステップS101では、第1の取得手段103aが画像取得部101で得られた入力画像を取得する。入力画像には、撮影時の様々な要因、例えば、画像取得部101における結像光学系の収差や回折、撮像素子でのサンプリング、または露光中における撮像装置100のぶれ等によって被写体空間の情報が失われている。さらに入力画像には、撮像素子などで発生したノイズが存在している。   In step S101, the first acquisition unit 103a acquires the input image obtained by the image acquisition unit 101. The input image includes information on the subject space due to various factors at the time of shooting, for example, aberration and diffraction of the imaging optical system in the image acquisition unit 101, sampling at the imaging device, or shaking of the imaging device 100 during exposure, and the like. Is lost. Furthermore, noise generated by an image sensor or the like exists in the input image.

ステップS102では、第1の取得手段103aが入力画像から解像力が異なる2つの高解像化画像を生成する。これらのうち、解像度合の高い方を第1の画像、解像度合の低い方を第2の画像と呼ぶ。ただし、第2の画像は入力画像そのもの、あるいは入力画像に平滑化フィルタ等の低解像化処理を施した画像でも構わない。しかし望ましくは、後述するように第2の画像の解像度合が入力画像の解像度合以上であるほうがよい。   In step S102, the first acquisition unit 103a generates two high-resolution images having different resolutions from the input image. Of these, the higher resolution is called the first image, and the lower resolution is called the second image. However, the second image may be the input image itself or an image obtained by subjecting the input image to low resolution processing such as a smoothing filter. However, it is desirable that the resolution of the second image is greater than or equal to the resolution of the input image, as will be described later.

ここで、解像度合とは、画像がどの程度、被写体空間の情報を所持しているかを表すものであり、例えばその指標として、画像のコントラストや最大解像周波数、あるいは周波数分布が挙げられる。ここで、最大解像周波数とは、スペクトル強度がしきい値以上となる最大空間周波数の絶対値を指す。しきい値は、画像に求める画質から決定するとよい。コントラストや最大解像周波数は値が大きいほど、解像度合が大きいことを意味する。また、解像度合を高精度に判定する例として、画像の周波数分布の積分値が挙げられる。図5にその概要を示す。図5では簡単のため、画像のある1次元方向における空間周波数のスペクトル強度のみを示している。横線部の面積は第1の画像200のスペクトル強度211に対する積分値を表し、縦線部の面積は第2の画像300のスペクトル強度311に対する積分値を表している。実際は、空間周波数が2次元になっているため、積分値は体積に該当する。これらの積分値が大きいほど、解像度合が大きいことを意味する。また、他の解像度合を表す方法として、高解像化のパラメータを用いる方法がある。ただし、この場合、第1の画像200と第2の画像300が同一の手法で高解像化されていないと、パラメータによる解像度合の大小判定ができない。   Here, the degree of resolution represents how much information an object has in the subject space. For example, the index includes the contrast of the image, the maximum resolution frequency, or the frequency distribution. Here, the maximum resolution frequency refers to the absolute value of the maximum spatial frequency at which the spectrum intensity is equal to or greater than a threshold value. The threshold value may be determined from the image quality required for the image. The larger the value of the contrast and the maximum resolution frequency, the greater the resolution. Further, as an example of determining the resolution degree with high accuracy, an integrated value of the frequency distribution of the image can be given. The outline is shown in FIG. In FIG. 5, for the sake of simplicity, only the spectral intensity of the spatial frequency in a certain one-dimensional direction of the image is shown. The area of the horizontal line portion represents an integral value with respect to the spectral intensity 211 of the first image 200, and the area of the vertical line portion represents an integral value with respect to the spectral intensity 311 of the second image 300. Actually, since the spatial frequency is two-dimensional, the integral value corresponds to the volume. The larger these integral values, the greater the resolution. As another method for expressing the resolution, there is a method using a parameter for high resolution. However, in this case, if the first image 200 and the second image 300 are not high-resolution by the same method, it is impossible to determine the degree of resolution based on the parameters.

入力画像に施す高解像化についていくつか例を挙げておく。高解像化手法としては、ウィナーフィルタ等の逆フィルタを用いた処理の他、RL(Richardson−Lucy)法や事後確率最大化法などの超解像処理が挙げられる。これらの処理で必要となる入力画像に発生した劣化情報は、劣化が収差や回折の場合は結像光学系の設計値や測定値から取得し、露光中のぶれの場合は撮像装置100に搭載したジャイロセンサー等から取得することができる。あるいは、Blind Deconvolutionと呼ばれる、入力画像から劣化情報を推定して高解像化を行う手法を用いてもよい。   Some examples of high resolution applied to an input image are given. Examples of the high-resolution technique include super-resolution processing such as RL (Richardson-Lucy) method and posterior probability maximization method in addition to processing using an inverse filter such as a Wiener filter. Degradation information generated in the input image necessary for these processes is acquired from design values and measurement values of the imaging optical system when the degradation is aberration or diffraction, and is mounted on the imaging apparatus 100 in the case of blur during exposure. Can be obtained from a gyro sensor or the like. Alternatively, a technique called Blind Devolution may be used in which degradation information is estimated from an input image to achieve high resolution.

しかし、上述したいずれの手法を用いたとしても、高解像化した画像には弊害としてノイズ増幅やリンギングが発生してしまう。これらの弊害は、高解像化の強度を高めるほどに大きくなる。そのため、高解像化された第1の画像200では弊害が表出しやすい。そこで、本発明では、第1の画像200の解像感を保ちつつ、弊害を抑制することを目的としている。   However, even if any of the above-described methods is used, noise amplification or ringing occurs as a detrimental effect on a high-resolution image. These adverse effects increase as the resolution is increased. Therefore, adverse effects are likely to appear in the first image 200 with high resolution. Therefore, an object of the present invention is to suppress adverse effects while maintaining the resolution of the first image 200.

次に、各高解像化の手法に関して、解像度合を表すパラメータを説明しておく。例えばウィナーフィルタによる処理は、周波数空間上において以下の式(1)で表される。   Next, regarding each high resolution technique, a parameter indicating the resolution is described. For example, the processing by the Wiener filter is expressed by the following expression (1) on the frequency space.

Gは入力画像の周波数分布、Hは入力画像に生じた劣化を表す光学伝達関数、HはHの複素共役、Fは高解像化された画像の周波数分布を表す。Fをフーリエ変換(あるいは、逆フーリエ変換)すれば、高解像化された画像が得られる。ここで、Γが高解像化の強度を表すパラメータであり、この値を0に近付けるほど、解像度合が増すことになる。 G is the frequency distribution of the input image, H is the optical transfer function representing the degradation that has occurred in the input image, H * is the complex conjugate of H, and F is the frequency distribution of the high-resolution image. If F is subjected to Fourier transform (or inverse Fourier transform), a high-resolution image can be obtained. Here, Γ is a parameter representing the strength of high resolution. The closer this value is to 0, the higher the resolution is.

次に、以下の式(2)で表されるような実空間上における超解像処理を考える。   Next, consider the super-resolution processing in real space as expressed by the following equation (2).

Xは入力画像、Kは入力画像に生じた劣化を表す点像強度分布、Yは高解像化された画像、*は畳み込み演算を表す。A(Y)は正則化項と呼ばれる項で、高解像化に伴う弊害を抑制する役割を担っているが、これによって弊害が完全に抑えられるわけではない。正則化項の例としては、1次平均ノルムやTV(Total Variation)ノルム等がある。ここで、λが正則化項の効果をどの程度強めるかを表すパラメータであり、一般に0に近いほど解像度合が増すことになる。   X represents an input image, K represents a point image intensity distribution representing degradation that has occurred in the input image, Y represents a high-resolution image, and * represents a convolution operation. A (Y) is a term called a regularization term, and plays a role of suppressing the harmful effects associated with high resolution. However, this does not completely suppress the harmful effects. Examples of regularization terms include a primary average norm and a TV (Total Variation) norm. Here, λ is a parameter indicating how much the effect of the regularization term is strengthened. Generally, the closer to 0, the higher the resolution.

さらに、前述のRL法などの、一度高解像化を施した画像を新たな初期画像として高解像化を反復させるような手法では、その反復回数も解像度合を表すパラメータとなり得る。すなわち、第1の画像200を生成するために反復演算をしている途中の高解像化画像を第2の画像300とすることができる。この場合、第2の画像300を別に生成する計算負荷が削減される。   Furthermore, in a technique such as the above-described RL method in which high resolution is repeated using an image once subjected to high resolution as a new initial image, the number of repetitions can also be a parameter indicating the resolution. That is, the high-resolution image in the middle of the iterative calculation to generate the first image 200 can be used as the second image 300. In this case, the calculation load for generating the second image 300 separately is reduced.

ステップS103では、選択手段103bが図6に示されるように第1の画像200から弊害を除去したい注目画素201を選択する。ただし、注目画素201の位置はこれに限定されず、一度に複数の画素(例えば、2×2の画素群)を選択しても構わない。   In step S103, the selection unit 103b selects the target pixel 201 from which the adverse effect is to be removed from the first image 200 as shown in FIG. However, the position of the target pixel 201 is not limited to this, and a plurality of pixels (for example, a 2 × 2 pixel group) may be selected at a time.

ステップS104では、第2の取得手段103cが図6に示されるように第2の画像300から第1の画像200の注目画素201に対応する画素(注目対応画素と呼ぶ)を含む部分領域である注目対応データ(第1のデータ)303を取得する。すなわち、注目画素201と注目対応画素301は各画像に対して同一の位置に存在しており、第1の画像200内の注目画素201が選択されると、第2の画像300内の注目対応画素301と注目対応データ303が決定される。注目対応データ303のサイズや形状は図5に示したものに限定されないが、注目対応データ303は信号の分布に関する情報を持っている必要があるため、複数の画素から形成されていなければならない。もし注目対応画素301が複数の画素から形成されている場合、注目対応画素301と注目対応データ303は一致していても構わない。   In step S104, the second acquisition unit 103c is a partial region including pixels corresponding to the target pixel 201 of the first image 200 to the target image 201 (referred to as the target corresponding pixel) as shown in FIG. Attention corresponding data (first data) 303 is acquired. That is, the target pixel 201 and the target corresponding pixel 301 are present at the same position with respect to each image, and when the target pixel 201 in the first image 200 is selected, the target correspondence in the second image 300 is selected. Pixel 301 and attention correspondence data 303 are determined. The size and shape of the attention correspondence data 303 are not limited to those shown in FIG. 5, but the attention correspondence data 303 needs to have information regarding the distribution of signals, and thus must be formed of a plurality of pixels. If the attention corresponding pixel 301 is formed of a plurality of pixels, the attention corresponding pixel 301 and the attention corresponding data 303 may match.

ステップS105では、まず、図6に示されるように、注目対応画素301の周囲に参照対応データ(第2のデータ)305a〜305cを取得する範囲を表す参照対応データ取得領域304を設定する。ただし、参照対応データ取得領域304のサイズや形状はこれに限定されず、第2の画像300の全体を参照対応データ取得領域304としても構わない。しかしながら、注目対応データ303の類似構造はその周囲に存在している可能性が高いので、計算負荷の低減から参照対応データ取得領域304を注目対応データ303の周辺に制限することが望ましい。次に、第2の取得手段103cが参照対応データ取得領域304内から参照対応画素302a〜302cとそれを含む参照対応データ305a〜305cを複数取得する。参照対応画素302a〜302cと参照対応データ305a〜305cのサイズや形状はそれぞれ、注目対応画素301と注目対応データ303に必ずしも一致しなくてよい。これは、ステップS106の相関値の算出時に、縮小変換等を用いて互いのサイズや形状を合わせることができるためである。ただし、この変換を行った場合、ステップS109の加重平均算出で用いる参照画素にも、同様の変換を施す必要がある。さらに、入力画像がカラー画像の場合、注目対応データとは異なる色成分から参照対応データを取得してもよい。例えば、RGB(Red,Green,Blue)画像において注目対応データをR成分から選択していた場合でも、G成分およびB成分から参照対応データを取得してもよい。これは高解像化に伴う弊害の強さが、一般にRGB成分間でそれほど変化しないためである。なお、本実施例では、参照画素および参照対応データをそれぞれ3つずつ取得しているが、それ以上取得しても構わない。   In step S105, first, as shown in FIG. 6, a reference corresponding data acquisition region 304 representing a range in which reference corresponding data (second data) 305a to 305c is acquired is set around the target corresponding pixel 301. However, the size and shape of the reference correspondence data acquisition area 304 are not limited to this, and the entire second image 300 may be used as the reference correspondence data acquisition area 304. However, since there is a high possibility that the similar structure of the attention correspondence data 303 exists around the attention correspondence data 303, it is desirable to limit the reference correspondence data acquisition area 304 to the periphery of the attention correspondence data 303 in order to reduce the calculation load. Next, the second acquisition unit 103c acquires reference corresponding pixels 302a to 302c and a plurality of reference corresponding data 305a to 305c including the reference corresponding pixels 302a to 302c from the reference corresponding data acquisition region 304. The sizes and shapes of the reference correspondence pixels 302a to 302c and the reference correspondence data 305a to 305c do not necessarily match the attention correspondence pixel 301 and the attention correspondence data 303, respectively. This is because the size and shape of each other can be matched using reduction conversion or the like when calculating the correlation value in step S106. However, when this conversion is performed, it is necessary to perform the same conversion on the reference pixels used in the weighted average calculation in step S109. Further, when the input image is a color image, the reference correspondence data may be acquired from a color component different from the attention correspondence data. For example, even when attention corresponding data is selected from R components in an RGB (Red, Green, Blue) image, reference corresponding data may be acquired from the G component and the B component. This is because the detrimental strength associated with high resolution generally does not change so much between RGB components. In the present embodiment, three reference pixels and three pieces of reference correspondence data are acquired, but more may be acquired.

ステップS106では、複数の参照対応データ305a〜305cそれぞれとの注目対応データ303に対する相関値を算出する。相関値の算出には、SIFT(Scale−Invariant Feature Transform)やSURF(Speeded−Up Robust Features)などの特徴ベースの手法、または後述する領域ベースの手法を用いるとよい。特徴ベースの手法では特徴量に着目するため、注目対応データと参照対応データの画素数が異なっていても相関値が算出できる。一方、領域ベースの手法では互いの信号値の差に着目するため、両者の画素数を合わせないと正しく算出ができない。ただし、特徴ベースより領域ベースの相関算出の方が相似性を高精度に判定できるため、領域ベースの手法を用いることが望ましい。領域ベースの相関算出式の例として、以下の2つを挙げておくが、算出方法はこれに限定されるものではない。
<相関算出式の例1>
相関算出式の例1では、注目対応データと参照対応データの信号差の二乗平均平方根を使用する。注目対応データおよび参照対応データを画像の部分領域として、つまり行列で扱う場合は、相関算出式gは以下の式(3)で表される。
In step S106, a correlation value is calculated for the attention correspondence data 303 with each of the plurality of reference correspondence data 305a to 305c. For the calculation of the correlation value, a feature-based method such as SIFT (Scale-Invariant Feature Transform) or SURF (Speed-Up Robust Features) or a region-based method described later may be used. Since the feature-based method focuses on the feature amount, the correlation value can be calculated even if the attention-corresponding data and the reference-corresponding data have different numbers of pixels. On the other hand, the region-based method focuses on the difference between the signal values of each other. However, it is desirable to use a region-based method because similarity calculation can be performed with higher accuracy than region-based correlation calculation. The following two examples are given as examples of the region-based correlation calculation formula, but the calculation method is not limited to this.
<Example 1 of correlation calculation formula>
In example 1 of the correlation calculation formula, the root mean square of the signal difference between the attention correspondence data and the reference correspondence data is used. Attention corresponding data and reference corresponding data as partial area of the image, that is when dealing with matrix, the correlation calculation formula g 1 is expressed by the following formula (3).

Tは注目対応データにおける各画素の信号値を成分Tijとする行列、NはTの行数、MはTの列数、Rはk番目の参照対応データの各信号値を成分とする行列である。Ρは以下の式(4)を満たし、Ρijはその成分を表す。 T is a matrix in which the signal value of each pixel in the attention correspondence data is a component T ij , N is the number of rows of T, M is the number of columns of T, and R k is the signal value of the kth reference correspondence data. It is a matrix. Ρ satisfies the following expression (4), and Ρ ij represents the component.

RkはRの行数、MRkはRの列数である。また、σ(R,N/NRk,M/MRk)は、行列Rの行数をN/NRk倍、列数をM/MRk倍にする変換(画像でいえば拡大、あるいは縮小)を表す。σの変換には、バイリニア補間やバイキュービック補間などを用いるとよい。 N Rk is the number of rows of R k , and M Rk is the number of columns of R k . Also, σ (R k , N / N Rk , M / M Rk ) is a conversion (enlarged in the case of an image) that makes the number of rows of matrix R k N / N Rk times and the number of columns M / M Rk times (Or reduction). Bilinear interpolation, bicubic interpolation, or the like may be used for σ conversion.

対象データと参照データをそれぞれ、各信号値が成分のベクトルとして扱う場合、式(3)は以下の式(5)のように書き換わる。   When each of the target data and the reference data is handled as a vector of components, Expression (3) is rewritten as Expression (5) below.

tは注目対応データの各信号値を成分tとしたベクトル、rはk番目の参照対応データの各信号値を成分としたベクトル、ρは行列Ρの各成分を1次元に並び換えたベクトルで、ρの成分がρである。 t is a vector in which the signal values of the target corresponding data with component t i, r k is a vector that as a component of each signal value of the k-th reference corresponding data, [rho is rearranged each component of the matrix Ρ a one-dimensional In the vector, the component of ρ is ρ i .

式(3)および(5)で表される相関算出式は、注目対応データと参照対応データの差分を見ているため、値が0に近いほど両者の相似性が高いことを意味する。   Since the correlation calculation formulas represented by the equations (3) and (5) look at the difference between the attention correspondence data and the reference correspondence data, the closer the value is to 0, the higher the similarity between the two.

ここで、注目対応データおよび参照対応データの信号から直流成分(平均値を指し、画像の明るさに相当する)を減算してもよい。相関算出によって判定したいのは、注目対応データと参照対応データの持つ構造がどの程度似ているかであるため、その明るさ(直流成分)は無関係である。また、両者の相関が最も高くなるように、参照対応データのコントラストを調整してもよい。これは参照対応データの交流成分をスカラー倍することに相当する。このとき、式(3)は、以下の式(6)のように書き換わる。   Here, a direct current component (which indicates an average value and corresponds to the brightness of the image) may be subtracted from the signals of the attention correspondence data and the reference correspondence data. What is desired to be determined by the correlation calculation is how similar the structures of the attention correspondence data and the reference correspondence data are, and therefore the brightness (DC component) is irrelevant. Further, the contrast of the reference correspondence data may be adjusted so that the correlation between the two becomes the highest. This is equivalent to multiplying the AC component of the reference correspondence data by a scalar. At this time, the expression (3) is rewritten as the following expression (6).

aveとΡaveは、それぞれ行列TとΡにおける各信号値の平均値である。平均値は、均一の重みで算出してもよいし、加重平均にしてもよい。cは、コントラストを調整する係数であり、最小二乗法から以下の式(7)で表される。 T ave and Ρ ave are average values of the signal values in the matrices T and そ れ ぞ れ, respectively. The average value may be calculated with a uniform weight or a weighted average. c is a coefficient for adjusting the contrast, and is expressed by the following equation (7) from the least square method.

式(6)で相関値を算出した場合、ステップS109の加重平均算出時にも同様に明るさとコントラストの調整を施す必要がある。
<相関算出式の例2>
相関算出式の例として、SSIM(Structure Similarity)を使用してもよい。SSIMを用いた相関算出式は、以下の式(8)で表される。
When the correlation value is calculated by Expression (6), it is necessary to similarly adjust the brightness and contrast when calculating the weighted average in step S109.
<Example 2 of correlation calculation formula>
SSIM (Structure Similarity) may be used as an example of the correlation calculation formula. The correlation calculation formula using SSIM is expressed by the following formula (8).

L,C,Sはそれぞれ、明るさ、コントラスト、その他の構造に関する評価関数であり、0〜1の値をとる。各々の値が1に近いほど、比較する2つの信号が近いことを意味する。α,β,γは、各評価項目の重みを調整するパラメータである。ここで、α=0とすれば直流成分(明るさ)の差し引かれた相関算出が行われ、β=0とすれば交流成分のスカラー倍(コントラストの調整)を相関算出時に加味する必要がなくなるため、式(6)と同様の評価を行うことができる。   L, C, and S are evaluation functions related to brightness, contrast, and other structures, and take values from 0 to 1. The closer each value is to 1, the closer the two signals being compared. α, β, and γ are parameters for adjusting the weight of each evaluation item. Here, if α = 0, correlation calculation is performed by subtracting the DC component (brightness), and if β = 0, it is not necessary to consider scalar multiplication (contrast adjustment) of the AC component when calculating correlation. For this reason, the same evaluation as in the expression (6) can be performed.

なお、複数の相関算出式を組み合わせて相関値を算出しても構わない。また、領域ベースの相関算出、例えば、相関算出式の例1または例2を用いる際、参照対応データに等長変換を施して注目対応データとの相関値が最も高くなるようにしてもよい。等長変換とは、例えば、恒等変換や回転変換、あるいは反転変換などである。この際、最も相関値が高くなった変換を、ステップS109の加重平均算出時にも施すこととなる。より相似性の高い参照対応データを見つけることで、弊害低減の効果を向上させることができる。ただし、計算量は増大してしまうので、弊害低減の効果と計算量を比較して、等長変換を施すかを決めるとよい。   A correlation value may be calculated by combining a plurality of correlation calculation formulas. In addition, when using region-based correlation calculation, for example, Example 1 or Example 2 of the correlation calculation formula, isometric conversion may be performed on the reference correspondence data so that the correlation value with the attention correspondence data becomes the highest. The isometric conversion is, for example, identity conversion, rotation conversion, or inversion conversion. At this time, the conversion having the highest correlation value is also performed at the time of calculating the weighted average in step S109. By finding reference correspondence data with higher similarity, the effect of reducing harmful effects can be improved. However, since the amount of calculation increases, it is preferable to determine whether to perform the isometric conversion by comparing the effect of reducing the harmful effect with the amount of calculation.

ステップS107では、決定手段103dが、ステップS106で算出された相関値から複数の参照対応データ305a〜305cのそれぞれに対する重みを決定する。相関が高いほど、参照対応データは注目対応データと類似しているので、重みが大きくなるように設定する。例えば、式(5)を用いて、以下の式(9)のように重みを決定する。   In step S107, the determination unit 103d determines a weight for each of the plurality of reference correspondence data 305a to 305c from the correlation value calculated in step S106. Since the reference correspondence data is similar to the attention correspondence data as the correlation is higher, the weight is set to be larger. For example, the weight is determined using the equation (5) as in the following equation (9).

はk番目の参照対応データに対応した重み、hはフィルタの強さを表す。Zは重みwの規格化因子であり、以下の式(10)を満たす。 w k represents the weight corresponding to the k-th reference correspondence data, and h represents the strength of the filter. Z is a normalization factor of the weight w k and satisfies the following formula (10).

ただし、重みを決定する方法はこれに限定されない。例えば、相関値と対応した重みのテーブルを所持しておき、そのテーブルを参照して重みを決定してもよい。   However, the method for determining the weight is not limited to this. For example, a weight table corresponding to the correlation value may be held, and the weight may be determined with reference to the table.

ステップS108では、第3の取得手段103eが、第1の画像200から第2の画像300における複数の参照対応画素302a〜302cそれぞれに対応する複数の参照画素202a〜202cの信号値を取得する。参照対応画素302a〜302cと参照画素202a〜202cは、各々の画像に対して同一の位置に位置している。なお、本ステップはステップS105からステップS109の間なら、いつ実行しても構わない。また、本実施例では、参照画素を3つ取得しているが、それ以上取得しても構わない。   In step S108, the third acquisition unit 103e acquires the signal values of the plurality of reference pixels 202a to 202c corresponding to the plurality of reference corresponding pixels 302a to 302c in the first image 200 to the second image 300, respectively. The reference corresponding pixels 302a to 302c and the reference pixels 202a to 202c are located at the same position with respect to each image. Note that this step may be executed at any time between step S105 and step S109. In this embodiment, three reference pixels are acquired. However, more reference pixels may be acquired.

ステップS109では、ステップS107で決定された重みを用いて、参照画素の信号値における加重平均を算出する。そして、生成手段103fが、算出した加重平均で注目画素の信号値を置換し、注目画素201から弊害が除去された出力画素を生成する。注目画素の近傍の構造と似た構造の信号値が重み付けされて平均化されるため、注目画素の構造(言い換えると、エッジの解像感)を保ったまま、高解像化で増幅されたノイズが低減される。さらに、重みをリンギングの少ない第2の画像から算出したことで、リンギングを被写体空間の本来の構造と区別することができ、ノイズと同様に平均化によってリンギングが低減されることとなる。   In step S109, a weighted average of the signal values of the reference pixels is calculated using the weight determined in step S107. Then, the generation unit 103f replaces the signal value of the target pixel with the calculated weighted average, and generates an output pixel in which the harmful effect is removed from the target pixel 201. Since the signal value of the structure similar to the structure in the vicinity of the target pixel is weighted and averaged, it was amplified with high resolution while maintaining the structure of the target pixel (in other words, the edge resolution). Noise is reduced. Furthermore, since the weight is calculated from the second image with little ringing, the ringing can be distinguished from the original structure of the subject space, and the ringing is reduced by averaging as with the noise.

ここまでの処理の流れを図7に示す。第2の画像300から算出された重みw(k=1,2,3・・・)を用いて、参照画素202a〜202cの加重平均である平均信号値203を算出する。そして、平均信号値203で注目画素201の信号値を置換する。ここで、加重平均信号値saveは、以下の式(11)のように算出した。 The flow of processing so far is shown in FIG. An average signal value 203 that is a weighted average of the reference pixels 202a to 202c is calculated using the weights w k (k = 1, 2, 3,...) Calculated from the second image 300. Then, the signal value of the target pixel 201 is replaced with the average signal value 203. Here, the weighted average signal value s ave was calculated as in the following equation (11).

はk番目の参照画素における信号値である。注目画素と参照画素が複数の画素を有する場合、sおよびsaveはベクトル量となる。ただし、加重平均の算出方法はこれに限らず、例えば非線型結合などを用いてもよい。 s k is a signal value in the kth reference pixel. If the reference pixel and the pixel of interest has a plurality of pixels, s k and s ave is a vector quantity. However, the method of calculating the weighted average is not limited to this, and for example, non-linear combination may be used.

また、ステップS106での相関値の算出において、直流成分の減算とコントラストの調整を行っている場合は、参照画素に対応する明るさとコントラストの調節を行ってから加重平均を算出しなければならない。これは式(4)のサイズ変換や、等長変換に関しても同様である。   Further, in the calculation of the correlation value in step S106, when the subtraction of the DC component and the adjustment of the contrast are performed, the weighted average must be calculated after adjusting the brightness and the contrast corresponding to the reference pixel. The same applies to the size conversion and equal-length conversion in equation (4).

また、本実施例では弊害低減のために置換処理を用いたが、信号値の加重平均を参考にして学習型の弊害低減処理を使用してもよい。   In this embodiment, replacement processing is used to reduce the harmful effects. However, a learning-type adverse effect reduction process may be used with reference to a weighted average of signal values.

ステップS110では、入力画像の既定の領域を処理し終えたかを判定する。弊害を低減したい画素を全て処理し終えたなら終了し、まだ残っている場合はステップS103に戻って新たな注目画素を選択する。   In step S110, it is determined whether the predetermined area of the input image has been processed. If all the pixels for which adverse effects are to be reduced have been processed, the process ends. If there are any remaining pixels, the process returns to step S103 to select a new pixel of interest.

以上のような処理により、画像の高解像化に伴って発生する複数の弊害を同時に低減することができる。   By the processing as described above, it is possible to simultaneously reduce a plurality of adverse effects that occur as a result of higher image resolution.

次に、本発明の効果を高めるための望ましい条件について説明する。   Next, desirable conditions for enhancing the effect of the present invention will be described.

まず、第2の画像の解像度合は、入力画像の解像度合以上であることが望ましい。もし、第2の画像の解像度合が第1の画像の解像度合に比べて小さ過ぎると、加重平均で生成した出力画像は第1の画像より解像感が低下する。これは第1の画像よりも解像度合の小さい第2の画像から重みを算出するため、類似性の低い構造でも重みが大きくなってしまうからである。そのため、入力画像よりも第2の画像の解像度合を低下させることは避けるほうが望ましい。   First, it is desirable that the resolution of the second image is equal to or higher than the resolution of the input image. If the resolution of the second image is too small compared to the resolution of the first image, the output image generated by the weighted average has a lower resolution than the first image. This is because the weight is calculated from the second image having a smaller resolution than the first image, so that the weight is increased even in a structure with low similarity. Therefore, it is preferable to avoid reducing the resolution of the second image rather than the input image.

また、第2の画像の解像度合は、第1の画像の解像度合に応じて決定することが望ましい。第1および第2の画像の解像度合が近いと、両者に出現した弊害も同程度となってしまい、弊害除去の効果が得られにくくなるためである。逆に第1および第2の画像の解像度合が離れ過ぎても、前述したように出力画像の解像感が低下してしまう。   In addition, it is desirable to determine the resolution of the second image according to the resolution of the first image. This is because if the resolutions of the first and second images are close to each other, the harmful effects appearing in both images will be of the same level, and it will be difficult to obtain the harmful effect. Conversely, if the resolution of the first and second images is too far apart, the resolution of the output image will deteriorate as described above.

また、入力画像を撮影した際の撮影条件から第2の画像の解像度合を決定することが望ましい。さらに望ましくは、撮影条件には、ISO感度と輝度レベルの情報が含まれているとよい。これは入力画像に発生しているノイズは、撮影時のISO感度や入力画像の輝度レベルによって変化するためである。つまり、入力画像に発生しているノイズが大きいほど、高解像化時に増幅されるノイズも大きくなるので、より解像度合が小さい画像、言い換えるとノイズ増幅が小さい画像を第2の画像としたほうがノイズ低減効果を向上させられる。   In addition, it is desirable to determine the resolution of the second image from the shooting conditions when the input image is shot. More preferably, the photographing conditions include information on ISO sensitivity and luminance level. This is because the noise generated in the input image changes depending on the ISO sensitivity at the time of shooting and the luminance level of the input image. In other words, the greater the noise generated in the input image, the greater the noise that is amplified at the time of high resolution. Therefore, it is better to use an image with a smaller resolution, in other words, an image with less noise amplification as the second image. The noise reduction effect can be improved.

また、第2の画像の解像度合に応じて、ステップS107で決める重みを変化させることが望ましい。さらに望ましくは、第1および第2の画像の解像度合の差が大きいほど、注目対応データと相関が強い参照対応データの重みを、相関が弱いものの重みで除した値が大きくなるようにするとよい。注目対応データと相関が強い参照対応データほど、重みがより大きくなるようにパラメータを調節することで、より相似性の高い構造だけが重視されるようになり、解像感の低下を防ぐことができる。例えば、式(9)では、hを0に近付けることに相当する。   Also, it is desirable to change the weight determined in step S107 according to the resolution of the second image. More desirably, the larger the difference in resolution between the first and second images, the larger is the value obtained by dividing the weight of the reference correspondence data having a strong correlation with the attention correspondence data by the weight of the weak correlation. . By adjusting the parameters so that the weight of the reference correspondence data that has a strong correlation with the attention correspondence data becomes larger, only the structure with higher similarity is emphasized, and the deterioration of the resolution can be prevented. it can. For example, in equation (9), this corresponds to bringing h close to 0.

以上のような構成により、画像の高解像化に伴って発生する複数の弊害を同時に低減可能な撮像装置を提供することができる。   With the configuration as described above, it is possible to provide an imaging apparatus that can simultaneously reduce a plurality of adverse effects that occur with high image resolution.

図8,9を用いて、注目画素における弊害の大きさに応じて処理を切り換え可能な本実施例の画像処理方法を撮像装置100に適用した場合について説明する。図8は本実施例の画像処理方法のフローチャート、図9は本実施例の第1の画像500と第2の画像600との関係図である。なお、以下の説明では、実施例1の処理フローと同様の部分を省略する。また、図8に示す方法は、コンピュータに各ステップの機能を実行させるための画像処理プログラムとして具現化が可能である。   The case where the image processing method of the present embodiment in which the process can be switched according to the magnitude of the harmful effect on the target pixel is applied to the imaging apparatus 100 will be described with reference to FIGS. FIG. 8 is a flowchart of the image processing method of the present embodiment, and FIG. 9 is a relationship diagram between the first image 500 and the second image 600 of the present embodiment. In the following description, the same parts as the processing flow of the first embodiment are omitted. Further, the method shown in FIG. 8 can be embodied as an image processing program for causing a computer to execute the function of each step.

ステップS201〜S204は、実施例1におけるステップS101〜S104と同様であるので説明を省略する。   Steps S201 to S204 are the same as steps S101 to S104 in the first embodiment, and a description thereof will be omitted.

ステップS205では、第2の取得手段103cが第1の画像500内の注目画素501を含む注目データ(第3のデータ)503を取得する。そして、第2の取得手段103cは、注目データ503と第2の画像600内の注目対応画素601を含む注目対応データ603との相関値を算出する。ただし、注目画素501や注目データ503のサイズと形状、および位置はこれに限定されない。相関値の算出には、実施例1で挙げた手法などを用いるとよい。また、注目データ503の形状やサイズは、必ずしも注目対応データ603と一致している必要はない。   In step S <b> 205, the second acquisition unit 103 c acquires attention data (third data) 503 including the attention pixel 501 in the first image 500. Then, the second acquisition unit 103 c calculates a correlation value between the attention data 503 and the attention correspondence data 603 including the attention correspondence pixel 601 in the second image 600. However, the size, shape, and position of the target pixel 501 and the target data 503 are not limited to this. For the calculation of the correlation value, the method described in the first embodiment may be used. Further, the shape and size of the attention data 503 do not necessarily match the attention correspondence data 603.

ステップS206では、第2の取得手段103cがステップS205で算出された相関値が既定の条件を満たすか否かの判定を行う。注目データ503と注目対応データ603との相関値が規定の条件を満たす(相関が高い)場合はステップS207、条件を満たさない(相関が低い)場合はステップS210に進む。なお、本実施例では、第2の取得手段103cによって、注目データ503と注目対応データ603との相関値を算出し、算出された相関値が既定の条件を満たすか否かの判定を行っているが、他の構成によって行ってもよい。   In step S206, the second acquisition unit 103c determines whether the correlation value calculated in step S205 satisfies a predetermined condition. If the correlation value between the attention data 503 and the attention correspondence data 603 satisfies the prescribed condition (high correlation), the process proceeds to step S207. If the condition is not satisfied (correlation is low), the process proceeds to step S210. In this embodiment, the second acquisition unit 103c calculates the correlation value between the attention data 503 and the attention correspondence data 603, and determines whether the calculated correlation value satisfies a predetermined condition. However, other configurations may be used.

ここで、規定の条件を満たすと判定された場合は、注目データ503における高解像化の弊害が弱いことを意味しているので、従来のNLMフィルタと同様の処理を実行する。一方、既定の条件を満たさないと判定された場合は弊害の影響が強いので、ステップS210〜S213では、実施例1のステップS105〜S108と同様に、弊害低減処理を実行する。   Here, when it is determined that the prescribed condition is satisfied, it means that the adverse effect of the high resolution in the attention data 503 is weak, and thus the same processing as that of the conventional NLM filter is executed. On the other hand, if it is determined that the predetermined condition is not satisfied, the adverse effect is strong. Therefore, in steps S210 to S213, the harmful effect reduction process is executed in the same manner as steps S105 to S108 in the first embodiment.

ステップS207では、第1の画像500から複数の参照画素502a〜502cと参照画素502a〜502cを含む部分領域である参照データ505a〜505cを取得する。参照データ505a〜505cのサイズおよび形状は、必ずしも注目データ503と一致している必要はない。また、注目画素501の周辺に参照データ取得領域504を設定して、その中から複数の参照データを取得してもよい。なお、本実施例では、参照画素および参照データをそれぞれ3つずつ取得しているが、それ以上取得しても構わない。   In step S207, reference data 505a to 505c, which are partial regions including the plurality of reference pixels 502a to 502c and the reference pixels 502a to 502c, are acquired from the first image 500. The size and shape of the reference data 505a to 505c do not necessarily match the attention data 503. Further, a reference data acquisition region 504 may be set around the pixel of interest 501 and a plurality of reference data may be acquired from the reference data acquisition region 504. In this embodiment, three reference pixels and three reference data are acquired, but more may be acquired.

ステップS208では、実施例1のステップS106で説明した方法と同様の方法で、注目データ503と参照データ505a〜505cとの相関値を算出する。   In step S208, the correlation value between the attention data 503 and the reference data 505a to 505c is calculated by the same method as that described in step S106 of the first embodiment.

ステップS209では、実施例1のステップS107で説明した方法と同様の方法で、ステップS208で算出された相関値から各参照データの重みを決定する。   In step S209, the weight of each reference data is determined from the correlation value calculated in step S208 by the same method as that described in step S107 of the first embodiment.

ステップS214では、決定された重みを用いて参照画素502a〜502cの信号値における加重平均を算出する。そして、算出した加重平均を用いて、実施例1のステップS109と同様に注目画素501から弊害が除去された出力画素を生成する。   In step S214, a weighted average of the signal values of the reference pixels 502a to 502c is calculated using the determined weight. Then, using the calculated weighted average, an output pixel from which the harmful effect is removed from the target pixel 501 is generated in the same manner as in step S109 of the first embodiment.

ステップS215は、実施例1のステップ110と同様に弊害除去したい画素が残っている場合は、ステップS203に戻る。   Step S215 returns to Step S203 when there is a pixel that is desired to be removed from the harmful effects similarly to Step 110 of the first embodiment.

以上のような構成により、画像の高解像化に伴って発生する複数の弊害を同時に低減可能な撮像装置を提供することができる。   With the configuration as described above, it is possible to provide an imaging apparatus that can simultaneously reduce a plurality of adverse effects that occur with high image resolution.

本実施例では、実施例1,2で説明した画像処理方法を画像処理システムに適用した例について説明する。本実施例の画像処理システムでは、撮像装置と画像処理方法を行う画像処理装置が個別に存在し、それらを接続することで高解像化された画像の弊害低減を行う。図10は本実施例の画像処理システムの外観図、図11は画像処理システムのブロック図である。   In the present embodiment, an example in which the image processing method described in the first and second embodiments is applied to an image processing system will be described. In the image processing system of the present embodiment, there are an image processing apparatus and an image processing apparatus that perform an image processing method, respectively, and by connecting them, the adverse effect of a high-resolution image is reduced. FIG. 10 is an external view of the image processing system of this embodiment, and FIG. 11 is a block diagram of the image processing system.

撮像装置401は、結像光学系が結像する被写体像を撮像することで入力画像を取得する。撮像装置401で取得された入力画像は、通信部403を介して画像処理装置402に入力される。この際、必要に応じて撮像装置401の光学特性(光学伝達関数や点像強度分布)や撮影時の撮影条件(焦点距離、絞り値、ISO感度など)に関する情報が記憶部404に記憶される。高解像化部405は、入力画像から異なる解像力の第1の画像と第2の画像を生成する。ただし、撮像装置401が高解像化処理を行い、画像処理装置402に既に生成された第1の画像と第2の画像を入力してもよい。また、第2の画像を入力画像そのものとしてもよい。第1および第2の画像は、弊害低減部406に入力され、画像処理(弊害低減処理)が実行される。処理後の出力画像は、通信部403を介して表示装置407、記録媒体408、出力装置409のいずれか、または複数に出力される。表示装置407は、例えば液晶ディスプレイやプロジェクタ等である。ユーザーは、表示装置407を介して、処理途中の画像を確認しながら作業を行うことができる。記録媒体408は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバー等である。出力装置409は、プリンタなどである。画像処理装置402は、必要に応じて現像処理やその他の画像処理を行う機能を有していてよい。   The imaging device 401 acquires an input image by capturing a subject image formed by the imaging optical system. An input image acquired by the imaging device 401 is input to the image processing device 402 via the communication unit 403. At this time, information on the optical characteristics (optical transfer function and point image intensity distribution) of the imaging apparatus 401 and the shooting conditions (focal length, aperture value, ISO sensitivity, etc.) at the time of shooting are stored in the storage unit 404 as necessary. . The high resolution unit 405 generates a first image and a second image having different resolutions from the input image. However, the imaging device 401 may perform high resolution processing and input the first image and the second image that have already been generated to the image processing device 402. The second image may be the input image itself. The first and second images are input to the adverse effect reduction unit 406, and image processing (defect reduction processing) is executed. The processed output image is output to one or more of the display device 407, the recording medium 408, and the output device 409 via the communication unit 403. The display device 407 is, for example, a liquid crystal display or a projector. The user can perform work while confirming an image being processed via the display device 407. The recording medium 408 is, for example, a semiconductor memory, a hard disk, a server on a network, or the like. The output device 409 is a printer or the like. The image processing apparatus 402 may have a function of performing development processing and other image processing as necessary.

以上のような構成により、画像の高解像化に伴って発生する複数の弊害を同時に低減可能な画像処理システムを提供することができる。   With the configuration as described above, it is possible to provide an image processing system that can simultaneously reduce a plurality of adverse effects that occur with high image resolution.

本実施例では、実施例1,2で説明した画像処理方法を撮像システムに適用した例について説明する。図12は本実施例の撮像システムの外観図、図13は撮像システムのブロック図である。本実施例の撮像システムは、撮像装置が無線で接続されたサーバーに画像を転送し、サーバー内で高解像化とそれに伴う弊害低減処理を行う。   In this embodiment, an example in which the image processing method described in Embodiments 1 and 2 is applied to an imaging system will be described. FIG. 12 is an external view of the imaging system of the present embodiment, and FIG. 13 is a block diagram of the imaging system. The image pickup system of the present embodiment transfers an image to a server to which the image pickup apparatus is connected wirelessly, and performs high resolution in the server and an effect reduction process associated therewith.

サーバー703は、通信部704を有し、ネットワーク702を介して撮像装置701に接続されている。撮像装置701で撮影が行われると、入力画像が自動的、あるいは手動でサーバー703に入力される。その際、必要に応じて撮像装置701の光学特性や撮影条件に関する情報も入力される。なお、サーバー703に入力される画像は入力画像の代わりに、第1の画像と第2の画像でもよい。サーバー703に入力された入力画像は、記憶部705に記憶される。その後、入力画像には画像処理部706で高解像化処理と、弊害低減処理が施され、出力画像が生成される。出力画像は撮像装置701に出力されるか、記憶部705に記憶される。   The server 703 has a communication unit 704 and is connected to the imaging device 701 via the network 702. When shooting is performed by the imaging device 701, an input image is input to the server 703 automatically or manually. At that time, information on the optical characteristics and imaging conditions of the imaging device 701 is also input as necessary. Note that the image input to the server 703 may be the first image and the second image instead of the input image. The input image input to the server 703 is stored in the storage unit 705. Thereafter, the input image is subjected to high resolution processing and adverse effect reduction processing by the image processing unit 706, and an output image is generated. The output image is output to the imaging device 701 or stored in the storage unit 705.

以上のような構成により、画像の高解像化に伴って発生する複数の弊害を同時に低減可能な撮像システムを提供することができる。   With the configuration as described above, it is possible to provide an imaging system that can simultaneously reduce a plurality of adverse effects that occur with higher image resolution.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されたものではなく、その要旨の範囲内で様々な変形、及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

103 画像処理部(画像処理装置)
103a 第1の取得手段
103b 選択手段
103c 第2の取得手段
103d 決定手段
103e 第3の取得手段
103f 生成手段
200 第1の画像
201 注目画素
202a〜202c 参照画素
203 平均信号値
300 第2の画像
301 注目対応画素
303 注目対応データ(第1のデータ)
304 参照対応データ取得領域
305a〜305c 参照対応データ(第2のデータ)
103 Image processing unit (image processing apparatus)
103a first acquisition unit 103b selection unit 103c second acquisition unit 103d determination unit 103e third acquisition unit 103f generation unit 200 first image 201 target pixel 202a to 202c reference pixel 203 average signal value 300 second image 301 Attention corresponding pixel 303 Attention corresponding data (first data)
304 Reference correspondence data acquisition areas 305a to 305c Reference correspondence data (second data)

Claims (15)

入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得する第1の取得手段と、
前記第1の画像から注目画素を選択する選択手段と、
前記第2の画像から、前記注目画素に対応する画素を含む第1のデータと、複数の第2のデータを取得する第2の取得手段と、
前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定する決定手段と、
前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得する第3の取得手段と、
前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成する生成手段と、を有することを特徴とする画像処理装置。
First acquisition means for acquiring a first image obtained by increasing the resolution of an input image, and a second image having a smaller resolution than the first image;
Selecting means for selecting a pixel of interest from the first image;
From the second image, first data including a pixel corresponding to the target pixel, and second acquisition means for acquiring a plurality of second data;
Determining means for determining a weight for each of the plurality of second data based on a correlation between the first and second data;
Third acquisition means for acquiring signal values of a plurality of reference pixels corresponding to the plurality of second data from the first image;
An image processing apparatus comprising: a generation unit configured to generate an output pixel corresponding to the target pixel based on a signal value calculated from the signal values of the plurality of reference pixels and the weight.
前記第1の取得手段は、入力画像に基づいて前記第1および第2の画像を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first acquisition unit generates the first and second images based on an input image. 前記第1の取得手段は、前記第2の画像の解像度合が前記入力画像の解像度合以上となるように、前記第2の画像を生成することを特徴とする請求項2に記載の画像処理装置。   3. The image processing according to claim 2, wherein the first acquisition unit generates the second image so that a resolution of the second image is equal to or higher than a resolution of the input image. apparatus. 前記第1の取得手段は、前記第1の画像の解像度合に応じて前記第2の画像の解像度合を決定することを特徴とする請求項2または3に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first acquisition unit determines a resolution degree of the second image according to a resolution degree of the first image. 前記第1の取得手段は、前記入力画像を撮影した際の撮影条件に基づいて前記第2の画像の解像度合を決定することを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。   The said 1st acquisition means determines the resolution degree of a said 2nd image based on the imaging conditions at the time of imaging | photography of the said input image, The any one of Claim 2 to 4 characterized by the above-mentioned. Image processing device. 前記撮影条件は、ISO感度と輝度レベルであることを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the photographing conditions are an ISO sensitivity and a luminance level. 前記第1の取得手段は、前記入力画像に反復演算を施すことで、前記第1および第2の画像を生成し、
前記第1の画像に施される前記反復演算の回数は、前記第2の画像に施される前記反復演算の回数よりも多いことを特徴とする請求項2から6のいずれか1項に記載の画像処理装置。
The first acquisition unit generates the first and second images by performing an iterative operation on the input image,
The number of times of the iterative operation applied to the first image is greater than the number of times of the iterative operation applied to the second image. Image processing apparatus.
前記決定手段は、前記第2の画像の解像度合に応じて、前記重みを決定することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines the weight according to a resolution of the second image. 前記決定手段は、前記第1の画像と前記第2の画像の解像度合の差が大きいほど、前記第1のデータと相関が強い前記第2のデータの重みを、前記第1のデータと相関が弱い前記第2のデータの重みで除した値が大きくなるように、前記重みを決定することを特徴とする請求項8に記載の画像処理装置。   The determination means correlates the weight of the second data, which has a strong correlation with the first data, as the difference in resolution between the first image and the second image increases. The image processing apparatus according to claim 8, wherein the weight is determined so that a value obtained by dividing the second data by the weight of the weak second data is increased. 前記第2の取得手段は、前記第1の画像から前記注目画素を含む第3のデータを取得し、前記第1および第3のデータの相関に基づいて、前記第2のデータを取得するどうか判定することを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。   Whether the second acquisition means acquires third data including the target pixel from the first image, and acquires the second data based on a correlation between the first and third data The image processing apparatus according to claim 1, wherein the determination is performed. 結像光学系が結像する被写体像を撮像して入力画像を出力する撮像手段と、
前記入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得する第1の取得手段と、
前記第1の画像から注目画素を選択する選択手段と、
前記第2の画像から、前記注目画素に対応する画素を含む第1のデータと、複数の第2のデータを取得する第2の取得手段と、
前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定する決定手段と、
前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得する第3の取得手段と、
前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成する生成手段と、を有することを特徴とする撮像装置。
An imaging means for imaging a subject image formed by the imaging optical system and outputting an input image;
First acquisition means for acquiring a first image obtained by increasing the resolution of the input image and a second image having a resolution smaller than that of the first image;
Selecting means for selecting a pixel of interest from the first image;
From the second image, first data including a pixel corresponding to the target pixel, and second acquisition means for acquiring a plurality of second data;
Determining means for determining a weight for each of the plurality of second data based on a correlation between the first and second data;
Third acquisition means for acquiring signal values of a plurality of reference pixels corresponding to the plurality of second data from the first image;
An image pickup apparatus comprising: a generation unit configured to generate an output pixel corresponding to the target pixel based on a signal value calculated from the signal values of the plurality of reference pixels and the weight.
結像光学系が結像する被写体像を撮像して入力画像を出力する撮像手段と、
前記入力画像を高解像化して第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像を生成する画像生成手段と、
前記第1および第2の画像を取得する第1の取得手段と、
前記第1の画像から注目画素を選択する選択手段と、
前記第2の画像から、前記注目画素に対応する画素を含む第1のデータと、複数の第2のデータを取得する第2の取得手段と、
前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定する決定手段と、
前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得する第3の取得手段と、
前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成する生成手段と、を有することを特徴とする画像処理システム。
An imaging means for imaging a subject image formed by the imaging optical system and outputting an input image;
Image generating means for generating a first image by resolving the input image and generating a second image having a resolution smaller than that of the first image;
First acquisition means for acquiring the first and second images;
Selecting means for selecting a pixel of interest from the first image;
From the second image, first data including a pixel corresponding to the target pixel, and second acquisition means for acquiring a plurality of second data;
Determining means for determining a weight for each of the plurality of second data based on a correlation between the first and second data;
Third acquisition means for acquiring signal values of a plurality of reference pixels corresponding to the plurality of second data from the first image;
An image processing system comprising: generating means for generating an output pixel corresponding to the target pixel based on a signal value calculated from the signal values of the plurality of reference pixels and the weight.
入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得するステップと、
前記第1の画像から注目画素を選択するステップと、
前記第2の画像から前記注目画素に対応した画素を含む第1のデータを取得するステップと、
前記第2の画像から複数の第2のデータを取得するステップと、
前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定するステップと、
前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得するステップと、
前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成するステップと、を有することを特徴とする画像処理方法。
Obtaining a first image obtained by resolving an input image and a second image having a resolution smaller than that of the first image;
Selecting a pixel of interest from the first image;
Obtaining first data including a pixel corresponding to the target pixel from the second image;
Obtaining a plurality of second data from the second image;
Determining a weight for each of the plurality of second data based on the correlation of the first and second data;
Obtaining signal values of a plurality of reference pixels corresponding to the plurality of second data from the first image;
Generating an output pixel corresponding to the pixel of interest based on signal values calculated from the signal values of the plurality of reference pixels and the weights.
前記第1の画像から前記注目画素を含む第3のデータを取得するステップと、
前記第1のデータと前記第3のデータとの相関を求めるステップと、
前記相関に基づいて、前記複数の第2のデータを取得するステップを行うかどうか判定するステップと、を更に有することを特徴とする請求項11に記載の画像処理方法。
Obtaining third data including the pixel of interest from the first image;
Obtaining a correlation between the first data and the third data;
The image processing method according to claim 11, further comprising a step of determining whether to perform the step of acquiring the plurality of second data based on the correlation.
入力画像を高解像化した第1の画像と、前記第1の画像よりも解像度合が小さい第2の画像と、を取得するステップと、
前記第1の画像から注目画素を選択するステップと、
前記第2の画像から前記注目画素に対応した画素を含む第1のデータを取得するステップと、
前記第2の画像から複数の第2のデータを取得するステップと、
前記第1および第2のデータの相関に基づいて、前記複数の第2のデータごとに重みを決定するステップと、
前記第1の画像から前記複数の第2のデータに対応する複数の参照画素の信号値を取得するステップと、
前記複数の参照画素の信号値と前記重みから算出した信号値に基づいて、前記注目画素に対応する出力画素を生成するステップと、をコンピュータに実行させることを特徴とする画像処理プログラム。
Obtaining a first image obtained by resolving an input image and a second image having a resolution smaller than that of the first image;
Selecting a pixel of interest from the first image;
Obtaining first data including a pixel corresponding to the target pixel from the second image;
Obtaining a plurality of second data from the second image;
Determining a weight for each of the plurality of second data based on the correlation of the first and second data;
Obtaining signal values of a plurality of reference pixels corresponding to the plurality of second data from the first image;
An image processing program causing a computer to execute an output pixel corresponding to the target pixel based on a signal value calculated from the signal values of the plurality of reference pixels and the weight.
JP2014214367A 2014-10-21 2014-10-21 Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program Active JP6468791B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014214367A JP6468791B2 (en) 2014-10-21 2014-10-21 Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program
PCT/JP2015/004697 WO2016063452A1 (en) 2014-10-21 2015-09-15 Image processing apparatus, image pickup apparatus, image processing system, and image processing process

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014214367A JP6468791B2 (en) 2014-10-21 2014-10-21 Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program

Publications (3)

Publication Number Publication Date
JP2016082496A true JP2016082496A (en) 2016-05-16
JP2016082496A5 JP2016082496A5 (en) 2017-11-24
JP6468791B2 JP6468791B2 (en) 2019-02-13

Family

ID=55760515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014214367A Active JP6468791B2 (en) 2014-10-21 2014-10-21 Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program

Country Status (2)

Country Link
JP (1) JP6468791B2 (en)
WO (1) WO2016063452A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209432A (en) * 1999-01-18 2000-07-28 Dainippon Screen Mfg Co Ltd Image processing method
JP2006222493A (en) * 2005-02-08 2006-08-24 Seiko Epson Corp Creation of high resolution image employing a plurality of low resolution images
JP2014113479A (en) * 2012-11-15 2014-06-26 Toshiba Corp X-ray diagnostic apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209432A (en) * 1999-01-18 2000-07-28 Dainippon Screen Mfg Co Ltd Image processing method
JP2006222493A (en) * 2005-02-08 2006-08-24 Seiko Epson Corp Creation of high resolution image employing a plurality of low resolution images
JP2014113479A (en) * 2012-11-15 2014-06-26 Toshiba Corp X-ray diagnostic apparatus

Also Published As

Publication number Publication date
JP6468791B2 (en) 2019-02-13
WO2016063452A1 (en) 2016-04-28

Similar Documents

Publication Publication Date Title
JP7242185B2 (en) Image processing method, image processing apparatus, image processing program, and storage medium
US10282822B2 (en) Digital correction of optical system aberrations
JP5374217B2 (en) Image processing apparatus and method
JP5284537B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus using the same
EP1924966B1 (en) Adaptive exposure control
US8624923B2 (en) Method of forming an image based on a plurality of image frames, image processing system and digital camera
JP5756099B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
JP4577565B2 (en) Image processing method, image processing apparatus, program, and photographing apparatus
JP2022036179A (en) Image processing apparatus and control method therefor and program
JP6071419B2 (en) Image processing apparatus and image processing method
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
US10217193B2 (en) Image processing apparatus, image capturing apparatus, and storage medium that stores image processing program
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20150161771A1 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
JP2009088935A (en) Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP6213466B2 (en) Image processing apparatus, image processing method, and image processing program
JP2012003454A (en) Image processing apparatus, imaging device and image processing program
JP2016119532A (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6468791B2 (en) Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program
JP2018067868A (en) Imaging apparatus
JP2017130167A (en) Image processing device, imaging device, and image processing program
JP2017028583A (en) Image processor, imaging apparatus, image processing method, image processing program, and storage medium
JP2015119428A (en) Image processing method, image processor, imaging device, image processing program, and storage medium
JP6555881B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2012156714A (en) Program, image processing device, image processing method, and imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R151 Written notification of patent or utility model registration

Ref document number: 6468791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151