JP4355744B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4355744B2
JP4355744B2 JP2007325271A JP2007325271A JP4355744B2 JP 4355744 B2 JP4355744 B2 JP 4355744B2 JP 2007325271 A JP2007325271 A JP 2007325271A JP 2007325271 A JP2007325271 A JP 2007325271A JP 4355744 B2 JP4355744 B2 JP 4355744B2
Authority
JP
Japan
Prior art keywords
image data
captured image
resolution
captured
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007325271A
Other languages
Japanese (ja)
Other versions
JP2009147830A (en
Inventor
修平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007325271A priority Critical patent/JP4355744B2/en
Priority to CN200880121068.8A priority patent/CN101896934B/en
Priority to PCT/JP2008/072977 priority patent/WO2009078437A1/en
Publication of JP2009147830A publication Critical patent/JP2009147830A/en
Application granted granted Critical
Publication of JP4355744B2 publication Critical patent/JP4355744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の低解像度画像データから1つの高解像度画像データを生成する画像処理装置等に関するものである。   The present invention relates to an image processing apparatus that generates one high resolution image data from a plurality of low resolution image data.

エリアセンサ等の撮像装置で撮像された画像の解像度は、当該撮像装置が有する撮像素子の密度に依存している。撮像装置のユーザは、より解像度の高い画像を撮像できる撮像装置を求めており、カメラメーカ各社は、解像度に対するユーザの要求に応じるために、撮像素子密度の高い高解像度カメラを次々と発売している。   The resolution of an image captured by an imaging device such as an area sensor depends on the density of the image sensor that the imaging device has. Users of imaging devices are demanding imaging devices that can capture images with higher resolution, and camera manufacturers have released high-resolution cameras with high imaging element density one after another in order to meet user requirements for resolution. Yes.

しかしながら、撮像素子の高密度化にも限界はあり、また高密度化することにより撮像装置の製造コストが増大するという問題もある。そこで、同一の撮像対象に対して、少しずつ撮像位置をずらしながら複数回の撮像を行い、撮像された複数の撮像画像データを合成して、該撮像画像データよりも解像度の高い高解像度画像データを生成する高解像度化技術が従来から用いられている。   However, there is a limit to increasing the density of the image sensor, and there is a problem that the manufacturing cost of the imaging device increases due to the increase in density. Therefore, a plurality of times of imaging are performed on the same imaging target while shifting the imaging position little by little, and a plurality of captured image data is synthesized, and high-resolution image data having a higher resolution than the captured image data Conventionally, a high-resolution technique for generating is used.

画像の高解像度化技術は、一般的にイメージシフト処理と超解像処理との二種類に分けられる。イメージシフト処理では、同一の撮像対象について少しずつ撮像位置をずらしながら複数回の撮像を行う。そして、複数の撮像画像データのそれぞれに含まれる画素と、高解像度画像データの画素との位置の対応を求め、撮像画像データの各画素の輝度値を高解像度画像データの各画素にマッピングすることにより、複数の撮像画像データを反映させた高解像度画像データを生成する。   Image resolution enhancement techniques are generally divided into two types: image shift processing and super-resolution processing. In the image shift process, imaging is performed a plurality of times while gradually shifting the imaging position for the same imaging target. Then, the correspondence between the positions of the pixels included in each of the plurality of captured image data and the pixels of the high resolution image data is obtained, and the luminance value of each pixel of the captured image data is mapped to each pixel of the high resolution image data. Thus, high-resolution image data reflecting a plurality of captured image data is generated.

なお、イメージシフト処理では、撮像画像データの全画素を高解像度画像データの画素にマッピングする必要があるため、撮像画像データの撮像位置及び撮像枚数は固定とする必要がある。したがって、イメージシフト処理では、低い計算コストで高解像度画像データを生成できるという利点を有している反面、解像度を飛躍的に向上させることは難しいという難点も有している。   In the image shift process, since it is necessary to map all the pixels of the captured image data to the pixels of the high resolution image data, it is necessary to fix the imaging position and the number of captured images of the captured image data. Therefore, the image shift process has an advantage that high-resolution image data can be generated at a low calculation cost, but has a problem that it is difficult to dramatically improve the resolution.

一方、超解像処理では、まずイメージシフト処理と同様に、同一の撮像対象について少しずつ撮像位置をずらしながら複数回の撮像を行う。そして、超解像処理では、高解像度画像データを推定し、推定した高解像度画像と、上記複数回の撮像にて得られた複数の撮像画像データとの差が小さくなるように上記仮定した高解像度画像データを更新する。   On the other hand, in the super-resolution processing, first, similarly to the image shift processing, imaging is performed a plurality of times while gradually shifting the imaging position for the same imaging target. In the super-resolution processing, high-resolution image data is estimated, and the assumed high-resolution image data is reduced so that the difference between the estimated high-resolution image and the plurality of captured image data obtained by the plurality of imaging operations is reduced. Update the resolution image data.

このような方式の超解像処理は、再構成型超解像処理と呼ばれている。再構成型超解像処理としては、例えばML(Maximum-likelihood)法、MAP(Maximum A Posterior)法や、POCS(Projection On to Convex Set)法等が一般に知られており、下記の非特許文献1及び特許文献1にも開示されている。   Such a super-resolution process is called a reconfigurable super-resolution process. As reconstruction-type super-resolution processing, for example, ML (Maximum-likelihood) method, MAP (Maximum A Posterior) method, POCS (Projection On to Convex Set) method and the like are generally known. 1 and Patent Document 1.

再構成型超解像処理では、使用する低解像度画像データ(撮像画像データ)の枚数に制限がないため、解像度を飛躍的に向上させることができる。その反面、再構成型超解像処理では、高解像度画像データの更新に繰り返し演算が用いられるので、イメージシフト処理と比べて、一般に計算コストが高くなる。   In reconstruction super-resolution processing, the number of low-resolution image data (captured image data) to be used is not limited, so that the resolution can be dramatically improved. On the other hand, in the reconfigurable super-resolution processing, since iterative calculation is used for updating high-resolution image data, the calculation cost is generally higher than that of the image shift processing.

以下では、超解像処理についてより詳細に説明する。超解像処理(再構成型)は、生成される高解像度画像に対して定義される評価関数の最適化問題として定式化される。つまり、超解像処理は、「推定された撮像画像データ(高解像度画像データ)」と「観測された撮像画像データ(撮像画像データ)」との二乗誤差に基づく評価関数(誤差項)の最適化問題に帰着される。なお、超解像処理は、未知数の非常に大きな最適化計算であるため、その評価関数の最適化には例えば最急降下法などの繰返し計算法がよく利用される。   Hereinafter, the super-resolution processing will be described in more detail. The super-resolution processing (reconstruction type) is formulated as an optimization problem of the evaluation function defined for the generated high resolution image. In other words, the super-resolution processing is an optimal evaluation function (error term) based on the square error between “estimated captured image data (high-resolution image data)” and “observed captured image data (captured image data)”. It will be reduced to the problem. Note that since the super-resolution processing is an optimization calculation with a very large number of unknowns, for example, an iterative calculation method such as the steepest descent method is often used to optimize the evaluation function.

また、高解像度画像データの特性が既知である場合には、その高解像度画像データの特性に基づく評価関数(拘束項)を評価関数(誤差項)に付加してもよい。例えば、高解像度画像データのエッジ成分が小さいことが予めわかっている場合には、高解像度画像データにラプラシアンフィルタを乗じた画像データに基づく評価関数(拘束項)を付加すればよい。これにより、高解像度画像データのエッジ成分が小さいということを超解像処理に反映させることができるので、高解像度化の精度を向上させることができる。   When the characteristics of the high resolution image data are known, an evaluation function (constraint term) based on the characteristics of the high resolution image data may be added to the evaluation function (error term). For example, when it is known in advance that the edge component of the high resolution image data is small, an evaluation function (constraint term) based on image data obtained by multiplying the high resolution image data by a Laplacian filter may be added. As a result, the fact that the edge component of the high-resolution image data is small can be reflected in the super-resolution processing, so that the accuracy of increasing the resolution can be improved.

ここで、従来の超解像処理方法における処理の流れについて図22に基づいて説明する。図22は、従来の超解像処理方法の一例を示すフローチャートである。ここでは、撮像位置を少しずつずらしながら同一の撮像対象を撮像したm枚の撮像画像データから、1枚の高解像度画像データを生成することを想定している(mは正数)。なお、mは、撮像画像データを何倍に高解像度化するかに応じて決定される。具体的には、撮像画像データをx倍に高解像度化する場合には、少なくともx枚の撮像画像データが必要となる。 Here, the flow of processing in the conventional super-resolution processing method will be described with reference to FIG. FIG. 22 is a flowchart showing an example of a conventional super-resolution processing method. Here, it is assumed that one piece of high-resolution image data is generated from m pieces of picked-up image data obtained by picking up the same image pickup object while shifting the image pickup position little by little (m is a positive number). Note that m is determined according to how many times the resolution of the captured image data is increased. Specifically, in order to increase the resolution of the captured image data by x times, at least x 2 captured image data are required.

撮像対象の撮像方法について、図23に基づいて説明する。図23は、超解像処理に用いる撮像画像データの撮像方法の一例を示す図である。なお、同図では簡単のため、9枚の撮像画像データを用いて1枚の高解像度画像データを生成する例、すなわちm=9であり、撮像画像データを3倍に高解像度化する例を示している。また、各撮像画像データは、図示のように縦5画素、横5画素の25画素で構成されていることを想定している。   An imaging method of an imaging target will be described based on FIG. FIG. 23 is a diagram illustrating an example of an imaging method of captured image data used for super-resolution processing. In the figure, for simplicity, an example of generating one piece of high-resolution image data using nine pieces of picked-up image data, that is, an example in which m = 9 and the picked-up image data is three times higher in resolution. Show. Each captured image data is assumed to be composed of 25 pixels of 5 pixels in the vertical direction and 5 pixels in the horizontal direction as shown in the figure.

撮像画像データを3倍に高解像度化する場合には、撮像画像データの1画素の1/3ピッチで撮像位置を移動させながら、各撮像位置にて1回ずつ撮像を行う。これにより、図示のような、撮像画像データの1画素の1/3ピッチずつ撮像位置のずれた9枚の撮像画像データが取得される。同図では、各撮像画像データの撮像位置を1〜9の数字で示している。すなわち、各画素に付された数字は撮像位置を示している。例えば、同図の左上に記載されている撮像画像データの各画素には、1という数字が付されており、これは、同図の左上に記載されている撮像画像データの各画素が、撮像位置1で撮像されたことを示している。   In order to increase the resolution of the captured image data by three times, the image capturing is performed once at each image capturing position while moving the image capturing position by 1/3 pitch of one pixel of the captured image data. As a result, nine pieces of captured image data whose image capturing positions are shifted by 1/3 pitch of one pixel of the captured image data as illustrated are acquired. In the figure, the imaging positions of each captured image data are indicated by numerals 1 to 9. That is, the number given to each pixel indicates the imaging position. For example, each pixel of the captured image data described in the upper left of the figure is numbered 1, and this is because each pixel of the captured image data described in the upper left of the figure is captured. It shows that the image was taken at position 1.

なお、撮像対象の形状及び色彩を正確に反映させた高解像度画像データを生成するためには、各撮像画像データを同一の撮像条件にて撮像する必要がある。ここで、撮像条件とは、露光時間(シャッタースピード)、照明強度、撮像感度、使用するフィルタ、及びアイリスの少なくとも1つを指す。同図の例では、このような撮像条件を各撮像位置にて同一にしており、同図ではこの撮像条件をaで示している。すなわち、各画素に付された英字は撮像条件を示している。   Note that in order to generate high-resolution image data that accurately reflects the shape and color of the imaging target, it is necessary to capture each captured image data under the same imaging conditions. Here, the imaging condition refers to at least one of exposure time (shutter speed), illumination intensity, imaging sensitivity, filter to be used, and iris. In the example of the figure, such an imaging condition is the same at each imaging position, and in the figure, this imaging condition is indicated by a. That is, the alphabetic character attached to each pixel indicates the imaging condition.

ここで、フローチャートの説明に戻る。従来の超解像処理方法では、上記のようにして撮像された1枚目からm枚目までのm枚の撮像画像データyを取得する(S101)。なお、yは、上記1枚目からm枚目までのm枚の撮像画像データをベクトルとして表現したものであり、下記の数式(1)で表される。 Here, the description returns to the flowchart. In the conventional super-resolution processing method, m pieces of picked-up image data ym from the first piece to the m-th piece obtained as described above are acquired (S101). Incidentally, y m is a representation of the m pieces of image data to m-th first picture above as a vector is expressed by the following equation (1).

なお、画像データのベクトル表現とは、上記数式(1)のように画像データの構成要素を一列に並べた1行のベクトルとして表現したものを指す。例えば、画像データを構成する要素のサイズが横W×縦Hである場合には、当該画像データは、1行×(W×H)列のベクトルとして表現される。   Note that the vector representation of the image data refers to a representation of the image data components as a single row vector arranged in a line as in the above equation (1). For example, when the size of the elements constituting the image data is W × H, the image data is expressed as a vector of 1 row × (W × H) columns.

ここで、上述のように、超解像処理は、「推定された撮像画像データ(高解像度画像データ)」と「観測された撮像画像データ(撮像画像データ)」との二乗誤差に基づく評価関数(誤差項)の最適化問題に帰着される。すなわち、超解像処理を行うためには、複数の撮像画像データと、当該複数の撮像画像データから推定される高解像度画像データとが必要である。   Here, as described above, the super-resolution processing is an evaluation function based on a square error between “estimated captured image data (high-resolution image data)” and “observed captured image data (captured image data)”. This results in an optimization problem of (error term). That is, in order to perform the super-resolution processing, a plurality of captured image data and high-resolution image data estimated from the plurality of captured image data are necessary.

しかしながら、撮像画像データyを取得した段階では、撮像画像データyから推定される高解像度画像データを取得することはできない。そこで、次のステップでは初期高解像度画像データhを取得する(S102)。初期高解像度画像データhは、撮像画像データよりも解像度が高い(画像を構成する画素数が多い)画像データである。なお、hは、高解像度画像データをベクトルとして表現したものである。 However, at the stage of obtaining the captured image data y m, it can not acquire the high-resolution image data to be estimated from the captured image data y m. Therefore, in the next step, initial high-resolution image data h is acquired (S102). The initial high-resolution image data h is image data having a higher resolution than the captured image data (the number of pixels constituting the image is large). Note that h represents high-resolution image data as a vector.

ここで、初期高解像度画像データについて図24に基づいて説明する。図24は、初期高解像度画像データの一例を示す図である。なお、同図では、図23の例の撮像画像データと同様に、縦5画素、横5画素の25画素で構成されている撮像画像データを3倍に高解像度化する例を示している。   Here, the initial high-resolution image data will be described with reference to FIG. FIG. 24 is a diagram illustrating an example of initial high-resolution image data. In addition, in the same figure, similarly to the captured image data in the example of FIG. 23, an example is shown in which captured image data composed of 25 pixels of 5 pixels in the vertical direction and 5 pixels in the horizontal direction is tripled in resolution.

縦5×横5の25画素で構成されている撮像画像データを3倍に高解像度化する場合には、縦5×3画素、横5×3画素の計225画素を有する高解像度画像データが生成されることになる。そこで、縦5×3画素、横5×3画素の画像データをベクトルとして表したデータを、初期高解像度画像データhとして予め用意しておく。なお、撮像画像データを3倍に高解像度化する場合には、高解像度画像データの各画素のサイズは、撮像画像データの各画素のサイズの1/3倍になる。   When the captured image data composed of 25 pixels of 5 × 5 pixels is three times higher in resolution, high-resolution image data having a total of 225 pixels of 5 × 3 pixels and 5 × 3 pixels is obtained. Will be generated. Therefore, data representing the image data of 5 × 3 pixels in the vertical direction and 5 × 3 pixels in the horizontal direction as the vector is prepared in advance as the initial high resolution image data h. When the resolution of the captured image data is increased to 3 times, the size of each pixel of the high-resolution image data is 1/3 times the size of each pixel of the captured image data.

なお、初期高解像度画像データは、超解像処理によって撮像画像データとの差異が小さくなるように更新されるので、高解像度画像データの初期値、すなわち初期高解像度画像データの各画素の輝度値は、どのような値であってもよい。例えば、画像の全面が均一の灰色画像や黒画像、または白画像を初期高解像度画像データとして用いることができる。また、撮像画像データの中から選択した任意の1枚を初期高解像度画像データとして用いてもよい。   Note that the initial high-resolution image data is updated so that the difference from the captured image data is reduced by the super-resolution processing, so the initial value of the high-resolution image data, that is, the luminance value of each pixel of the initial high-resolution image data. May be any value. For example, a gray image, black image, or white image with a uniform entire surface can be used as the initial high resolution image data. Further, any one selected from the captured image data may be used as the initial high resolution image data.

ここで、図23と図24とを比較すれば分かるように、初期高解像度画像データhと撮像画像データyとでは、各画素のサイズ及び画素数が異なり、また撮像対象の撮像位置も異なっているので、高解像度画像データhと撮像画像データyとの差分を直接に計算することはできない。そこで、S101及びS102にて撮像画像データy及び高解像度画像データhを取得すると、高解像度画像データhを撮像画像データyに位置合わせすると共に低解像度化して、m枚の擬似低解像度画像データBhを生成する(S103)。 Here, as can be seen from the comparison between FIGS. 23 and 24, in the initial high-resolution image data h and captured image data y m, vary in size and number of pixels in each pixel, also different imaging position of the imaging target since it is, it can not be directly calculated the difference between the high resolution image data h and captured image data y m. Therefore, when acquiring the captured image data y m and the high resolution image data h at S101 and S102, the high-resolution image data h to the lower resolution with aligning the captured image data y m, m pieces of the pseudo low resolution image Data B m h is generated (S103).

なお、Bは、高解像度画像データhを撮像画像データyに位置合わせすると共に低解像度化する行列である。Bは、下記の数式(2)に示すように、M〜MとCとの積で表される行列である。そして、行列M〜Mは、高解像度画像データhを撮像画像データyの撮像位置に位置合わせした後、撮像画像データyの各画素位置に相当する画素の輝度値をサンプリングする処理を示す行列である。また、Cは、観測モデル(撮像装置のカメラモデル)においてボケの原因となる点広がり関数(PSF:Point Spread Function)を用いたコンボリューション(畳み込んで画像をぼかす処理)を表す行列である。 Incidentally, B m is a matrix of low resolution with a high-resolution image data h to align the captured image data y m. B m is a matrix represented by the product of M 1 to M m and C, as shown in the following formula (2). Then, the matrix M 1 ~M m, after a high-resolution image data h are aligned at the imaging position of the captured image data y m, sampling the luminance value of the pixel corresponding to each pixel position of the captured image data y m processing Is a matrix. C is a matrix representing a convolution (a process of convolutioning and blurring an image) using a point spread function (PSF) that causes blur in the observation model (camera model of the imaging apparatus).

擬似低解像度画像データは、例えば図25のようになる。図25は、擬似低解像度画像データの一例を示す図である。なお、同図では、図24の高解像度画像データを図23の撮像画像データに位置合わせして生成された擬似低解像度画像データの例を示している。図示のように、擬似低解像度画像データは、撮像画像データ撮像位置1〜9のそれぞれに対応する9枚の画像データより成る。   The pseudo low resolution image data is, for example, as shown in FIG. FIG. 25 is a diagram illustrating an example of pseudo low-resolution image data. In the figure, an example of pseudo low resolution image data generated by aligning the high resolution image data of FIG. 24 with the captured image data of FIG. 23 is shown. As shown in the figure, the pseudo low-resolution image data is composed of nine pieces of image data corresponding to each of the captured image data imaging positions 1 to 9.

次に、上記S103にて生成した擬似低解像度画像データBhと撮像画像データyとの差分を計算し、差分画像データXを算出する(S104)。この差分画像データXが「推定された撮像画像データ(高解像度画像データ)」と「観測された撮像画像データ(撮像画像データ)」との誤差である。 Next, the difference between the pseudo low resolution image data B m h generated in S103 and the captured image data y m is calculated, and the difference image data X m is calculated (S104). This difference image data Xm is an error between “estimated captured image data (high resolution image data)” and “observed captured image data (captured image data)”.

続いて、上記算出した差分画像データXを評価関数に代入して、高解像度化の精度(高解像度画像データと撮像画像データとが相違している程度)を示す評価値Eを求める(S105)。評価関数としては、公知の様々なものを適用することができるが、例えば下記の数式(3)に示す評価関数を用いることによって、評価値Eを求めることができる。 Then, by substituting the evaluation function difference image data X m calculated above, obtaining the evaluation value E that indicates the high resolution accuracy (degree to which the high resolution image data and the captured image data are different) (S105 ). Various known functions can be applied as the evaluation function. For example, the evaluation value E can be obtained by using the evaluation function shown in the following mathematical formula (3).

上記数式(3)は、MAP法と呼ばれる超解像処理手法にて使用される評価関数である。数式(3)は、誤差項と拘束項とから成る数式であり、数式(3)の右辺におけるBh−yすなわち差分画像データXが誤差項である。そして、数式(3)の右辺におけるw、L、及びhの文字が含まれている項が拘束項である。なお、Lは高解像度画像データhの事前確率情報を表す行列であり、wは拘束項の強さを表すパラメータである。このような拘束項を評価関数に組み込むことにより、高解像度画像データの事前確率情報を反映させて、より高精度な超解像処理を行うことができる。 The above mathematical formula (3) is an evaluation function used in a super-resolution processing method called a MAP method. Equation (3) is an equation composed of an error term and a constraint term, and B m h−y m on the right side of Equation (3), that is, difference image data X m is an error term. A term including the characters w, L, and h on the right side of Expression (3) is a constraint term. Note that L is a matrix representing prior probability information of the high-resolution image data h, and w is a parameter representing the strength of the constraint term. By incorporating such a constraint term into the evaluation function, more accurate super-resolution processing can be performed by reflecting the prior probability information of the high-resolution image data.

この数式(3)に差分画像データXを代入して得られる値が評価値Eである。高解像度画像データhが撮像画像データyを正確に反映させているほど誤差項の値が小さくなり、それに伴って評価値Eも小さくなる。したがって、超解像処理は、評価値Eを最小化する高解像度画像データhを探索する処理であるということができる。 Value obtained by substituting the difference image data X m in this formula (3) is an evaluation value E. The value of the error term as the high-resolution image data h is accurately reflect the captured image data y m decreases, the evaluation value E is also reduced accordingly. Therefore, it can be said that the super-resolution processing is processing for searching for high-resolution image data h that minimizes the evaluation value E.

次に、上記算出した評価値Eの値と、予め設定した閾値とを比較する(S106)。そして、評価値Eの値が上記閾値よりも小さい場合(S106でYES)には、当該評価値Eの算出に用いた高解像度画像データhを、超解像処理の結果として得られた最終的な高解像度画像データhとして超解像処理を終了する。   Next, the calculated evaluation value E is compared with a preset threshold value (S106). When the evaluation value E is smaller than the threshold value (YES in S106), the high resolution image data h used for calculating the evaluation value E is finally obtained as a result of the super-resolution processing. The super-resolution processing is finished as the high-resolution image data h.

なお、上記閾値は、要求される高解像度化の精度に応じて適宜変更することができる。例えば、より高い精度の高解像度化が要求される場合には、上記閾値を小さく設定すればよく、高解像度化精度は余り要求されないが、迅速な処理速度が要求される場合には、上記閾値を大きく設定すればよい。すなわち、上記閾値は、超解像処理の精度を決定するための値であり、超解像処理に要求される様々な条件に合わせて適宜設定することができる。   The threshold value can be changed as appropriate according to the required accuracy of resolution enhancement. For example, when higher resolution and higher resolution are required, the threshold value may be set small, and higher resolution accuracy is not required, but when a rapid processing speed is required, the threshold value is set. Should be set larger. That is, the threshold value is a value for determining the accuracy of the super-resolution processing, and can be set as appropriate according to various conditions required for the super-resolution processing.

一方、評価値Eの値が上記閾値以上である場合(S106でNO)には、評価値Eの値が小さくなるように繰り返し演算を行って、高解像度画像データhを更新する(S107)。例えば、下記の数式(4)を用いることによって、高解像度画像データhを更新することができる。   On the other hand, when the value of the evaluation value E is equal to or greater than the threshold value (NO in S106), the high-resolution image data h is updated by repeatedly performing the calculation so that the value of the evaluation value E becomes small (S107). For example, the high resolution image data h can be updated by using the following mathematical formula (4).

数式(4)は、最急降下法にて用いられる数式である。数式(4)によれば、高解像度画像データhから、差分画像データに予め定めた重みβを掛け合わせた値を引くことにより、新規の高解像度画像データhk+1が生成されるようになっている。この演算を繰り返すことによって、評価値Eの値がより小さくなる高解像度画像データhが生成される。なお、繰り返し演算には、最急降下法に限らず公知の繰り返し演算手法を適用することができる。 Formula (4) is a formula used in the steepest descent method. According to equation (4), made from the high resolution image data h k, by subtracting a value obtained by multiplying the weight β determined in advance in the difference image data, as the high resolution image data h k + 1 new is generated ing. By repeating this calculation, high-resolution image data h having a smaller evaluation value E is generated. The iterative calculation is not limited to the steepest descent method, and a known iterative calculation method can be applied.

このようにして更新された高解像度画像データhは、再度S103にて擬似的に低解像度化され、S104及びS105にて評価値Eの算出に用いられる。そして、S106にて再度評価値と閾値との比較が行われる。すなわち、超解像処理では、評価値Eの値が閾値よりも小さくなるまでS103〜S107の処理が繰り返し行われる。そして、評価値Eの値が閾値よりも小さくなったときの高解像度画像データhを、超解像処理の結果として得られた最終的な高解像度画像データhとして超解像処理を終了する。これにより、所望の倍率及び所望の精度で高解像度化された高解像度画像データhを得ることができる。   The high-resolution image data h updated in this manner is subjected to pseudo-resolution reduction in S103 again, and is used for calculating the evaluation value E in S104 and S105. In S106, the evaluation value is compared with the threshold value again. That is, in the super-resolution process, the processes of S103 to S107 are repeatedly performed until the evaluation value E is smaller than the threshold value. Then, the high-resolution image data h obtained when the evaluation value E is smaller than the threshold value is used as the final high-resolution image data h obtained as a result of the super-resolution processing, and the super-resolution processing ends. As a result, high-resolution image data h with high resolution at a desired magnification and desired accuracy can be obtained.

以上のように、超解像処理やイメージシフト処理によって、複数の低解像度画像データから高解像度画像データを生成することができ、これにより、撮像装置の解像度を超える、精細な画像データを生成することが可能になる。
杉本茂樹、奥富正敏、“画像の超解像度化処理”、日本ロボット学会誌、2005年、Vol.23、No.3、p.305-309 特開2006−127241号公報(2006年5月18日公開)
As described above, high-resolution image data can be generated from a plurality of low-resolution image data by super-resolution processing or image shift processing, thereby generating fine image data exceeding the resolution of the imaging device. It becomes possible.
Shigeki Sugimoto, Masatoshi Okutomi, “Super Resolution Processing of Images”, Journal of the Robotics Society of Japan, 2005, Vol.23, No.3, p.305-309 JP 2006-127241 A (published May 18, 2006)

ところで、撮像素子は人の目に比べて、一度に捉えることのできる光の範囲(ダイナミックレンジ)が狭くなっている。そのため、広いダイナミックレンジを持つ撮像対象を撮像した場合に、撮像画像データに白とびや黒つぶれが生じることがある。そして、白とびや黒つぶれが発生した箇所は撮像対象の色彩や形状を表すデータとはならない。   By the way, the imaging device has a narrower light range (dynamic range) that can be captured at a time than the human eye. For this reason, when an imaging target having a wide dynamic range is imaged, overexposed or underexposure may occur in the captured image data. A portion where overexposure or underexposure occurs is not data representing the color or shape of the imaging target.

したがって、超解像処理やイメージシフト処理に用いる複数の低解像度画像データ(撮像画像データ)の中に、白とびや黒つぶれが生じたものが含まれている場合には、撮像対象の形状や色彩が高解像度画像データに正確に反映されず、そのため高解像度化処理の精度が低下するという問題が生じる。   Therefore, if the multiple low-resolution image data (captured image data) used for the super-resolution processing or the image shift processing includes those with overexposure or underexposure, The color is not accurately reflected in the high-resolution image data, which causes a problem that the accuracy of the high-resolution processing is lowered.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、超解像処理に用いる複数の低解像度画像データ(撮像画像データ)の中に、白とびや黒つぶれが生じたものが含まれている場合であっても、撮像対象の形状や色彩が正確に反映された高精度な高解像度画像データを生成することのできる画像処理装置等を実現することにある。   The present invention has been made in view of the above-described problems, and an object thereof is to cause overexposure and underexposure in a plurality of low-resolution image data (captured image data) used for super-resolution processing. An object is to realize an image processing apparatus or the like that can generate high-precision high-resolution image data in which the shape and color of an imaging target are accurately reflected even if the image is included.

本発明に係る画像処理装置は、上記課題を解決するために、撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成する画像処理装置であって、上記高解像度画像データを、上記複数の撮像画像データの一つに対して位置合わせし、上記撮像画像データと同じ解像度に変換し、当該撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて擬似低解像度画像データを生成し、該擬似低解像度画像データと当該撮像画像データとの差分を取る処理を、上記複数の撮像画像データのそれぞれに対して行って、複数の差分画像データを生成する差分画像生成手段と、上記差分画像生成手段が生成した上記複数の差分画像データに基づいて、上記高解像度画像データと上記複数の撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新手段とを備えていると共に、上記複数の撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断手段と、上記複数の撮像画像データの一つと対応する一つの差分画像データにおいて、上記適正露光画素判断手段が上記複数の撮像画像データの一つにおいて正常範囲内ではないと判断した画素に対応する位置に存在する対象画素の上記評価値に対する寄与が小さくなるように、上記対象画素に重み付けを行う処理を、上記複数の差分画像データのそれぞれに対して行う重み付け差分画像生成手段とをさらに備え、上記画像更新手段は、上記重み付け差分画像生成手段が重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新することを特徴としている。   In order to solve the above problems, an image processing apparatus according to the present invention generates high-resolution image data obtained by increasing the resolution of an imaging target based on a number of low-resolution captured image data corresponding to the resolution-enhancing magnification. An image processing apparatus, wherein the high-resolution image data is aligned with one of the plurality of captured image data, converted to the same resolution as the captured image data, and the captured image data is captured The pseudo low resolution image data is generated by multiplying the point spread function obtained from the camera model, and the difference between the pseudo low resolution image data and the captured image data is processed for each of the plurality of captured image data. Based on the difference image data generated by the difference image generator and the difference image data generated by the difference image generator. An evaluation value indicating an error between the image data and the plurality of captured image data is calculated, and when the evaluation value is equal to or greater than a predetermined threshold, the high-resolution image data is updated so that the evaluation value becomes small And an appropriate exposure pixel determining unit that determines whether or not the luminance value is within a predetermined normal range for each pixel of the plurality of captured image data, and In one difference image data corresponding to one of the picked-up image data, a target pixel that exists at a position corresponding to a pixel determined by the appropriate exposure pixel determining unit not to be within a normal range in one of the plurality of picked-up image data The weighted difference image is obtained by performing the process of weighting the target pixel so that the contribution to the evaluation value of each of the plurality of difference image data is reduced. Anda generating unit, the image updating means is characterized by updating the high-resolution image data using a plurality of difference image data which the weighted difference image generation means went weighting.

また、本発明に係る画像処理装置の制御方法は、上記課題を解決するために、撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成する画像処理装置の制御方法であって、上記高解像度画像データを、上記複数の撮像画像データの一つに対して位置合わせし、上記撮像画像データと同じ解像度に変換し、当該撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて擬似低解像度画像データを生成し、該擬似低解像度画像データと当該撮像画像データとの差分を取る処理を、上記複数の撮像画像データのそれぞれに対して行って、複数の差分画像データを生成する差分画像生成ステップと、上記差分画像生成ステップにて生成した上記複数の差分画像データに基づいて、上記高解像度画像データと上記複数の撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新ステップとを含み、上記複数の撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断ステップと、上記複数の撮像画像データの一つと対応する一つの差分画像データにおいて、上記適正露光画素判断ステップにて上記複数の撮像画像データの一つにおいて正常範囲内ではないと判断した画素に対応する位置に存在する対象画素の上記評価値に対する寄与が小さくなるように、上記対象画素に重み付けを行う処理を、上記複数の差分画像データのそれぞれに対して行う重み付け差分画像生成ステップとさらに含み、上記画像更新ステップでは、上記重み付け差分画像生成ステップにて重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新することを特徴としている。   In addition, in order to solve the above-described problem, the image processing apparatus control method according to the present invention provides a high-resolution image-capturing target based on the number of low-resolution captured image data corresponding to the resolution-enhancing magnification. A method of controlling an image processing device that generates image data, wherein the high-resolution image data is aligned with one of the plurality of captured image data, converted to the same resolution as the captured image data, and A process of generating pseudo low-resolution image data by multiplying a point spread function obtained from the camera model of the imaging device that captured the captured image data, and taking a difference between the pseudo low-resolution image data and the captured image data. A difference image generation step for generating a plurality of difference image data, and the plurality of differences generated in the difference image generation step. Based on the image data, an evaluation value indicating an error between the high-resolution image data and the plurality of captured image data is calculated, and the evaluation value decreases when the evaluation value is equal to or greater than a predetermined threshold value. And an image update step for updating the high-resolution image data, and for each pixel of the plurality of captured image data, a proper exposure pixel determination for determining whether or not the luminance value is within a predetermined normal range Corresponding to a pixel that is determined not to be within a normal range in one of the plurality of captured image data in the appropriate exposure pixel determination step in one difference image data corresponding to one of the plurality of captured image data A process of weighting the target pixel so that the contribution to the evaluation value of the target pixel existing at the position to be reduced is reduced. A weighted difference image generation step performed on each of the image data, and the image update step updates the high-resolution image data using the plurality of difference image data weighted in the weighted difference image generation step. It is characterized by that.

上記の構成によれば、1枚の高解像度画像データを生成するために用いられる複数枚の撮像画像データのそれぞれについて、各画素が予め定めた正常範囲内であるか否かが判断される。なお、正常範囲とは、当該画素が適正露光されているとみなすことのできる輝度値の範囲(ダイナミックレンジ)である。   According to the above configuration, it is determined whether or not each pixel is within a predetermined normal range for each of a plurality of captured image data used to generate one piece of high-resolution image data. The normal range is a luminance value range (dynamic range) in which the pixel can be regarded as being properly exposed.

また、上記の構成によれば、差分画像データの画素のうち、撮像画像データにおいて正常範囲内ではないと判断された画素に対応する位置に存在する対象画素が、評価値に与える寄与が小さくなるように重み付けが行われる。そして、重み付けを行った差分画像データを用いて高解像度画像データの更新が行われる。   Moreover, according to said structure, the contribution which the target pixel which exists in the position corresponding to the pixel judged not to be in a normal range in picked-up image data among the pixels of difference image data gives to an evaluation value becomes small. Weighting is performed as follows. Then, the high-resolution image data is updated using the weighted difference image data.

なお、差分画像データは、撮像画像データと擬似低解像度画像データの差分を示すデータであるから、上記対象画素には、撮像画像データにおいて正常範囲内ではないと判断された画素の輝度値が反映されている。すなわち、上記対象画素の輝度値は、不適正露光の画素の画素値が反映されているため、撮像対象の形状及び色彩を正確に示すデータではない。そのため、このようなデータが含まれる差分画像データを用いて高解像度画像データの更新を行う場合には、撮像対象の形状及び色彩が正確に反映されない、精度の低い高解像度画像データが生成されてしまう。   Since the difference image data is data indicating the difference between the captured image data and the pseudo low resolution image data, the target pixel reflects the luminance value of the pixel determined not to be within the normal range in the captured image data. Has been. In other words, the luminance value of the target pixel is not data that accurately indicates the shape and color of the imaging target because the pixel value of the pixel of inappropriate exposure is reflected. Therefore, when high-resolution image data is updated using difference image data including such data, low-precision high-resolution image data that does not accurately reflect the shape and color of the imaging target is generated. End up.

そこで、上記の構成によれば、正常範囲内ではないと判断された画素に対応する位置に存在する対象画素が、評価値に与える寄与が小さくなるように重み付けが行われるようにしている。これにより、不適正露光画素に由来するデータが高解像度画像データの更新に与える影響を軽減することができる。   Therefore, according to the above configuration, weighting is performed so that the target pixel existing at the position corresponding to the pixel determined not to be within the normal range has a small contribution to the evaluation value. Thereby, the influence which the data originating in the improper exposure pixel has on the update of the high resolution image data can be reduced.

したがって、上記の構成によれば、撮像画像データの中に、白とびや黒つぶれが生じた不適正露光画素が含まれている場合であっても、撮像対象の形状や色彩が正確に反映された高精度な高解像度画像データを生成することができる。   Therefore, according to the above configuration, the shape and color of the imaging target are accurately reflected even when the captured image data includes improperly exposed pixels in which whiteout or blackout occurs. It is possible to generate high-resolution image data with high accuracy.

また、上記画像処理装置では、上記複数の撮像画像データには、異なる撮像条件にて撮像された撮像画像データが含まれており、上記適正露光画素判断手段が、輝度値が予め定めた正常範囲内であるか否かを判断した後に、上記異なる撮像条件から選択された1つの撮像条件にて、上記一組の撮像画像データの全てが撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正する撮像画像補正手段を備えていることが好ましい。   In the image processing device, the plurality of captured image data includes captured image data captured under different imaging conditions, and the appropriate exposure pixel determination unit determines that the luminance value is a predetermined normal range. Each of the imaging images so that it can be considered that all of the set of captured image data is captured under one imaging condition selected from the different imaging conditions. It is preferable to include captured image correction means for correcting the luminance value of each pixel of the image data.

従来の超解像処理では、1枚の高解像度画像データを生成するために使用する複数枚の撮像画像データを全て同じ撮像条件で撮像していたが、上記のように補正を行うことにより、異なる撮像条件にて撮像された撮像画像データを用いて高解像度画像データを生成することができる。なお、撮像条件とは、露光時間(シャッタースピード)、使用する撮像装置、照明強度、撮像感度、使用するフィルタ、及びアイリスの少なくとも1つである。   In the conventional super-resolution processing, a plurality of captured image data used to generate a single piece of high-resolution image data was imaged under the same imaging conditions, but by performing correction as described above, High-resolution image data can be generated using captured image data captured under different imaging conditions. The imaging conditions are at least one of exposure time (shutter speed), imaging device to be used, illumination intensity, imaging sensitivity, filter to be used, and iris.

ここで、上記の構成によれば、高解像度画像データが更新されると、該更新された高解像度画像データから、擬似低解像度画像データが生成される。このとき、高解像度画像データにおいて、擬似低解像度画像データの1画素に相当する領域に含まれる各画素の輝度値データは、擬似低解像度画像データの1画素の輝度値データとして統合される。   Here, according to the above configuration, when the high resolution image data is updated, pseudo low resolution image data is generated from the updated high resolution image data. At this time, in the high resolution image data, the luminance value data of each pixel included in the region corresponding to one pixel of the pseudo low resolution image data is integrated as the luminance value data of one pixel of the pseudo low resolution image data.

したがって、高解像度画像データにおいて、擬似低解像度画像データの1画素に相当する領域に、異なる撮像条件にて撮像された撮像画像データに由来する画素が含まれている場合には、これらの画素の輝度値が統合されることになる。すなわち、擬似低解像度画像データの各画素には、異なる撮像条件にて撮像された撮像画像データに由来する画素の輝度値が反映されることになるので、生成される高解像度画像データのダイナミックレンジも拡大する。   Therefore, in the high-resolution image data, when pixels derived from captured image data captured under different imaging conditions are included in an area corresponding to one pixel of the pseudo low-resolution image data, Luminance values will be integrated. That is, each pixel of the pseudo low-resolution image data reflects the luminance value of the pixel derived from the captured image data captured under different imaging conditions, so that the dynamic range of the generated high-resolution image data Will also expand.

また、本発明に係る画像処理装置の制御方法は、上記課題を解決するために、撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成する画像処理装置であって、上記高解像度化倍率に応じた数の撮像画像データを一組とする複数組の撮像画像セットに基づいて上記高解像度画像データを生成するようになっており、上記各撮像画像セットに含まれる撮像画像データは、同一の撮像条件にて撮像されたものであり、異なる撮像画像セットに含まれる撮像画像データは、互いに異なる撮像条件にて撮像されたものであり、上記複数組の撮像画像セットに含まれる各撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断手段と、上記適正露光画素判断手段が、輝度値が予め定めた正常範囲内であるか否かを判断した後に、上記異なる撮像条件から選択された1つの撮像条件にて、上記複数組の撮像画像セットに含まれる撮像画像データの全てが撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正する撮像画像補正手段と、上記複数組の撮像画像セットから選択した一組に含まれる各撮像画像データの画素において、上記適正露光画素判断手段が上記正常範囲内ではないと判断した置換対象画素の輝度値を、他の撮像画像セットにおいて上記置換対象画素と対応する位置の画素であって、上記適正露光画素判断手段が上記正常範囲内であると判断した置換候補画素が存在する場合に、上記置換対象画素の輝度値を上記置換候補画素の輝度値で置き換えて、一組の合成撮像画像データを生成する画像合成手段と、上記高解像度画像データを、上記一組の合成撮像画像データに含まれる合成撮像画像データの一つに対して位置合わせし、当該合成撮像画像データと同じ解像度に変換し、さらに上記複数の撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて生成した擬似低解像度画像データと、当該合成撮像画像データとの差分を取って、差分画像データを生成する処理を、上記一組の合成撮像画像データに含まれる合成撮像画像データのそれぞれに対して行って、一組の差分画像データを生成する差分画像生成手段と、上記差分画像生成手段が生成した上記一組の差分画像データに基づいて、上記高解像度画像データと上記一組の合成撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新手段とを備え、上記適正露光画素判断手段は、上記一組の合成撮像画像データに含まれる各合成撮像画像データの画素について、その輝度値が予め定めた正常範囲内であるか否かをさらに判断し、上記適正露光画素判断手段が上記一組の合成撮像画像データにおいて、正常範囲内ではないと判断した上記合成撮像画像データの画素に対応する位置に存在する差分画像データの画素の、上記評価値に対する寄与が小さくなるように、上記差分画像生成手段が生成した一組の差分画像データの各画素に重み付けを行う重み付け差分画像生成手段とを備え、上記画像更新手段は、上記重み付け差分画像生成手段が重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新することを特徴としている。   In addition, in order to solve the above-described problem, the image processing apparatus control method according to the present invention provides a high-resolution image-capturing target based on the number of low-resolution captured image data corresponding to the resolution-enhancing magnification. An image processing apparatus for generating image data, wherein the high-resolution image data is generated based on a plurality of sets of captured image sets, each of which includes a number of captured image data corresponding to the resolution enhancement magnification. The captured image data included in each captured image set is captured under the same imaging conditions, and the captured image data included in different captured image sets are captured under different imaging conditions. Appropriate exposure pixel determination for determining whether the luminance value is within a predetermined normal range for each pixel of each captured image data included in the plurality of captured image sets And the appropriate exposure pixel determining means determines whether or not the luminance value is within a predetermined normal range, and then the plurality of sets of imaging under one imaging condition selected from the different imaging conditions. From the plurality of sets of captured image sets, the captured image correction means for correcting the luminance value of each pixel of each captured image data so that all of the captured image data included in the image set can be regarded as captured. For each pixel of the captured image data included in the selected set, the luminance value of the replacement target pixel determined by the appropriate exposure pixel determination unit not to be within the normal range is set as the replacement target pixel in another captured image set. If there is a replacement candidate pixel that is determined to be within the normal range by the appropriate exposure pixel determination unit, the luminance value of the replacement target pixel is determined as the replacement candidate. Image synthesizing means for generating a set of composite captured image data by replacing with the luminance value of the pixel, and the high-resolution image data for one of the composite captured image data included in the set of composite captured image data And pseudo low-resolution image data generated by multiplying by the point spread function obtained from the camera model of the imaging device that captured the plurality of captured image data, The difference image data is obtained by taking the difference from the combined captured image data and generating the differential image data for each of the combined captured image data included in the set of combined captured image data. A high-resolution image data and the set of combinations based on the set of difference image data generated by the difference image generation means Image update means for calculating an evaluation value indicating an error from the captured image data, and for updating the high-resolution image data so that the evaluation value becomes smaller when the evaluation value is equal to or greater than a predetermined threshold value; The appropriate exposure pixel determination means further determines whether or not the luminance value is within a predetermined normal range for each pixel of the composite captured image data included in the set of composite captured image data; With respect to the evaluation value of the pixel of the difference image data existing at the position corresponding to the pixel of the composite captured image data determined by the appropriate exposure pixel determination means not being within the normal range in the set of composite captured image data. Weighting difference image generation means for weighting each pixel of a set of difference image data generated by the difference image generation means so that the contribution is reduced, and the image update Stage is characterized by updating the high-resolution image data using a plurality of difference image data which the weighted difference image generation means went weighting.

上記の構成によれば、撮像条件の異なる複数の撮像画像セットの合成が行われ、合成撮像画像データが生成される。また、合成撮像画像データは、上記複数の撮像画像セットから選択された一つの撮像画像セットに含まれる各撮像画像データに、置換対象画素(不適正露光画素)が含まれており、該置換対象画素に置換候補画素(他の撮像画像セットの撮像画像データに含まれる画素であって、上記置換対象画素に対応する位置の適正露光画素)が存在する場合には、上記置換対象画素の輝度値と上記置換候補画素の輝度値を置き換えて生成される。   According to the above configuration, a plurality of captured image sets with different imaging conditions are combined to generate combined captured image data. Further, in the composite captured image data, each captured image data included in one captured image set selected from the plurality of captured image sets includes a replacement target pixel (inappropriate exposure pixel), and the replacement target If there is a replacement candidate pixel (a pixel included in captured image data of another captured image set and an appropriate exposure pixel at a position corresponding to the replacement target pixel), the luminance value of the replacement target pixel Are generated by replacing the luminance values of the replacement candidate pixels.

すなわち、上記一組の合成撮像画像データは、上記選択された一つの撮像画像セットに含まれる各撮像画像データに含まれる不適正露光画素が、選択されていない撮像画像セットに含まれる各撮像画像データに含まれる適正露光画素で置き換えられて生成された撮像画像セットということになる。   That is, the set of composite captured image data includes the captured images included in the captured image set in which the inappropriate exposure pixels included in the captured image data included in the selected captured image set are not selected. That is, the captured image set is generated by being replaced with appropriate exposure pixels included in the data.

なお、上記の構成によれば、異なる撮像条件から選択された1つの撮像条件にて、上記複数組の撮像画像セットに含まれる撮像画像データの全てが撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正しているので、上記のような置き換えを行って生成された合成撮像画像データを用いて高解像度画像データを生成することができる。上記輝度値の補正と、上記輝度値の置き換えを行うことにより、合成撮像画像データのダイナミックレンジは、上記各撮像画像セットと比べて拡大される。   In addition, according to said structure, it can be considered that all the picked-up image data contained in the said several picked-up image set were imaged on one imaging condition selected from the different imaging conditions. Since the luminance value of each pixel of each captured image data is corrected, high-resolution image data can be generated using the composite captured image data generated by performing the above replacement. By correcting the brightness value and replacing the brightness value, the dynamic range of the composite captured image data is expanded as compared with the captured image sets.

したがって、上記一組の合成撮像画像データでは、撮像対象の形状及び色彩が正確に反映されている画素の割合が上記各撮像画像セットと比べて増加するので、上記一組の合成撮像画像データを用いて高解像度画像データを生成することにより、高精度な高解像度画像データを生成することができる。   Therefore, in the set of composite captured image data, since the ratio of pixels in which the shape and color of the imaging target are accurately reflected is increased as compared with each of the captured image sets, the set of composite captured image data is By using this to generate high-resolution image data, high-precision high-resolution image data can be generated.

なお、複数の撮像画像セットから選択された一つの撮像画像セットに含まれる各撮像画像データに、置換対象画素(不適正露光画素)が含まれている場合であって、上記置換候補画素が存在しない場合も考えられる。   Note that each of the captured image data included in one captured image set selected from the plurality of captured image sets includes a replacement target pixel (inappropriate exposure pixel), and the replacement candidate pixel exists. If not, it can be considered.

そこで、上記の構成によれば、生成した一組の合成撮像画像データの画素について、その輝度値が予め定めた正常範囲内であるか否かをさらに判断している。そして、該判断結果に基づいて、差分画像データに重み付けを行っている。   Therefore, according to the above configuration, it is further determined whether or not the luminance value is within a predetermined normal range for the pixels of the generated set of composite captured image data. Based on the determination result, the difference image data is weighted.

したがって、上記の構成によれば、複数の撮像画像セットから選択された一つの撮像画像セットに含まれる各撮像画像データに、置換対象画素(不適正露光画素)が含まれている場合であって、上記置換候補画素が存在しない場合であっても、不適正露光画素の影響を軽減して高精度な高解像度画像データを生成することができる。   Therefore, according to the above configuration, each captured image data included in one captured image set selected from a plurality of captured image sets includes a replacement target pixel (inappropriate exposure pixel). Even when the replacement candidate pixel does not exist, it is possible to reduce the influence of improper exposure pixels and generate high-precision image data with high accuracy.

また、上記画像処理装置と、上記撮像装置と含む画像処理システムであれば、撮像装置にて複数の撮像画像データの撮像を行い、上記画像処理装置にて該撮像された複数の撮像画像データを用いて高解像度画像データを生成することができると共に、撮像画像データの中に、白とびや黒つぶれが生じた不適正露光画素が含まれている場合であっても、撮像対象の形状や色彩が正確に反映された高精度な高解像度画像データを生成することができる。   Further, if the image processing system includes the image processing device and the imaging device, the imaging device captures a plurality of captured image data, and the image processing device captures the captured image data. Can be used to generate high-resolution image data, and even if the captured image data includes improperly exposed pixels with overexposure or underexposure, the shape and color of the imaging target It is possible to generate high-precision high-resolution image data in which is accurately reflected.

なお、上記画像処理装置及び撮像制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像処理装置及び撮像制御装置の各手段として動作させることにより、上記画像処理装置及び撮像制御装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   The image processing apparatus and the imaging control apparatus may be realized by a computer. In this case, the image processing apparatus and the imaging control apparatus are operated by causing the computer to operate as each unit of the image processing apparatus and the imaging control apparatus. A control program for realizing the control device on a computer and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

以上のように、本発明に係る画像処理装置は、高解像度画像データを、複数の撮像画像データの一つに対して位置合わせし、上記撮像画像データと同じ解像度に変換し、当該撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて擬似低解像度画像データを生成し、該擬似低解像度画像データと当該撮像画像データとの差分を取る処理を、上記複数の撮像画像データのそれぞれに対して行って、複数の差分画像データを生成する差分画像生成手段と、上記差分画像生成手段が生成した上記複数の差分画像データに基づいて、上記高解像度画像データと上記複数の撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新手段とを備えていると共に、上記複数の撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断手段と、上記複数の撮像画像データの一つと対応する一つの差分画像データにおいて、上記適正露光画素判断手段が上記複数の撮像画像データの一つにおいて正常範囲内ではないと判断した画素に対応する位置に存在する対象画素の上記評価値に対する寄与が小さくなるように、上記対象画素に重み付けを行う処理を、上記複数の差分画像データのそれぞれに対して行う重み付け差分画像生成手段とをさらに備え、上記画像更新手段は、上記重み付け差分画像生成手段が重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新する構成である。   As described above, the image processing apparatus according to the present invention aligns high-resolution image data with respect to one of a plurality of captured image data, converts the high-resolution image data to the same resolution as the captured image data, and captures the captured image data. A process of generating pseudo low-resolution image data by multiplying a point spread function obtained from the camera model of the imaging device that captured the image, and obtaining a difference between the pseudo low-resolution image data and the captured image data A difference image generation unit configured to generate a plurality of difference image data, and the high resolution image data and the plurality of difference images generated by the difference image generation unit. An evaluation value indicating an error from the captured image data is calculated, and when the evaluation value is equal to or greater than a predetermined threshold value, the high-resolution image is reduced so that the evaluation value becomes small. And an image update means for updating data, and for each pixel of the plurality of captured image data, appropriate exposure pixel determination means for determining whether the luminance value is within a predetermined normal range, In one difference image data corresponding to one of the plurality of captured image data, the appropriate exposure pixel determining unit exists at a position corresponding to a pixel determined to be not within the normal range in one of the plurality of captured image data. Weighting difference image generation means for performing weighting on the target pixel so that the contribution of the target pixel to the evaluation value is small for each of the plurality of difference image data. The means updates the high-resolution image data using the plurality of difference image data weighted by the weighted difference image generation means. It is formed.

また、本発明に係る画像処理装置の制御方法は、以上のように、高解像度画像データを、複数の撮像画像データの一つに対して位置合わせし、上記撮像画像データと同じ解像度に変換し、当該撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて擬似低解像度画像データを生成し、該擬似低解像度画像データと当該撮像画像データとの差分を取る処理を、上記複数の撮像画像データのそれぞれに対して行って、複数の差分画像データを生成する差分画像生成ステップと、上記差分画像生成ステップにて生成した上記複数の差分画像データに基づいて、上記高解像度画像データと上記複数の撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新ステップとを含み、上記複数の撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断ステップと、上記複数の撮像画像データの一つと対応する一つの差分画像データにおいて、上記適正露光画素判断ステップにて上記複数の撮像画像データの一つにおいて正常範囲内ではないと判断した画素に対応する位置に存在する対象画素の上記評価値に対する寄与が小さくなるように、上記対象画素に重み付けを行う処理を、上記複数の差分画像データのそれぞれに対して行う重み付け差分画像生成ステップとさらに含み、上記画像更新ステップでは、上記重み付け差分画像生成ステップにて重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新する構成である。   In addition, as described above, the control method of the image processing apparatus according to the present invention aligns the high-resolution image data with respect to one of the plurality of captured image data, and converts the high-resolution image data to the same resolution as the captured image data. The pseudo low resolution image data is generated by multiplying the point spread function obtained from the camera model of the imaging device that captured the captured image data, and the difference between the pseudo low resolution image data and the captured image data is calculated. A difference image generation step for generating a plurality of difference image data performed on each of the plurality of captured image data, and the high resolution based on the plurality of difference image data generated in the difference image generation step An evaluation value indicating an error between the image data and the plurality of captured image data is calculated, and the evaluation value is small when the evaluation value is equal to or greater than a predetermined threshold. And an image update step for updating the high-resolution image data so as to determine whether or not the brightness value of each pixel of the plurality of captured image data is within a predetermined normal range. In one of the difference image data corresponding to one of the plurality of captured image data in the determination step, the pixel determined to be not within the normal range in one of the plurality of captured image data in the appropriate exposure pixel determination step A weighted difference image generation step for weighting each of the plurality of difference image data further includes a process of weighting the target pixel so that the contribution of the target pixel existing at the corresponding position to the evaluation value is reduced. In the image update step, the plurality of difference image data weighted in the weighted difference image generation step. It is configured to update the high-resolution image data using.

したがって、撮像画像データの中に、白とびや黒つぶれが生じたものが含まれている場合であっても、撮像対象の形状や色彩が正確に反映された高精度な高解像度画像データを生成することができるという効果を奏する。   Therefore, even if the captured image data contains overexposure or underexposure, highly accurate high-resolution image data that accurately reflects the shape and color of the imaging target is generated. There is an effect that can be done.

〔画像処理システム1の構成〕
本発明の一実施形態について図1から図13に基づいて説明すると以下の通りである。まず、本実施形態の画像処理システム1の構成について、図2に基づいて説明する。図2は、画像処理システム1の要部構成を示すブロック図である。図示のように、画像処理システム1は、撮像装置2と制御装置3とを含む構成である。
[Configuration of Image Processing System 1]
An embodiment of the present invention will be described below with reference to FIGS. First, the configuration of the image processing system 1 of the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a main configuration of the image processing system 1. As illustrated, the image processing system 1 includes an imaging device 2 and a control device 3.

撮像装置2は、制御装置3の指示に従って撮像を行う装置であり、図示のように、レンズ11、撮像素子12、及びアクチュエータ13を備えている。すなわち、撮像装置2では、撮像対象に反射した光を、レンズ11を介して撮像装置2内の撮像素子12に光学的に結像させるようになっている。そして、撮像素子12が、光学的に結像した撮像対象の像を空間的に離散化させてサンプリングし、画像信号に変換することにより、撮像対象の像が画像データとして取得されるようになっている。   The imaging device 2 is a device that performs imaging in accordance with an instruction from the control device 3, and includes a lens 11, an imaging element 12, and an actuator 13 as illustrated. That is, in the imaging device 2, the light reflected on the imaging target is optically imaged on the imaging element 12 in the imaging device 2 via the lens 11. Then, the imaging element 12 spatially discretizes and samples the image of the imaging target that has been optically formed, and converts it into an image signal, whereby the imaging target image is acquired as image data. ing.

撮像素子12としては、例えばCCD(charge-coupled device)やCMOS(complementary mental-oxide semiconductor)等を用いることができる。なお、ここでは撮像装置2は、マトリクス状に配列した複数の撮像素子12にて撮像を行うエリアセンサであることを想定している。   As the image sensor 12, for example, a charge-coupled device (CCD), a complementary mental-oxide semiconductor (CMOS), or the like can be used. Here, it is assumed that the imaging device 2 is an area sensor that performs imaging with a plurality of imaging elements 12 arranged in a matrix.

アクチュエータ13は、撮像対象と撮像素子12との相対位置を変化させるものである。アクチュエータ13は撮像装置2の筐体の内壁に固定されており、撮像素子12はアクチュエータ13によって支持されている。すなわち、アクチュエータ13は、撮像対象とレンズ11とを結ぶ光軸に対して垂直な平面において撮像素子12を2次元的に移動させることによって、撮像対象と撮像素子12との相対位置を変化させるようになっている。   The actuator 13 changes the relative position between the imaging target and the image sensor 12. The actuator 13 is fixed to the inner wall of the housing of the imaging device 2, and the imaging element 12 is supported by the actuator 13. That is, the actuator 13 changes the relative position between the imaging target and the imaging element 12 by moving the imaging element 12 two-dimensionally on a plane perpendicular to the optical axis connecting the imaging target and the lens 11. It has become.

つまり、アクチュエータ13が、撮像対象と撮像素子12との相対位置を変化させることにより、撮像装置2が撮像対象を撮像する撮像位置(撮像領域の撮像対象上の位置)が変化するようになっている。なお、アクチュエータ13は、撮像素子12を2次元のみならず、回転を含む3次元で移動させるものであってもよい。   That is, when the actuator 13 changes the relative position between the imaging target and the imaging element 12, the imaging position (position on the imaging target in the imaging region) at which the imaging device 2 captures the imaging target changes. Yes. The actuator 13 may move the image sensor 12 not only in two dimensions but also in three dimensions including rotation.

アクチュエータ13としては、例えばピエゾアクチュエータやステッピングモータ等を使用することができる。アクチュエータ13は、撮像対象と撮像素子12との相対位置を変化させることができるものであればよく、特に限定されないが、ここではピエゾアクチュエータを用いるものとする。   As the actuator 13, for example, a piezo actuator or a stepping motor can be used. The actuator 13 is not particularly limited as long as it can change the relative position between the imaging target and the imaging element 12, but here, a piezoelectric actuator is used.

制御装置3は、撮像装置2の動作制御を行うと共に、撮像装置2が取得した撮像対象の画像データ(以下、撮像画像データと呼ぶ)に超解像処理を施して、高解像度画像データを生成する。制御装置3にて実行される超解像処理によれば、撮像画像データに白とびや黒つぶれが発生している場合であっても精度の高い高解像度画像データを生成することができる。また、制御装置3にて実行される超解像処理によれば、従来の超解像処理と比べて広いダイナミックレンジを有する高解像度画像データが生成される。   The control device 3 controls the operation of the imaging device 2 and performs super-resolution processing on the image data of the imaging target acquired by the imaging device 2 (hereinafter referred to as captured image data) to generate high-resolution image data. To do. According to the super-resolution processing executed by the control device 3, high-resolution image data with high accuracy can be generated even when the captured image data has overexposure or underexposure. Further, according to the super-resolution processing executed by the control device 3, high-resolution image data having a wider dynamic range than that of the conventional super-resolution processing is generated.

図示のように、制御装置3は、撮像制御部21、撮像条件保存部22、低解像度画像保存部23、高解像度画像保存部24、及び超解像処理部25を備えており、これらの構成により、上記のような制御装置3の機能が実現されている。   As illustrated, the control device 3 includes an imaging control unit 21, an imaging condition storage unit 22, a low resolution image storage unit 23, a high resolution image storage unit 24, and a super-resolution processing unit 25. Thus, the function of the control device 3 as described above is realized.

撮像制御部21は、図示のように、アクチュエータ制御部26及び撮像タイミング制御部27を備えている。アクチュエータ制御部26は、アクチュエータ13を移動させることによって撮像装置2の撮像位置を制御する。具体的には、アクチュエータ制御部26は、アクチュエータ13の移動開始及び停止のタイミング、移動速度、及び移動距離等の制御を行う。   The imaging control unit 21 includes an actuator control unit 26 and an imaging timing control unit 27 as illustrated. The actuator control unit 26 controls the imaging position of the imaging device 2 by moving the actuator 13. Specifically, the actuator control unit 26 controls the timing of starting and stopping the movement of the actuator 13, the moving speed, the moving distance, and the like.

撮像タイミング制御部27は、撮像装置2の撮像開始及び停止のタイミングを制御する。具体的には、撮像タイミング制御部27は、アクチュエータ制御部26から送られてくる、撮像装置2の現在の撮像位置を示す情報と、撮像条件保存部22に格納されている撮像条件とに基づいて撮像装置2へ制御信号を送ることにより、各撮像位置における撮像時間、すなわち露光時間を制御する。   The imaging timing control unit 27 controls imaging start and stop timings of the imaging apparatus 2. Specifically, the imaging timing control unit 27 is based on the information sent from the actuator control unit 26 indicating the current imaging position of the imaging device 2 and the imaging conditions stored in the imaging condition storage unit 22. By sending a control signal to the image pickup apparatus 2, the image pickup time at each image pickup position, that is, the exposure time is controlled.

ここで、撮像制御部21の制御によって撮像される撮像画像データについて、図3に基づいて説明する。図3は、撮像素子12と高解像度画像データの画素との位置関係を説明する図である。同図では、「a」の文字が記載され、マトリクス状に配列した矩形のそれぞれが高解像度画像データの画素を示しており、太線の矩形Aが撮像素子12の1つを示している。すなわち、矩形Aに含まれる領域は、撮像画像データにおいて1つの画素として表される。   Here, the captured image data captured by the control of the imaging controller 21 will be described with reference to FIG. FIG. 3 is a diagram illustrating the positional relationship between the image sensor 12 and the pixels of the high resolution image data. In the figure, the letter “a” is written, each of the rectangles arranged in a matrix form indicates a pixel of the high-resolution image data, and a bold-line rectangle A indicates one of the image sensors 12. That is, the area included in the rectangle A is represented as one pixel in the captured image data.

同図(a)〜(d)に示すように、矩形Aの一辺の長さは、高解像度画像データの画素の2倍である。すなわち、同図では、撮像画像データの解像度を2倍にする場合の撮像位置(撮像画像データの画素の位置)と高解像度画像データの画素との位置関係を示している。   As shown in FIGS. 4A to 4D, the length of one side of the rectangle A is twice that of the pixels of the high resolution image data. That is, FIG. 3 shows the positional relationship between the imaging position (pixel position of the captured image data) and the pixel of the high resolution image data when the resolution of the captured image data is doubled.

図示のように、撮像位置は、高解像度画像データの1画素分の幅ずつ移動される。そして、各撮像位置で取得した撮像対象の輝度値データは、撮像位置に含まれる高解像度画像データの画素のうち、最も左上に位置する画素(図示の例では他の画素と色を変えて示している)の輝度値データとして高解像度画像データに反映される。このようにして撮像を行うことにより、高解像度画像データの各画素の輝度値を推定するために必要な一組の撮像画像データを取得することができる。   As shown in the figure, the imaging position is moved by the width of one pixel of the high resolution image data. The brightness value data of the imaging target acquired at each imaging position is the pixel located at the upper left among the pixels of the high-resolution image data included in the imaging position (in the illustrated example, the color is different from that of the other pixels). Is reflected in the high-resolution image data. By capturing an image in this way, a set of captured image data necessary for estimating the luminance value of each pixel of the high-resolution image data can be acquired.

画像処理システム1では、撮像タイミング制御部27の指示によって、ある撮像位置にて撮像が行われると、撮像装置2は、撮像された撮像画像データと、撮像時の撮像位置と、撮像条件(例えば露光時間)とを対応付けて低解像度画像保存部23に格納する。そして、アクチュエータ制御部26は、撮像位置を高解像度画像データの画素の幅だけずらし、再度撮像タイミング制御部27の指示によって撮像が行われる。   In the image processing system 1, when imaging is performed at a certain imaging position according to an instruction from the imaging timing control unit 27, the imaging apparatus 2 captures the captured image data, the imaging position at the time of imaging, and imaging conditions (for example, The exposure time is stored in the low-resolution image storage unit 23 in association with each other. The actuator control unit 26 shifts the imaging position by the pixel width of the high-resolution image data, and imaging is performed again according to an instruction from the imaging timing control unit 27.

この繰り返しによって、撮像対象の全体の画像が撮像される。そして、上記撮像によって生成された撮像画像データが、その撮像位置及び撮像条件と対応付けられた撮像画像データ28として低解像度画像保存部23に格納される。なお、以下では、1枚の高解像度画像データの生成に必要な撮像画像データの枚数をm(mは正数)とし、1枚の高解像度画像データに対応するm枚一組の撮像画像データを撮像画像セットとして説明を行う。   By repeating this, an entire image of the imaging target is captured. Then, the captured image data generated by the imaging is stored in the low-resolution image storage unit 23 as captured image data 28 associated with the imaging position and imaging conditions. In the following description, the number of captured image data necessary for generating one piece of high resolution image data is m (m is a positive number), and a set of m pieces of captured image data corresponding to one piece of high resolution image data. Is described as a captured image set.

詳細については後述するが、画像処理システム1では、露光時間の異なる複数の撮像画像セットを用いることによって、超解像処理にて生成される高解像度画像データのダイナミックレンジを拡大させることができる。ここでは、撮像画像セットの数をn(nは正数)とする。したがって、画像処理システム1では、超解像処理を行うために、m×n枚の撮像画像データが使用される。   Although details will be described later, in the image processing system 1, the dynamic range of the high-resolution image data generated by the super-resolution processing can be expanded by using a plurality of captured image sets having different exposure times. Here, the number of captured image sets is n (n is a positive number). Therefore, in the image processing system 1, m × n pieces of captured image data are used to perform the super-resolution processing.

高解像度画像保存部24は、低解像度画像保存部23に格納されているm×n枚の撮像画像データを用いて超解像処理を行うことによって生成された高解像度画像データ29を格納する。なお、上記従来の超解像処理と同様に、超解像処理を行うためには初期高解像度画像データを用いる必要があるため、超解像処理を行う前に、予め高解像度画像保存部24に初期高解像度画像データを格納しておく。   The high resolution image storage unit 24 stores high resolution image data 29 generated by performing super-resolution processing using m × n pieces of captured image data stored in the low resolution image storage unit 23. Similar to the above-described conventional super-resolution processing, since it is necessary to use initial high-resolution image data in order to perform the super-resolution processing, the high-resolution image storage unit 24 is preliminarily used before the super-resolution processing. The initial high resolution image data is stored in.

初期高解像度画像データは、超解像処理にて生成したい解像度の画像であればよく、特に限定されない。例えば、撮像画像データの解像度を2倍にする場合には、各画素のサイズが撮像画像データの1/2となる全面が均一の黒画像や白画像、または灰色画像を初期高解像度画像データとして用いることができる。   The initial high-resolution image data is not particularly limited as long as it is an image having a resolution desired to be generated by the super-resolution processing. For example, when the resolution of the captured image data is doubled, a black image, a white image, or a gray image in which the size of each pixel is 1/2 of the captured image data is uniform as the initial high-resolution image data. Can be used.

また、撮像画像データの中から選択した任意の1枚に対して補間処理を行い、画素数を増加させたものを初期高解像度画像データとして用いてもよい。このように、高解像度画像データを撮像画像データから生成した場合には、超解像処理を行う前の段階で、撮像画像データが高解像度画像データに反映されることになる。その結果、超解像処理における繰り返し演算の回数を減らすことが可能になり、短時間で高精度な高解像度画像データを生成することが可能になる。   In addition, an interpolation process may be performed on an arbitrary piece selected from the captured image data, and the number of pixels increased may be used as the initial high resolution image data. As described above, when the high-resolution image data is generated from the captured image data, the captured image data is reflected in the high-resolution image data before the super-resolution processing is performed. As a result, it is possible to reduce the number of repetitive calculations in the super-resolution processing, and it is possible to generate high-precision image data with high accuracy in a short time.

なお、上記補間処理方法としては、例えばm枚の撮像画像データから選択した任意の1枚の撮像画像データにおいて、撮像対象のある位置を撮像した画素の輝度値を、高解像度画像データにおいて、撮像対象の上記と同じ位置に対応する画素の輝度値に設定する方法が挙げられる。   As the above interpolation processing method, for example, in one piece of picked-up image data selected from m pieces of picked-up image data, the luminance value of a pixel picked up at a position where the image is to be picked up is picked up in high-resolution image data There is a method of setting the luminance value of the pixel corresponding to the same position as that of the target.

なお、高解像度画像データは、撮像画像データよりも解像度が高いデータであるから、撮像画像データの1画素は、高解像度画像データの複数画素に対応する。例えば、撮像画像データの解像度を3倍にする場合には、撮像画像データの1画素を高解像度画像データの3×3の画素とすればよい。   Since the high resolution image data is data having a higher resolution than the captured image data, one pixel of the captured image data corresponds to a plurality of pixels of the high resolution image data. For example, when the resolution of the captured image data is tripled, one pixel of the captured image data may be set to 3 × 3 pixels of the high resolution image data.

また、上記補間処理方法では、撮像画像データの1つの画素に対応する、高解像度画像データの複数の画素における輝度値を全て同じ輝度値とするので、処理が簡単である反面、撮像画像データが高解像度画像データに正確に反映され難いという難点もある。そこで、撮像画像データの1つの画素に対応する、高解像度画像データの複数の画素における輝度値を、上記撮像画像データの1つの画素に隣接する画素の輝度値に応じて変化させるようにしてもよい。   Further, in the above interpolation processing method, since the luminance values in a plurality of pixels of the high-resolution image data corresponding to one pixel of the captured image data are all set to the same luminance value, the processing is simple, but the captured image data is There is also a drawback that it is difficult to accurately reflect the high-resolution image data. Therefore, the luminance values at a plurality of pixels of the high-resolution image data corresponding to one pixel of the captured image data may be changed according to the luminance values of the pixels adjacent to the one pixel of the captured image data. Good.

例えば、撮像画像データの解像度を3倍にする場合には、m枚の撮像画像データから選択した任意の1枚の撮像画像データにおいて、撮像対象のある位置を撮像した画素の輝度値を、撮像対象の上記と同じ位置に対応する3×3の9つの画素の中心に位置する画素の輝度値とすればよい。そして、高解像度画像データにおいて、上記3×3の9つの画素の中心に位置する画素の周囲8画素の輝度値を、撮像画像データにおいて、撮像対象の上記と同じ位置を撮像した画素に隣接する画素の輝度値を利用して決定すればよい。   For example, when the resolution of the captured image data is tripled, the luminance value of the pixel that captured the position where the image is to be captured in any one captured image data selected from the m captured image data is captured. What is necessary is just to set it as the luminance value of the pixel located in the center of 9 pixels of 3x3 corresponding to the same position as the above of the object. Then, in the high-resolution image data, the luminance values of the eight pixels around the pixel located at the center of the 3 × 3 nine pixels are adjacent to the pixel that has imaged the same position as the above in the captured image data. What is necessary is just to determine using the luminance value of a pixel.

上記方法によれば、撮像画像データがより正確に反映された高解像度画像データが得られるので、超解像処理における繰り返し演算の回数をさらに減らすことが可能になり、短時間で高精度な高解像度画像データを生成することが可能になる。   According to the above method, since high-resolution image data in which captured image data is reflected more accurately is obtained, it is possible to further reduce the number of repetitive operations in super-resolution processing, and to achieve high-precision high-speed in a short time. It becomes possible to generate resolution image data.

また、撮像画像データを複数用いることにより、撮像画像データがさらに正確に反映された高解像度画像データを得ることができる。例えば、一組の撮像画像セットの各画素における輝度値を、高解像度画像データにマッピングすることにより、撮像画像データがさらに正確に反映された高解像度画像データを得ることができる。なお、一組の撮像画像セットを用いたマッピングによって高解像度画像データを生成する上記の処理が、いわゆるイメージシフト処理である。   Further, by using a plurality of captured image data, it is possible to obtain high resolution image data in which the captured image data is reflected more accurately. For example, by mapping the luminance value at each pixel of a set of captured image sets to high resolution image data, it is possible to obtain high resolution image data in which the captured image data is reflected more accurately. The above-described processing for generating high-resolution image data by mapping using a set of captured image sets is so-called image shift processing.

さらに、撮像対象の形状及び色彩の少なくとも一方が予め分かっている場合には、撮像対象の形状及び色彩の少なくとも一方を示す画像データであり、所望の解像度(画素数)を有する画像データである設計データを初期高解像度画像データとして用いることもできる。設計データを用いることにより、撮像対象の設計値を高解像度画像データに反映させることができるので、超解像処理における繰り返し演算の回数をさらに減らすことが可能になり、短時間で高精度な高解像度画像データを生成することが可能になる。   Furthermore, when at least one of the shape and color of the imaging target is known in advance, the design is image data indicating at least one of the shape and color of the imaging target and image data having a desired resolution (number of pixels) The data can also be used as initial high resolution image data. By using the design data, the design value of the imaging target can be reflected in the high-resolution image data, so the number of repeated operations in the super-resolution processing can be further reduced, and high accuracy with high accuracy in a short time. It becomes possible to generate resolution image data.

超解像処理部25は、撮像画像保存部に格納された撮像画像データを高解像度化して高解像度画像データを生成する超解像処理を行う。具体的には、超解像処理部25は、撮像画像保存部に格納された撮像画像データと、高解像度画像保存部24に格納された高解像度画像データ29とに基づいて、新規の高解像度画像データを生成し、生成した高解像度画像データを高解像度画像保存部24に格納する。なお、超解像処理部25が実行する超解像処理の詳細については後に詳しく説明する。   The super-resolution processing unit 25 performs super-resolution processing for generating high-resolution image data by increasing the resolution of the captured image data stored in the captured image storage unit. Specifically, the super-resolution processing unit 25 generates a new high resolution based on the captured image data stored in the captured image storage unit and the high resolution image data 29 stored in the high resolution image storage unit 24. Image data is generated, and the generated high resolution image data is stored in the high resolution image storage unit 24. Note that details of the super-resolution processing executed by the super-resolution processing unit 25 will be described in detail later.

〔超解像処理部25の構成〕
続いて、超解像処理部25の詳細な構成について図1に基づいて説明する。図1は、超解像処理部25の要部構成を示すブロック図である。図示のように、超解像処理部25は、正規化部31、画像合成部32、差分画像生成部(差分画像生成手段)33、擬似低解像度画像生成部34、領域抽出部(適正露光画素判断手段)35、重み付け差分画像生成部(重み付け差分画像生成手段)36、及び画像更新部(画像更新手段)37を備えている。
[Configuration of Super-Resolution Processing Unit 25]
Next, a detailed configuration of the super-resolution processing unit 25 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a main configuration of the super-resolution processing unit 25. As illustrated, the super-resolution processing unit 25 includes a normalization unit 31, an image synthesis unit 32, a difference image generation unit (difference image generation unit) 33, a pseudo low-resolution image generation unit 34, and an area extraction unit (appropriate exposure pixel). A determination unit) 35, a weighted difference image generation unit (weighting difference image generation unit) 36, and an image update unit (image update unit) 37.

正規化部31は、撮像画像セットの中に、異なる撮像条件にて撮像されたものが含まれている場合に、上記撮像画像セットに含まれる全ての撮像画像データが、上記異なる撮像条件の1つの撮像条件にて撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正する。これにより、異なる撮像条件で撮像された撮像画像データを含む撮像画像セットを用いて超解像処理を行うことが可能になる。   When the captured image set includes images captured under different imaging conditions, the normalization unit 31 sets all the captured image data included in the captured image set to one of the different imaging conditions. The luminance value of each pixel of each captured image data is corrected so that it can be considered that the image is captured under one imaging condition. This makes it possible to perform super-resolution processing using captured image sets including captured image data captured under different imaging conditions.

例えば、撮像画像データA,B,Cがあり、各撮像画像データの露光時間がそれぞれa,b,c(a<b<c)である場合を考える。この場合に、露光時間aを基準にすると、撮像画像データB及びCの輝度値を例えば下記の数式(5)にて表すことができる。   For example, consider the case where there are captured image data A, B, and C, and the exposure times of the captured image data are a, b, and c (a <b <c), respectively. In this case, with the exposure time a as a reference, the brightness values of the captured image data B and C can be expressed by, for example, the following mathematical formula (5).

すなわち、露光時間がbの撮像画像データBは、露光時間がaの撮像画像データAに対して、露光時間がb/a倍になっているので、輝度値もb/a倍になっていると予想される。同様に、露光時間がcの撮像画像データCは、露光時間がaの撮像画像データAに対して、露光時間がc/a倍になっているので、輝度値もc/a倍になっていると予想される。   That is, the captured image data B with the exposure time b is b / a times as long as the exposure time is b / a times that of the captured image data A with the exposure time a. It is expected to be. Similarly, the captured image data C with the exposure time c is c / a times as long as the exposure time is c / a times that of the captured image data A with the exposure time a. It is expected that

したがって、露光時間がaの撮像画像データAを基準にした場合には、露光時間がbの撮像画像データの輝度値をa/b倍に補正し、露光時間がc秒の撮像画像データの輝度値をa/c倍に補正することによって、撮像画像データA〜Cの輝度値を全て同等とすることができる。なお、基準とする露光時間は、撮像画像データA〜Cの中から任意のものを選択することができる。   Therefore, when the captured image data A with an exposure time of a is used as a reference, the brightness value of the captured image data with an exposure time of b is corrected to a / b times, and the brightness of the captured image data with an exposure time of c seconds is corrected. By correcting the value by a / c times, all of the luminance values of the captured image data A to C can be made equal. The reference exposure time can be selected from any of the captured image data A to C.

なお、正規化の方法は、上記の例に限られない。例えば、撮像画像データの輝度値の平均値を求め、該求めた平均値に基づいて、各撮像画像データの輝度値が同程度となるように補正を行うことによって正規化を行ってもよい。また、露光時間以外にも、使用する撮像装置、照明強度、撮像感度、使用するフィルタ、及びアイリス等の撮像条件が異なっている場合にも、超解像処理に用いる全ての撮像画像データが、上記異なる撮像条件の1つの撮像条件にて撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正(正規化)する。   Note that the normalization method is not limited to the above example. For example, normalization may be performed by obtaining an average value of the luminance values of the captured image data and performing correction so that the luminance values of the respective captured image data are approximately the same based on the obtained average value. Also, in addition to the exposure time, when the imaging conditions such as the imaging device to be used, the illumination intensity, the imaging sensitivity, the filter to be used, and the iris are different, all the captured image data used for the super-resolution processing is The luminance value of each pixel of each captured image data is corrected (normalized) so that it can be considered that the image is captured under one of the different imaging conditions.

また、詳細については後述するが、超解像処理部25では、撮像条件の異なる複数組の撮像画像セットを合成して合成撮像画像データを生成する。ここで、撮像条件の異なる撮像画像データを合成するためには、各撮像画像データの撮像条件が同じであるとみなすことができるように補正を行う必要がある。そこで、正規化部31は、撮像条件の異なる複数の撮像画像セットについても輝度値の正規化を行う。   Although details will be described later, the super-resolution processing unit 25 generates a composite captured image data by combining a plurality of captured image sets having different imaging conditions. Here, in order to synthesize captured image data having different imaging conditions, it is necessary to perform correction so that the imaging conditions of the respective captured image data can be regarded as the same. Therefore, the normalization unit 31 normalizes the luminance value for a plurality of captured image sets with different imaging conditions.

画像合成部32は、正規化部31が正規化した、撮像条件の異なる複数組の撮像画像セットを合成して合成撮像画像データを生成する。画像合成部32が撮像画像データを合成することにより、撮像画像のセット数は1となる。したがって、合成撮像画像データの枚数はm枚ということになる。   The image composition unit 32 synthesizes a plurality of captured image sets with different imaging conditions normalized by the normalization unit 31 to generate composite captured image data. When the image synthesis unit 32 synthesizes the captured image data, the number of sets of captured images is 1. Therefore, the number of composite captured image data is m.

合成撮像画像データは、複数の異なる撮像条件で撮像された撮像画像データを反映しているので、合成撮像画像データを用いて超解像処理を行うことにより、生成される高解像度画像データのダイナミックレンジを拡大させることができる。なお、合成撮像画像データの生成方法については後述する。   The composite captured image data reflects the captured image data captured under a plurality of different imaging conditions. Therefore, by performing super-resolution processing using the composite captured image data, the dynamic of the generated high resolution image data is performed. The range can be expanded. A method for generating composite captured image data will be described later.

差分画像生成部33は、撮像画像データと擬似低解像度画像データとの差分を差分画像データとして算出し、算出した差分画像データを重み付け差分画像生成部36に送る。なお、撮像画像セットが複数の場合(n≧2)には、差分画像生成部33は、画像合成部32が生成した合成撮像画像データと擬似低解像度画像データとの差分を差分画像データとして算出する。また、擬似低解像度画像データは、擬似低解像度画像生成部34が生成したものを用いる。   The difference image generation unit 33 calculates the difference between the captured image data and the pseudo low-resolution image data as difference image data, and sends the calculated difference image data to the weighted difference image generation unit 36. When there are a plurality of captured image sets (n ≧ 2), the difference image generation unit 33 calculates the difference between the combined captured image data generated by the image composition unit 32 and the pseudo low-resolution image data as difference image data. To do. The pseudo low resolution image data generated by the pseudo low resolution image generation unit 34 is used.

擬似低解像度画像生成部34は、高解像度画像保存部24に格納されている高解像度画像データを読み出し、読み出した高解像度画像データの解像度が撮像画像データと同じ解像度となるように低解像度化する。また、擬似低解像度画像生成部34は、高解像度画像データに対してPSFによる変換を行い、撮像画像データのそれぞれに位置合わせされた複数(m枚)の擬似低解像度画像データを生成する。擬似低解像度画像データは、差分画像生成部33に送られて、差分画像データの生成に用いられる。   The pseudo low resolution image generation unit 34 reads the high resolution image data stored in the high resolution image storage unit 24 and reduces the resolution so that the resolution of the read high resolution image data is the same as that of the captured image data. . In addition, the pseudo low resolution image generation unit 34 performs conversion by PSF on the high resolution image data, and generates a plurality (m pieces) of pseudo low resolution image data aligned with each of the captured image data. The pseudo low-resolution image data is sent to the difference image generation unit 33 and used for generation of the difference image data.

領域抽出部35は、撮像画像データにおける超解像処理に不適な不適正露光領域を検出する。不適正露光領域とは、撮像装置2の有効なダイナミックレンジの範囲外の輝度値を有する領域であり、黒つぶれや白とびが発生している可能性が高い領域である。このような領域が含まれている撮像画像データを超解像処理に用いると、超解像処理の精度が低下したり、繰り返し演算に要する処理時間が長くなったりするという問題が生じる。   The area extraction unit 35 detects an inappropriate exposure area that is inappropriate for the super-resolution processing in the captured image data. The improper exposure area is an area having a luminance value outside the effective dynamic range of the imaging apparatus 2, and is an area where there is a high possibility that blackout or whiteout occurs. When captured image data including such a region is used for the super-resolution processing, there arises a problem that the accuracy of the super-resolution processing is reduced and the processing time required for the repetitive calculation is increased.

具体的には、領域抽出部35は、m×n枚の撮像画像データのそれぞれについて、輝度値が予め定めた正常範囲から外れている第1領域を抽出し、抽出した領域の各撮像画像データ上の位置を記憶する。また、ここでは、撮像画像データにおいて、上記抽出された第1領域以外の領域を第2領域と呼ぶ。すなわち、領域抽出部35が第1領域を抽出することにより、各撮像画像データは、正常範囲外の輝度値を有する第1領域と、正常範囲内の輝度値を有する第2領域とに分けられる。   Specifically, the area extraction unit 35 extracts, for each of the m × n pieces of captured image data, a first area whose luminance value is outside a predetermined normal range, and each captured image data of the extracted area Remember the top position. Here, in the captured image data, an area other than the extracted first area is referred to as a second area. That is, when the region extraction unit 35 extracts the first region, each captured image data is divided into a first region having a luminance value outside the normal range and a second region having a luminance value within the normal range. .

なお、上記正常範囲は、適正露光とみなすことのできる輝度値の上限値と下限値とで規定される輝度値の範囲である。上限値を越えた輝度値を示す領域は、白とびなどのハレーションが発生していると考えられる領域であり、下限値より小さい輝度値を示す領域は、黒くつぶれた状態となっていると考えられる領域である。したがって、上記正常範囲内の輝度値を有する第2領域は、撮像装置2の有効なダイナミックレンジの範囲内での撮像によって得られた輝度値を有する領域ということになる。   Note that the normal range is a range of luminance values defined by an upper limit value and a lower limit value of luminance values that can be regarded as appropriate exposure. An area that shows a luminance value that exceeds the upper limit is an area where halation such as overexposure is considered to occur, and an area that shows a luminance value that is lower than the lower limit is considered to be in a blackened state. This is an area Therefore, the second region having the luminance value within the normal range is a region having the luminance value obtained by imaging within the effective dynamic range of the imaging device 2.

例えば、撮像画像データの輝度値範囲が0〜255までの256階調である場合には、10〜245までの輝度値範囲を正常範囲、すなわち第2領域とすればよい。そして、白とびが発生していると予想される0〜9までの輝度値範囲と、黒つぶれが発生していると予想される246〜255までの輝度値範囲を正常範囲外、すなわち第1領域とすればよい。無論、上記の数値範囲は一例であり、領域抽出に用いる数値範囲は、必要に応じて適宜変更することができる。   For example, when the luminance value range of the captured image data is 256 gradations from 0 to 255, the luminance value range from 10 to 245 may be the normal range, that is, the second region. Then, the luminance value range from 0 to 9 where whiteout is expected to occur and the luminance value range from 246 to 255 where blackout is expected to occur are outside the normal range, that is, the first A region may be used. Of course, the above numerical range is an example, and the numerical range used for region extraction can be appropriately changed as necessary.

また、領域抽出は、画素単位で行ってもよいし、複数の画素を1ブロックとするブロック単位で行ってもよい。例えばx×y画素の領域(x、yは正数)を1ブロックとして撮像画像データを複数のブロックに分割し、各ブロックに含まれる画素の輝度値の平均値に基づいて各ブロックが第1領域に分類されるか否かを判断するようにしてもよい。   The region extraction may be performed in units of pixels, or may be performed in units of blocks in which a plurality of pixels are one block. For example, the captured image data is divided into a plurality of blocks by setting an area of x × y pixels (x and y are positive numbers) as one block, and each block is first based on an average value of luminance values of pixels included in each block. You may make it judge whether it is classified into an area | region.

そして、領域抽出部35が、上記抽出した領域を記憶する記憶方法は、各撮像画像データの全画素について、第1領域か第2領域かが示されているものであればよいが、以下のように記憶しておくことにより、後続の処理を高速化することが可能になる。   The storage method in which the region extraction unit 35 stores the extracted region is not limited as long as the first region or the second region is indicated for all the pixels of each captured image data. By storing in this way, it is possible to speed up subsequent processing.

すなわち、領域抽出部35は、m×n枚の撮像画像データと同じサイズのメモリ空間Zmnを設定する。そして、撮像画像データにおいて第1領域であると判断された画素に対応する上記メモリ空間Zmn上の画素位置には1をセットし、第2領域であると判断された画素に対応する上記メモリ空間Zmn上の画素位置には255をセットする。これにより、メモリ空間Zmnでは、白とびまたは黒つぶれしている画素の位置には1の値が格納され、ダイナミックレンジ内の画素の位置には255の値が格納される。 That is, the area extraction unit 35 sets a memory space Z mn having the same size as that of m × n pieces of captured image data. Then, 1 is set in the pixel position on the memory space Zmn corresponding to the pixel determined to be the first region in the captured image data, and the memory corresponding to the pixel determined to be the second region. 255 is set in the pixel position on the space Zmn . As a result, in the memory space Z mn , a value of 1 is stored at the position of the overexposed or blackened pixel, and a value of 255 is stored at the position of the pixel within the dynamic range.

ここでは、領域抽出部35が上記のようにして生成したデータを抽出領域データZmnと呼ぶ。抽出領域データZmnは、重み付け差分画像生成部36にて差分画像データの重み付けに用いられると共に、画像合成部32にて画像合成に用いられる。 Here, the data generated by the region extraction unit 35 as described above is referred to as extraction region data Zmn . The extracted area data Z mn is used for weighting of the difference image data by the weighted difference image generation unit 36 and is used for image composition by the image composition unit 32.

すなわち、画像合成部32では、撮像位置が同じで露光時間が異なる撮像画像データを1つの画像データに統合するときに、抽出領域データZmnを参照することにより、合成撮像画像データに含まれる第1領域が少なくなるように統合を行う。そして、複数組の撮像画像セットを用いる場合には、画像合成部32が合成撮像画像データを生成したときに、領域抽出部35は、抽出領域データZmnを、合成撮像画像データの各画素が第1領域に属するか第2領域に属するかを示す抽出領域データZに更新する。 That is, the image compositing unit 32 refers to the extracted area data Zmn when integrating the captured image data having the same imaging position and different exposure time into one image data. Integration is performed so that one area is reduced. When a plurality of sets of captured image sets are used, when the image composition unit 32 generates composite captured image data, the region extraction unit 35 uses the extracted region data Z mn for each pixel of the composite captured image data. updating the extracted region data Z m indicating whether belonging to the second region belongs to the first region.

具体的には、画像合成部32は、抽出領域データZmnを参照して、撮像位置が同じで露光時間が異なる撮像画像データの各画素が第1領域に属するか第2領域に属するかを判定する。そして、同一位置の画素において、第1領域に属する画素と第2領域に属する画素とが検出された場合には、画像合成部32は合成撮像画像データにおける上記位置の画素の輝度値として、第2領域に属する画素の輝度値を採用する。また、画像合成部32は、上記位置の画素値を第2領域として抽出領域データZを更新する。 Specifically, the image composition unit 32 refers to the extraction region data Z mn to determine whether each pixel of the captured image data having the same imaging position and different exposure time belongs to the first region or the second region. judge. When a pixel belonging to the first region and a pixel belonging to the second region are detected in the pixel at the same position, the image composition unit 32 determines the brightness value of the pixel at the position in the composite captured image data as The luminance values of the pixels belonging to the two areas are adopted. The image synthesizing unit 32 updates the extracted area data Z m pixel values of the position as the second region.

なお、同一位置の画素において、第2領域に属する画素が複数検出された場合には、例えば最も露光時間が長い画素の輝度値を採用すればよい。また、同一位置の画素において、第1領域に属する画素のみが検出された場合には、いずれか1つの画素の輝度値を採用する。したがって、例えば最も露光時間の長い撮像画像セットを基準とし、この撮像画像セットに含まれる画素のうち、第1領域に属する画素を、他の撮像画像セットの同じ位置の画素であって、第2領域に属する画素の輝度値と置き換えるようにすればよい。   When a plurality of pixels belonging to the second region are detected in the pixels at the same position, for example, the luminance value of the pixel having the longest exposure time may be employed. Further, when only pixels belonging to the first region are detected in the pixels at the same position, the luminance value of any one of the pixels is employed. Therefore, for example, with the captured image set having the longest exposure time as a reference, among the pixels included in the captured image set, the pixels belonging to the first region are pixels at the same position in the other captured image sets, and the second What is necessary is just to replace with the luminance value of the pixel which belongs to an area | region.

これにより、m×n枚の正規化後撮像画像データがm枚の合成撮像画像データに統合されると共に、m×n枚の正規化後撮像画像データに基づいて生成された抽出領域データZmnがm枚の合成撮像画像データに対応する抽出領域データZに更新される。なお、抽出領域データZでは抽出領域データZmnと同様に、第1領域の画素の位置には1の値が格納され、第2領域の画素の位置には255の値が格納される。 Thus, m × n post-normalized captured image data is integrated into m composite captured image data, and the extracted region data Z mn generated based on m × n post-normalized captured image data There is updated to extract region data Z m corresponding to m pieces of synthetic image data. Similarly to the extraction area data Z m In extracted area data Z mn, the position of the pixel in the first region is a value of 1 is stored, the position of the pixel of the second area is stored the value of 255.

このような合成処理により生成された合成撮像画像データには、複数の露光時間で撮像された撮像画像データが反映されているので、撮像画像データと比べてダイナミックレンジが拡大されている。したがって、上記合成撮像画像データを用いて超解像処理を行うことにより、撮像画像データを用いて超解像処理を行う場合と比べて、ダイナミックレンジの広い高解像度画像データを生成することができる。   The composite captured image data generated by such composition processing reflects the captured image data captured at a plurality of exposure times, so that the dynamic range is expanded as compared with the captured image data. Therefore, by performing the super-resolution processing using the composite captured image data, it is possible to generate high-resolution image data having a wide dynamic range compared to the case of performing the super-resolution processing using the captured image data. .

さらに、このような合成処理により生成された合成撮像画像データでは、可能であれば、第1領域の画素の輝度値が、他の撮像画像データにおいて位置が同じである第2領域の画素の輝度値に置き換えられている。したがって、上記合成撮像画像データを用いて超解像処理を行うことにより、撮像画像データを用いて超解像処理を行う場合と比べて、超解像処理に有用なデータの割合が高くなるので、超解像処理の精度を向上することができ、また超解像処理の演算時間も短縮することができる。   Furthermore, in the composite captured image data generated by such composition processing, if possible, the brightness value of the pixel in the first region is the brightness of the pixel in the second region where the position is the same in the other captured image data. Has been replaced by a value. Therefore, by performing super-resolution processing using the composite captured image data, the ratio of data useful for super-resolution processing is higher than when super-resolution processing is performed using captured image data. The accuracy of the super-resolution processing can be improved, and the calculation time of the super-resolution processing can be shortened.

ここで、撮像画像データの合成の具体例について図4に基づいて説明する。図4は、撮像画像データの合成方法の一例を示す図である。なお、同図では、a〜cの3通りの露光時間(a<b<c)にて、1〜mまでのm種類の異なる撮像位置でそれぞれ撮像を行い、m枚1組の撮像画像セットを3組取得した例を示している。ここでは、簡単のためP1〜P4の4つの領域についてのみ説明を行うが、撮像画像データの各画素についても同様の処理が行われる。   Here, a specific example of synthesis of captured image data will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a method for synthesizing captured image data. In the figure, images are taken at m different image pickup positions from 1 to m at three exposure times a to c (a <b <c), and a set of m picked-up images. The example which acquired 3 sets of is shown. Here, only four regions P1 to P4 will be described for simplicity, but the same processing is performed for each pixel of the captured image data.

図示のように、P1〜P3は、何れも撮像画像データ上における位置が同じである。このように、異なる撮像画像セットに含まれており、かつ撮像位置が同じ撮像画像データにおいて、撮像画像データにおける位置が同じ(撮像対象の同じ位置を撮像した)画素について合成が行われる。そして、合成撮像画像データでは、P1〜P3と同じ位置のP4にP1〜P3の画素を合成した結果が反映される。すなわち、P1〜P3は、合成対象の領域であり、画素P4は合成後の領域である。   As illustrated, P1 to P3 all have the same position on the captured image data. As described above, in the captured image data included in different captured image sets and having the same imaging position, the synthesis is performed on pixels having the same position in the captured image data (capturing the same position of the imaging target). In the combined captured image data, the result of combining the pixels P1 to P3 is reflected on P4 at the same position as P1 to P3. That is, P1 to P3 are regions to be combined, and the pixel P4 is a region after combining.

例えば、P1及びP2が第2領域に属しており、P3が第1領域に属している場合には、第2領域に属する画素のうち、最も露光時間の長いP2の輝度値が、P4の輝度値として採用される。すなわち、合成対象の画素のうち、1つでも第2領域に属している画素があれば、合成後は第2領域となる。なお、P1〜P3の全てが第1領域である場合には、P1〜P3の何れかの輝度値を合成後の画素の輝度値とすればよい。   For example, when P1 and P2 belong to the second region and P3 belongs to the first region, among the pixels belonging to the second region, the luminance value of P2 having the longest exposure time is the luminance of P4. Adopted as a value. That is, if at least one pixel to be synthesized belongs to the second area, it becomes the second area after synthesis. When all of P1 to P3 are the first region, any one of the luminance values of P1 to P3 may be set as the luminance value of the pixel after synthesis.

重み付け差分画像生成部36は、領域抽出部35が生成した抽出領域データZに基づいて、差分画像生成部33が算出した差分画像データに対して、第1画像領域と第2画像領域に対応する重み付けを行い、重み付け差分画像データを生成する。重み付け差分画像生成部36が重み付けを行うことにより、正常範囲外の輝度値を有する第1領域が超解像処理に与える影響が低減されるので、撮像画像データに白とびや黒つぶれが発生している場合であっても、高精度な超解像処理を行うことができる。そして、重み付け差分画像生成部36は、上記生成した重み付け差分画像データを画像更新部37に送る。 Weighted difference image generation unit 36 based on the extracted region data Z m the region extraction unit 35 is generated, on the difference image data difference image generation unit 33 calculates, corresponding to the first image region and a second image area Weighting difference image data is generated. When the weighted difference image generation unit 36 performs weighting, the influence of the first region having a luminance value outside the normal range on the super-resolution processing is reduced, so that overexposure and blackout occur in the captured image data. Even in such a case, highly accurate super-resolution processing can be performed. Then, the weighted difference image generation unit 36 sends the generated weighted difference image data to the image update unit 37.

なお、重み付けは、超解像処理に対する第1画像領域の寄与が第2画像領域の寄与に対して小さくなるように行われるものであればよく、特に限定されない。ここでは、抽出領域データZにおいて、第1領域の画素の位置には1の値が格納され、第2領域の画素の位置には255の値が格納されるようになっている。そこで、抽出領域データZに1/255を乗じた値を重みとして、上記差分画像データに乗じる。 The weighting is not particularly limited as long as it is performed so that the contribution of the first image area to the super-resolution process is smaller than the contribution of the second image area. Here, in the extraction area data Z m, the position of the pixels of the first area stores a value of 1, the position of the pixel of the second area so that the value of 255 is stored. Therefore, as a weight value obtained by multiplying the 1/255 to extract region data Z m, multiplied by the difference image data.

これにより、差分画像データにおいて、合成画像データにて第1領域となっている領域の画素の輝度値が1/255となる。一方、差分画像データにおいて、合成画像データにて第2領域となっている領域の画素の輝度値について補正は行われない。したがって、上記構成によれば、合成画像データにて第1領域となっている領域の画素の寄与を、合成画像データにて第2領域となっている領域の画素の寄与に比べて十分に低くすることができる。   Thereby, in the difference image data, the luminance value of the pixel in the region which is the first region in the composite image data is 1/255. On the other hand, in the difference image data, the luminance value of the pixel in the region that is the second region in the composite image data is not corrected. Therefore, according to the above configuration, the contribution of the pixels in the first area in the composite image data is sufficiently lower than the contribution of the pixels in the second area in the composite image data. can do.

なお、ここでは、差分画像データに抽出領域データZを乗じることによって重み付けを行う例について説明したが、抽出領域データZや抽出領域データZmnを用いずに重み付けを行うこともできる。例えば、重み付け差分画像生成部36が、正規化後撮像画像データ、または撮像画像データの各画素位置の輝度値を参照して、差分画像データの各画素の輝度値が、第1領域の画素に基づいて算出されたものであるか第2領域の画素に基づいて算出されたものであるかの判定を行い、該判定結果に基づいて重みを付与するようにしてもよい。 Here, an example has been described for weighting by multiplying the extracted area data Z m in the difference image data, it is also possible to perform weighting without using the extracted area data Z m and extracted area data Z mn. For example, the weighted difference image generation unit 36 refers to the normalized captured image data or the luminance value at each pixel position of the captured image data, and the luminance value of each pixel of the difference image data is converted to the pixel in the first region. It may be determined whether it is calculated based on the pixel of the second region or the pixel of the second region, and a weight may be given based on the determination result.

また、ここでは、第1領域と第2領域との2つの領域に関して重み付けを行う例を説明したが、3以上の領域に分割してもよい。例えば、撮像装置2の有効ダイナミックレンジ範囲において入射光量と出力が線形でない場合には、3以上の領域に分割し、各領域に応じた重みを付与することが好ましい。   Further, here, an example has been described in which weighting is performed for two regions, the first region and the second region, but the region may be divided into three or more regions. For example, when the amount of incident light and the output are not linear in the effective dynamic range of the imaging device 2, it is preferable to divide into three or more regions and give weights corresponding to the regions.

具体例を挙げれば、輝度値が0〜255までの256階調である場合には、輝度値が0〜2の範囲の重みを0とし、輝度値が3〜7の範囲及び、輝度値が248〜252の範囲の重みを第2領域の重みの1/4とし、輝度値が253〜255の範囲の重みを0とすればよい。このように、輝度値が有効ダイナミックレンジに近い領域ほど、超解像処理への寄与が大きくなるように、段階的に重み付けを行うことにより、撮像画像データを正確に反映させた高精度な高解像度画像データを生成することができる。   As a specific example, when the luminance value is 256 gradations from 0 to 255, the weight in the range of the luminance value 0 to 2 is set to 0, the range of the luminance value 3 to 7 and the luminance value is The weight in the range of 248 to 252 may be ¼ of the weight of the second region, and the weight in the range of the luminance value from 253 to 255 may be zero. In this way, high-accuracy and high-precision reflection of captured image data is achieved by performing stepwise weighting so that the luminance value is closer to the effective dynamic range, so that the contribution to the super-resolution processing increases. Resolution image data can be generated.

画像更新部37は、上記重み付け差分画像データを用いて高解像度画像データの更新を行う。そして、画像更新部37は、更新後の高解像度画像データを高解像度画像保存部24に格納する。   The image updating unit 37 updates the high resolution image data using the weighted difference image data. Then, the image update unit 37 stores the updated high resolution image data in the high resolution image storage unit 24.

〔超解像処理の流れ〕
次に、画像処理システム1において実行される超解像処理について、図5に基づいて説明する。図5は、画像処理システム1において実行される超解像処理の一例を示すフローチャートである。
[Flow of super-resolution processing]
Next, super-resolution processing executed in the image processing system 1 will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of super-resolution processing executed in the image processing system 1.

まず、制御装置3の撮像制御部21は、撮像装置2に撮像対象の撮像を指示する。指示を受けた撮像制御部21は、撮像条件保存部22から撮像条件を読み出し、該読み出した撮像条件に従って撮像対象の撮像を行う(S1)。具体的には、撮像制御部21は、同一の撮像対象について、撮像位置を少しずつずらしながらm種類の異なる撮像位置にて撮像を実行させる。そして、撮像制御部21は、露光時間の変更を行い、露光時間の変更後の撮像条件にて、再度上記m種類の異なる撮像位置にて撮像を実行させる。このようにして撮像された、m枚×nセットの撮像画像データが低解像度画像保存部23に格納される。   First, the imaging control unit 21 of the control device 3 instructs the imaging device 2 to image an imaging target. Upon receiving the instruction, the imaging control unit 21 reads the imaging condition from the imaging condition storage unit 22, and performs imaging of the imaging target according to the read imaging condition (S1). Specifically, the imaging control unit 21 executes imaging at m different imaging positions while shifting the imaging position little by little for the same imaging target. Then, the imaging control unit 21 changes the exposure time, and again executes imaging at the m different imaging positions under the imaging condition after the change of the exposure time. The m × n sets of captured image data captured in this way are stored in the low-resolution image storage unit 23.

上記のようにして得られるm枚×nセットの撮像画像データは、例えば図6のようになる。図6は、撮像画像セットの一例を示す図である。なお、ここでは、図23の従来例と同様に、9枚の撮像画像データを用いて1枚の高解像度画像データを生成する例、すなわちm=9であり、撮像画像データを3倍に高解像度化する例を示している。また、各撮像画像データは、図示のように縦5画素、横5画素の25画素で構成されていることを想定している。そして、図示のように、互いに異なる露光時間にて撮像された3組の撮像画像セットを使用することを想定している。   The m × n sets of captured image data obtained as described above are, for example, as shown in FIG. FIG. 6 is a diagram illustrating an example of a captured image set. Here, as in the conventional example of FIG. 23, an example of generating one piece of high-resolution image data using nine pieces of picked-up image data, that is, m = 9, and the picked-up image data is three times higher. An example of resolution is shown. Each captured image data is assumed to be composed of 25 pixels of 5 pixels in the vertical direction and 5 pixels in the horizontal direction as shown in the figure. As shown in the figure, it is assumed that three sets of picked-up images taken at different exposure times are used.

すなわち、図示の撮像画像セット1は、撮像位置1から撮像位置9までの9つの撮像位置にて、露光時間aで撮像された撮像画像データの組である。同様に、撮像画像セット2は、撮像位置1から撮像位置9までの9つの撮像位置にて、露光時間bで撮像された撮像画像データの組であり、撮像画像セット3は、撮像位置1から撮像位置9までの9つの撮像位置にて、露光時間cで撮像された撮像画像データの組である。なお、露光時間は、a<b<cである。   That is, the illustrated captured image set 1 is a set of captured image data captured at the exposure time a at nine imaging positions from the imaging position 1 to the imaging position 9. Similarly, the picked-up image set 2 is a set of picked-up image data picked up at the nine pick-up positions from the pick-up position 1 to the pick-up position 9 at the exposure time b. A set of captured image data captured at an exposure time c at nine imaging positions up to the imaging position 9. The exposure time is a <b <c.

また、撮像位置は、撮像画像データの1画素幅の1/3ピッチで位置ずれしている。すなわち、撮像位置2は、撮像位置1から、図中右向きに、撮像画像データの1画素幅の1/3だけ移動した位置であり、撮像位置4は、撮像位置1から、図中下向きに、撮像画像データの1画素幅の1/3だけ移動した位置である。   In addition, the image pickup position is displaced by 1/3 pitch of one pixel width of the picked-up image data. That is, the imaging position 2 is a position moved from the imaging position 1 to the right in the figure by 1/3 of one pixel width of the captured image data, and the imaging position 4 is from the imaging position 1 downward in the figure. This is a position moved by 1/3 of one pixel width of the captured image data.

このように、撮像画像データの1画素幅の1/3ピッチで撮像位置をずらして撮像を行うことにより、撮像画像データの1画素につき、9回の撮像が行われることになる。これにより、撮像画像データの3倍の解像度、すなわち9倍の画素数を有する高解像度画像データの各画素値を求めることができる。すなわち、x倍に高解像度化を行う場合には、撮像画像データの1画素幅の1/xピッチで撮像位置をずらして撮像を行えばよい。   In this way, by performing imaging by shifting the imaging position at 1/3 pitch of one pixel width of the captured image data, nine imaging operations are performed for each pixel of the captured image data. As a result, each pixel value of the high-resolution image data having three times the resolution of the captured image data, that is, nine times the number of pixels can be obtained. That is, when the resolution is increased x times, the imaging position may be shifted at 1 / x pitch of 1 pixel width of the captured image data.

図示のように、3通りの露光時間で撮像を行い、3組の撮像画像セットを取得した場合には、撮像位置1〜9のそれぞれについて、3通りの露光時間で撮像された撮像画像データが生成される。なお、ここでは、簡単のため、撮像条件として露光時間のみを変更する例について説明するが、露光時間以外の撮像条件も変更してもかまわない。また、1組の撮像画像セットに含まれる撮像画像データ間で撮像条件が異なっていてもかまわない。さらに、ここでは複数組の撮像画像セットを用いて超解像処理を行う例を説明するが、少なくとも1組の撮像画像セットがあれば超解像処理を行うことができる。   As shown in the figure, when imaging is performed with three exposure times and three captured image sets are acquired, captured image data captured with three exposure times are obtained for each of the imaging positions 1 to 9. Generated. Here, for the sake of simplicity, an example in which only the exposure time is changed as the imaging condition will be described. However, imaging conditions other than the exposure time may be changed. Further, the imaging conditions may be different between captured image data included in one set of captured image sets. Furthermore, although an example in which super-resolution processing is performed using a plurality of sets of captured image sets will be described here, super-resolution processing can be performed if there is at least one captured image set.

ここでフローチャートの説明に戻る。m枚×nセットの撮像が終了し、m×n枚の撮像画像データymnが低解像度画像保存部23に格納されると、領域抽出部35及び正規化部31は、上記格納されたm×n枚の撮像画像データymnを取得すると共に、撮像条件保存部22から上記m×n枚の撮像画像データymnの撮像に用いられた撮像条件を読み出す(S2)。 Now, the description returns to the flowchart. When imaging of m × n sets is completed and m × n captured image data y mn is stored in the low-resolution image storage unit 23, the region extraction unit 35 and the normalization unit 31 store the m stored above. X n pieces of captured image data y mn are acquired, and the imaging conditions used for imaging the m × n pieces of captured image data y mn are read from the imaging condition storage unit 22 (S2).

領域抽出部35は、撮像画像データymnを取得すると、m×n枚の撮像画像データymnのそれぞれから、撮像画像データymnの輝度値分布に基づいて、白とび領域や黒つぶれ領域等の不適正露光領域を特定し、これを第1領域として抽出する(S3)。そして、領域抽出部35は、m×n枚の正規化した撮像画像データの各画素が第1領域に属するか、第2領域に属するかを示す抽出領域データZmnを生成する。 Area extracting unit 35 acquires the captured image data y mn, from each of the m × n pieces of captured image data y mn, based on the luminance value distribution of the captured image data y mn, overexposure area or underexposure region like The improper exposure area is identified and extracted as the first area (S3). Then, the region extraction unit 35 generates extracted region data Z mn indicating whether each pixel of the m × n normalized captured image data belongs to the first region or the second region.

例えば、図6に示すような25画素×9枚×3セットの撮像画像データを用いる場合には、領域抽出部35は、25画素×9枚×3セット=675画素分のデータ領域を有する抽出領域データZmnを設定する。そして、設定した抽出領域データZmnの各画素位置について、当該画素位置に対応する撮像画像データの画素が第1領域であれば、1の値を格納し、当該画素位置に対応する撮像画像データの画素が第2領域であれば、255の値を格納する。 For example, in the case of using captured image data of 25 pixels × 9 sheets × 3 sets as shown in FIG. 6, the area extraction unit 35 extracts data having a data area of 25 pixels × 9 sheets × 3 sets = 675 pixels. Area data Zmn is set. Then, for each pixel position of the set extraction area data Zmn , if the pixel of the captured image data corresponding to the pixel position is the first area, a value of 1 is stored, and the captured image data corresponding to the pixel position If the pixel is the second region, a value of 255 is stored.

一方、正規化部31は、上記取得した撮像条件から、各撮像画像データymnの露光時間を取得し、該取得した露光時間に基づいて撮像画像データymnを正規化する(S4)。そして、正規化部31は、正規化によって生成した撮像画像データymnを画像合成部32に送る。 On the other hand, the normalization unit 31 acquires the exposure time of each captured image data y mn from the acquired imaging conditions, and normalizes the captured image data y mn based on the acquired exposure time (S4). Then, the normalization unit 31 sends the captured image data y mn generated by normalization to the image composition unit 32.

例えば、図6の例では、撮像画像セット1〜3でそれぞれ撮像条件(露光時間)が異なっているので、各撮像画像セットが同一の露光時間で撮像されたものとみなすことができるように正規化が行われる。具体的には、正規化部31は、露光時間がaの撮像画像データAを基準にした場合には、露光時間がbの撮像画像データの輝度値をa/b倍に補正し、露光時間がc秒の撮像画像データの輝度値をa/c倍に補正する。すなわち、正規化部31は、撮像画像セット2に含まれる画素1b〜9bのそれぞれの輝度値をa/b倍に補正し、撮像画像セット3に含まれる画素1c〜9cのそれぞれの輝度値をa/c倍に補正する。なお、1つの撮像画像セット内に撮像条件の異なる撮像画像データが含まれている場合には、正規化部31は、これらのデータについても正規化を行う。なお、正規化を行うタイミングはこの例に限られない。正規化は、後述の差分画像データの生成までに行われればよい。   For example, in the example of FIG. 6, the imaging conditions (exposure time) are different for each of the captured image sets 1 to 3, so that each captured image set can be regarded as captured with the same exposure time. Is done. Specifically, the normalization unit 31 corrects the luminance value of the captured image data with the exposure time b to a / b times when the captured image data A with the exposure time a is used as a reference, and the exposure time Corrects the luminance value of the captured image data of c seconds to a / c times. That is, the normalization unit 31 corrects the luminance values of the pixels 1b to 9b included in the captured image set 2 to a / b times, and the luminance values of the pixels 1c to 9c included in the captured image set 3 are corrected. Correct to a / c times. When captured image data with different imaging conditions is included in one captured image set, the normalization unit 31 also normalizes these data. Note that the timing of normalization is not limited to this example. Normalization may be performed before generation of differential image data described later.

ここで、正規化部31は、撮像画像データymnの正規化が終了すると、撮像画像セット数nが1であるか否かを確認する(S5)。撮像セット数nが1ではない場合(S5でYES)、すなわち複数セットの撮像が行われている場合には、正規化部31は、画像合成部32に正規化後の撮像画像データymnを送る。一方、撮像セット数nが1である場合(S5でNO)には、正規化部31は、差分画像生成部33に正規化後の撮像画像データymnを送る。 Here, when normalization of the captured image data y mn is completed, the normalizing unit 31 checks whether or not the number n of captured image sets is 1 (S5). When the imaging set number n is not 1 (YES in S5), that is, when multiple sets of imaging are performed, the normalization unit 31 sends the normalized captured image data y mn to the image composition unit 32. send. On the other hand, when the imaging set number n is 1 (NO in S5), the normalization unit 31 sends the normalized captured image data y mn to the difference image generation unit 33.

画像合成部32は、撮像画像データymnを受け取ると、各撮像画像セットにおいて、同じ撮像位置で撮像された撮像画像データを合成してm枚1セットの合成撮像画像データyを生成し、該生成したm枚の合成撮像画像データyを差分画像生成部33に送る。また、画像合成部32は、領域抽出部35に指示して、m×n枚の撮像画像データymnに対応する抽出領域データZmnを、m枚の合成撮像画像データyに対応する抽出領域データZに更新させる。 Image synthesizing unit 32 receives the captured image data y mn, in each captured image set, the captured image data imaged at the same imaging position synthesized to generate a synthesized image data y m of m single set, Send a synthetic image data y m of m sheets thus generated in the difference image generation unit 33. The image synthesizing unit 32 instructs the region extraction unit 35, the extraction area data Z mn corresponding to m × n pieces of captured image data y mn, corresponding to m pieces of synthetic image data y m extraction and updates the region data Z m.

例えば、図6の撮像画像セット1〜3の合成を行う場合には、撮像位置1〜9のそれぞれで撮像された撮像画像データが合成されて、合成撮像画像データyが生成される。合成撮像画像データyは、例えば図7のようになる。図7は、合成撮像画像データyの一例を示す図である。 For example, when performing the synthesis of the captured image set 1-3 of Figure 6, the captured image data captured by each imaging position 1-9 is synthesized, the synthetic image data y m is generated. Synthetic image data y m is as shown in Figure 7, for example. Figure 7 is a diagram showing an example of the synthetic image data y m.

同図では、露光時間aで撮像した撮像画像データでは、該撮像画像データを構成する全25画素が第2領域(適正露光)に設定されていることを想定している。また、より露光時間の長い、露光時間bで撮像した撮像画像データでは、該撮像画像データを構成する画素のうち、中央に位置する1つの画素が第1領域(露光過多)に設定されており、他の24の画素が第1領域に設定されていることを想定している。そして、さらに露光時間の長い露光時間cで撮像した撮像画像データでは、該撮像画像データを構成する画素のうち、最も外側の16画素が第2領域に設定されており、中央部の9画素が第1領域(露光過多)に設定されていることを想定している。   In the figure, in the captured image data captured at the exposure time a, it is assumed that all 25 pixels constituting the captured image data are set in the second region (appropriate exposure). In the captured image data captured with the exposure time b having a longer exposure time, one pixel located in the center among the pixels constituting the captured image data is set to the first region (overexposed). It is assumed that the other 24 pixels are set in the first region. In the captured image data captured with the exposure time c having a longer exposure time, the outermost 16 pixels among the pixels constituting the captured image data are set as the second region, and the 9 pixels in the center are It is assumed that the first area (overexposed) is set.

この場合には、中央に位置する1つの画素は、露光時間aで撮像した撮像画像データでのみ第2領域に設定されているので、この画素の輝度値としては、露光時間aで撮像した撮像画像データの輝度値a1〜a9が適用される。また、中央に位置する1つの画素を囲む8つの画素は、露光時間aで撮像した撮像画像データ及び露光時間bで撮像した撮像画像データの両方で第2領域に設定されているので、より露光時間の長い露光時間bで撮像した撮像画像データの輝度値b1〜b9が適用される。そして、最も外側の16画素は、全ての撮像画像データにおいて第2領域に設定されているので、露光時間の最も長い露光時間cで撮像した撮像画像データの輝度値c1〜c9が適用される。このようにして、図示のような、9枚の合成撮像画像データが生成される。   In this case, since one pixel located at the center is set in the second region only by the captured image data captured at the exposure time a, the luminance value of this pixel is captured at the exposure time a. The brightness values a1 to a9 of the image data are applied. Further, the eight pixels surrounding one pixel located at the center are set in the second region in both the captured image data captured at the exposure time a and the captured image data captured at the exposure time b, so that the exposure is more exposed. Luminance values b1 to b9 of captured image data captured with a long exposure time b are applied. Since the outermost 16 pixels are set as the second region in all the captured image data, the brightness values c1 to c9 of the captured image data captured at the exposure time c having the longest exposure time are applied. In this way, nine pieces of composite captured image data as shown are generated.

このように、合成撮像画像データは、複数の撮像条件(例えば露光時間)で撮像された撮像画像データに含まれる各画素の輝度値データのうち、有効なデータ、すなわち第2領域の輝度値データを組み合わせて構成されている。これにより、合成撮像画像データのダイナミックレンジは、撮像画像データよりも拡大されることになる。   As described above, the composite captured image data is valid data among the luminance value data of each pixel included in the captured image data captured under a plurality of imaging conditions (for example, exposure time), that is, the brightness value data of the second region. It is configured by combining. As a result, the dynamic range of the composite captured image data is expanded as compared with the captured image data.

ここで、画像処理システム1は、合成撮像画像データを用いて超解像処理を行うが、合成撮像画像データを用いてイメージシフト処理を行うようにしてもよい。合成撮像画像データを用いてイメージシフト処理を行う場合には、撮像画像データを用いてイメージシフト処理を行う場合と比べて、ダイナミックレンジの広い高解像度画像データを生成することができる。なお、イメージシフト処理は、合成撮像画像データの各画素の輝度値を、高解像度画像データの各画素にマッピングすることによって行われる。   Here, the image processing system 1 performs super-resolution processing using the composite captured image data, but may perform image shift processing using the composite captured image data. When image shift processing is performed using composite captured image data, high-resolution image data with a wide dynamic range can be generated compared to when image shift processing is performed using captured image data. Note that the image shift process is performed by mapping the luminance value of each pixel of the composite captured image data to each pixel of the high resolution image data.

ここで、マッピングの方法について説明する。上記のように、マッピングは、合成撮像画像データの各画素の輝度値を、高解像度画像データの各画素に適用することによって行われる。図7のように、5×5画素の合成撮像画像データを9枚用いる場合には、3倍の高解像度化が行われることになるので、高解像度画像データは、縦5×3画素×横5×3画素を有する画像データとなる。したがって、図示の例では、縦15×横15の各画素の輝度値に、合成撮像画像データの各画素の輝度値を適用することによって行われる。   Here, a mapping method will be described. As described above, the mapping is performed by applying the luminance value of each pixel of the composite captured image data to each pixel of the high resolution image data. As shown in FIG. 7, when nine pieces of 5 × 5 pixel composite captured image data are used, the resolution is increased by a factor of 3, so that the high resolution image data is 5 × 3 pixels × horizontal. The image data has 5 × 3 pixels. Therefore, in the illustrated example, this is performed by applying the luminance value of each pixel of the composite captured image data to the luminance value of each pixel of 15 × 15 pixels.

具体的には、高解像度画像データの最も左上の画素の輝度値として、図7の最も左上の合成撮像画像データにおいて、最も左上に位置する画素の輝度値(c1)が適用される。同様に、高解像度画像データの最上列の左から2番目の画素の輝度値として、図7の最上列の左から2番目の合成撮像画像データにおいて、最も左上に位置する画素の輝度値(c2)が適用される。   Specifically, the luminance value (c1) of the pixel located at the upper left in the upper left composite captured image data of FIG. 7 is applied as the luminance value of the upper left pixel of the high resolution image data. Similarly, as the luminance value of the second pixel from the left in the uppermost column of the high resolution image data, the luminance value (c2) of the pixel located at the uppermost left in the second composite captured image data from the left of the uppermost column in FIG. ) Applies.

以上のような処理を行い、9枚の合成撮像画像データの全画素を高解像度画像データにマッピングすることにより、図8に示す高解像度画像データが得られる。図8は、図7の合成撮像画像データをイメージシフト処理に供することで生成された高解像度画像データを示す図である。なお、図7と図8とでは、各画素の大きさが同じ程度となっているが、実際には高解像度画像データの各画素は、合成撮像画像データの各画素の1/3のサイズになっている。   High-resolution image data shown in FIG. 8 is obtained by performing the processing as described above and mapping all the pixels of the nine composite captured image data to the high-resolution image data. FIG. 8 is a diagram showing high-resolution image data generated by subjecting the composite captured image data of FIG. 7 to image shift processing. In FIG. 7 and FIG. 8, the size of each pixel is about the same. Actually, however, each pixel of the high-resolution image data is 1/3 the size of each pixel of the composite captured image data. It has become.

ここで、図7の例では、全ての合成撮像画像データの全画素が第2領域となったことを想定しているが、同一の撮像位置で撮像された全ての撮像画像データにおいて、第1領域に設定されている画素が含まれている場合も考えられる。このような画素が含まれている場合には、高精度な超解像処理を行うことは困難となる。そこで、超解像処理部25では、合成を行った後に、抽出領域データZmnを、m枚の合成撮像画像データyに対応する抽出領域データZに更新し、該抽出領域データZを用いて、第1領域となっている画素の超解像処理における寄与を低下させるために重み付けを行う。 Here, in the example of FIG. 7, it is assumed that all the pixels of all the composite captured image data are in the second region. However, in all the captured image data captured at the same imaging position, the first There may be a case where a pixel set in the region is included. When such a pixel is included, it is difficult to perform highly accurate super-resolution processing. Therefore, the super-resolution processing unit 25 updates the extracted area data Z mn to the extracted area data Z m corresponding to the m pieces of synthesized captured image data y m after performing synthesis, and the extracted area data Z m. Is used to reduce the contribution of the pixels in the first region in the super-resolution processing.

画像合成部32が合成撮像画像データyの生成を終了した後、または撮像セット数が1である場合(S5でNO)には、擬似低解像度画像生成部34は、高解像度画像保存部24に格納されている初期高解像度画像データhを取得する(S7)。 After the image synthesizing unit 32 has completed the generation of the synthesized image data y m, or in the case where the imaging set number is 1 (S5 in NO), the pseudo low-resolution image generating unit 34, the high-resolution image storage unit 24 The initial high-resolution image data h stored in is acquired (S7).

続いて、擬似低解像度画像生成部34は、上記取得した初期高解像度画像データhを、m枚の撮像画像データのそれぞれと位置合わせすると共に、光学的劣化要因やダウンサンプリング等の要因を考慮して低解像度化を行い、擬似低解像度画像データを生成する(S8)。   Subsequently, the pseudo low-resolution image generation unit 34 aligns the acquired initial high-resolution image data h with each of the m pieces of captured image data, and considers factors such as optical deterioration factors and downsampling. The resolution is reduced to generate pseudo low-resolution image data (S8).

具体的には、擬似低解像度画像生成部34は、初期高解像度画像データhにBを乗じて、擬似低解像度画像データBhを生成する。なお、初期高解像度画像データhは1枚であるが、擬似低解像度画像データBhは、撮像画像データのそれぞれに位置合わせされているので、擬似低解像度画像データBhの枚数はm枚になる(図25参照)。そして、擬似低解像度画像生成部34は、上記生成した擬似低解像度画像データBhを差分画像生成部33に送る。 Specifically, the pseudo low resolution image generation unit 34 multiplies the initial high resolution image data h by B m to generate pseudo low resolution image data B m h. Although the initial high resolution image data h is one, the pseudo low resolution image data B m h is aligned with each of the captured image data, so the number of the pseudo low resolution image data B m h is m. (See FIG. 25). The pseudo low resolution image generation unit 34 then sends the generated pseudo low resolution image data B m h to the difference image generation unit 33.

差分画像生成部33は、擬似低解像度画像データBhを受け取ると、受け取った擬似低解像度画像データBhから、画像合成部32が生成した合成撮像画像データyを引いて、m枚の差分画像データXを算出する(S9)。そして、差分画像生成部33は、該算出したm枚の差分画像データXを重み付け差分画像生成部36に送る。なお、撮像画像データが1セットのみである場合には、差分画像生成部33は、擬似低解像度画像データBhから撮像画像データyを引いて、m枚の差分画像データXを算出する。 Upon receiving the pseudo low-resolution image data B m h, the difference image generation unit 33 subtracts the composite captured image data y m generated by the image synthesis unit 32 from the received pseudo low-resolution image data B m h to obtain m images. Difference image data Xm is calculated (S9). Then, the difference image generation unit 33 sends the differential image data X m of m Like the calculated the weighting difference image generation unit 36. When there is only one set of captured image data, the difference image generation unit 33 calculates m pieces of difference image data X m by subtracting the captured image data y m from the pseudo low-resolution image data B m h. To do.

重み付け差分画像生成部36は、差分画像データXを受け取ると、領域抽出部35が生成した抽出領域データZに基づいて重み付けを行う(S10)。具体的には、差分画像生成部33は、差分画像データXにαZを乗じることによって、差分画像データXの各画素の輝度値を補正した重み付け差分画像データXαZを生成し、該生成した重み付け差分画像データXαZを画像更新部37に送る。なお、αは抽出領域データZに乗じる重みであり、αの値は必要に応じて適宜設定することができる。 Weighted difference image generation unit 36 receives the difference image data X m, a weighting based on the extracted region data Z m the region extraction unit 35 has generated performed (S10). Specifically, the difference image generation unit 33, by multiplying the .alpha.z m the differential image data X m, to generate a weighted difference image data X m .alpha.z m obtained by correcting the luminance value of each pixel of the difference image data X m The generated weighted difference image data X m αZ m is sent to the image update unit 37. Note that α is a weight to be multiplied by the extraction region data Z m , and the value of α can be appropriately set as necessary.

例えば、ここでは、抽出領域データZにおいて、第1領域の画素の輝度値を1とし、第2領域の画素の輝度値を255とすることを想定しているので、αの値を1/255に設定すればよい。これにより、重み付け差分画像データXαZにおける第1領域の画素の輝度値が全て1以下の値に補正される一方、第2領域の画素の輝度値は差分画像データXと同じになる。したがって、第1領域に属する画素の輝度値の寄与を第2領域の画素と比べて低くすることができ、これにより超解像処理の精度を向上させることができる。 For example, here, in the extraction area data Z m, the luminance values of the pixels of the first area and 1, since the luminance values of the pixels of the second area is assumed to be 255, the value of alpha 1 / It may be set to 255. As a result, the luminance values of the pixels in the first region in the weighted difference image data X m αZ m are all corrected to values of 1 or less, while the luminance values of the pixels in the second region are the same as the difference image data X m. . Therefore, the contribution of the luminance value of the pixels belonging to the first area can be made lower than that of the pixels in the second area, and thereby the accuracy of the super-resolution processing can be improved.

重み付け差分画像データXαZを受け取った画像更新部37は、該受け取った重み付け差分画像データXαZを評価関数に代入して、評価値Eを算出する。なお、評価関数は、例えば〔背景技術〕で示した従来の超解像処理と同様に数式(3)を用いればよい。そして、画像更新部37は、上記算出した評価値Eと予め設定した閾値と比較する(S12)。なお、上記従来の超解像処理と同様に、上記閾値は、要求される高解像度化の精度に応じて適宜変更することができる。 Image update section 37 that has received the weighted difference image data X m .alpha.z m substitutes the weighted difference image data X m .alpha.z m received the evaluation function, calculates an evaluation value E. As the evaluation function, for example, Equation (3) may be used similarly to the conventional super-resolution processing shown in [Background Art]. Then, the image update unit 37 compares the calculated evaluation value E with a preset threshold value (S12). Note that, similarly to the conventional super-resolution processing, the threshold value can be appropriately changed according to the required accuracy of resolution enhancement.

評価値Eの値が上記閾値よりも小さい場合(S12でYES)には、画像更新部37は、超解像処理を終了する。そして、このときに高解像度画像保存部24に格納されている高解像度画像データhが、超解像処理の結果となる高解像度画像データということになる。   If the evaluation value E is smaller than the threshold value (YES in S12), the image update unit 37 ends the super-resolution process. At this time, the high-resolution image data h stored in the high-resolution image storage unit 24 is the high-resolution image data that is the result of the super-resolution processing.

一方、評価値Eの値が上記閾値以上である場合(S12でNO)には、画像更新部37は、評価値Eの値が小さくなるように、当該評価値Eの算出に用いた高解像度画像データhを更新する(S13)。画像更新部37は、例えば上記従来の超解像処理と同様に、上記数式(4)を用いることによって、高解像度画像データhを更新することができる。   On the other hand, when the value of the evaluation value E is equal to or greater than the threshold value (NO in S12), the image update unit 37 uses the high resolution used for calculating the evaluation value E so that the value of the evaluation value E is small. The image data h is updated (S13). The image update unit 37 can update the high-resolution image data h by using the above formula (4), for example, similarly to the conventional super-resolution processing.

そして、画像更新部37は、更新した高解像度画像データhを高解像度画像保存部24に格納する。高解像度画像保存部24に新規に高解像度画像データhが格納されると、低解像度画像生成部がこれを擬似的に低解像度化して擬似低解像度画像データBhを生成する(S8)。 Then, the image update unit 37 stores the updated high resolution image data h in the high resolution image storage unit 24. When the high-resolution image data h is newly stored in the high-resolution image storage unit 24, the low-resolution image generation unit artificially lowers the resolution and generates pseudo low-resolution image data B m h (S8).

このように、超解像処理部25では、評価値Eの値が上記閾値よりも小さくなるまでS8〜S13までの処理が繰り返される。これにより、所望の倍率で高解像度化がなされた所望の精度の高解像度画像データhを得ることができる。   Thus, in the super-resolution processing unit 25, the processes from S8 to S13 are repeated until the value of the evaluation value E becomes smaller than the threshold value. As a result, it is possible to obtain high-resolution image data h having a desired accuracy and having a higher resolution at a desired magnification.

ここで、上述のように、高解像度画像データhから擬似低解像度画像データBhを生成するときには、PSFの畳み込み処理が行われる。このPSFの畳み込み処理により、重み付けによって輝度値の値が十分小さい値に補正された画素の輝度値は、当該画素の周囲に位置する画素の輝度値の影響によって補間更新される。したがって、白とびや黒つぶれが発生した第1領域の画素の画素値についても、S8〜S13までの処理が繰り返されることによって撮像対象の形状及び色彩を反映させた値に近づいてゆく。 Here, as described above, when the pseudo low-resolution image data B m h is generated from the high-resolution image data h, a PSF convolution process is performed. By the PSF convolution process, the luminance value of the pixel whose luminance value is corrected to a sufficiently small value by weighting is interpolated and updated by the influence of the luminance value of the pixels located around the pixel. Therefore, the pixel values of the pixels in the first region where overexposure and underexposure occur also approach the values reflecting the shape and color of the imaging target by repeating the processing from S8 to S13.

また、PSFの畳み込み処理は、繰り返し演算を行うときに差分画像データ(上記の例では重み付け差分画像データ)に対しても行われる。すなわち、ここでは、数式(4)を用いて高解像度画像データの更新を行うことを想定している。数式(4)では、数式(3)の評価関数Eの偏微分を取っているので、偏微分後の数式(4)は、下記の数式(6)のように表される。   In addition, the PSF convolution process is also performed on the difference image data (weighted difference image data in the above example) when iterative calculation is performed. That is, here, it is assumed that the high-resolution image data is updated using Expression (4). In Formula (4), since the partial differentiation of the evaluation function E of Formula (3) is taken, Formula (4) after partial differentiation is expressed as the following Formula (6).

上記のように、数式(6)では、差分画像データ(Bh−y)にBが乗じられているので、差分画像データ(Bh−y)は、この繰り返し演算によってPSFの畳み込み処理を受けることになる。これにより、高解像度画像データを更新するときに、差分画像データの各画素は、その周囲に位置する画素の影響によって補間更新される。 As described above, in Equation (6), since the difference image data (B m h−y m ) is multiplied by B m , the difference image data (B m h−y m ) is converted to the PSF by this iterative calculation. Will be subjected to the convolution process. As a result, when the high-resolution image data is updated, each pixel of the difference image data is interpolated and updated due to the influence of the pixels located around it.

すなわち、上記のように重み付けを行った場合には、高解像度画像データの画素において、撮像画像データの不適正露光画素が反映される画素についても、その周囲の正常露光画素の輝度値によって補間更新される。したがって、上記の構成によれば、重み付けを行わない場合と比べて、撮像対象の形状及び色彩を正確に反映させた高解像度画像データを生成することができる。   In other words, when weighting is performed as described above, in pixels of high-resolution image data, interpolation update is performed for the pixels in which the inappropriate exposure pixels of the captured image data are reflected according to the luminance values of the surrounding normal exposure pixels. Is done. Therefore, according to the above configuration, it is possible to generate high-resolution image data that accurately reflects the shape and color of the imaging target as compared with the case where weighting is not performed.

なお、上記のフローチャートは、本発明の超解像処理の一例を示すものであり、本発明は、この例に限定されない。例えば撮像画像セットを1組のみ用いる場合には、図5のフローチャートにおけるS5及びS6の処理は省略してもよい。また、超解像処理に用いる全ての撮像画像データを同じ撮像条件で撮像した場合には、S4の正規化処理は省略してもよい。   In addition, said flowchart shows an example of the super-resolution process of this invention, and this invention is not limited to this example. For example, when only one set of captured image sets is used, the processes of S5 and S6 in the flowchart of FIG. 5 may be omitted. In addition, when all the captured image data used for the super-resolution processing are captured under the same imaging conditions, the normalization processing in S4 may be omitted.

〔具体例〕
続いて、本発明の超解像処理方法について、具体例を挙げて説明する。ここでは、図9に示すような形状及び色彩を有する撮像対象の撮像を行うことを想定している。図9は、撮像対象の一例を示す図である。
〔Concrete example〕
Subsequently, the super-resolution processing method of the present invention will be described with specific examples. Here, it is assumed that imaging of an imaging target having a shape and color as shown in FIG. 9 is performed. FIG. 9 is a diagram illustrating an example of an imaging target.

図示のように、ここでは、撮像対象が互いに階調が異なる6つの円形の領域が2行3列に等間隔で配列した画像であることを想定している。また、図示のように、6つの円形の領域は、同図の右側に位置するものほど階調が低くなっており、上側に配列した3つの円形領域の方が下側に配列した3つの円形領域よりも階調が低くなっている。無論、撮像対象の形状及び色彩は、どのようなものであってもよく、図示の例に限られない。   As illustrated, it is assumed here that the imaging target is an image in which six circular regions having different gradations are arranged in two rows and three columns at equal intervals. Further, as shown in the figure, the gradation of the six circular areas located on the right side of the figure is lower, and the three circular areas arranged on the upper side are the three circular areas arranged on the lower side. The gradation is lower than the area. Of course, the shape and color of the imaging target may be anything, and are not limited to the illustrated example.

この撮像対象を、1〜mまでのm箇所の互いに異なる撮像位置にて撮像することにより、m枚1セットの撮像画像セットを取得することができる。そして、さらに撮像条件を変えて、上記1〜mまでのm箇所の互いに異なる撮像位置にて撮像することにより、nセットの撮像画像セットを取得することができる。なお、ここでは簡単のため、撮像条件として露光時間のみを変更する例について説明する。   By capturing this imaging target at m different imaging positions from 1 to m, it is possible to acquire a set of m captured images. Further, n sets of captured image sets can be acquired by changing the imaging conditions and imaging at m different imaging positions from 1 to m. For simplicity, an example in which only the exposure time is changed as the imaging condition will be described.

m枚×nセットの撮像画像データは、例えば10に示すような撮像画像データとなる。図10は、撮像画像データの一例を示す図である。図示のように、同一撮像画像セットに含まれるm枚の撮像画像データは、異なる撮像位置にて撮像されたため、撮像画像データに写り込んでいる撮像対象の像も互いに異なっている。また、図示のように、撮像装置2の解像度が十分でないため、撮像画像データは、撮像対象の像がぼやけた画像データとなっている。なお、図10では、各撮像画像データの撮像位置がずれていることを示すため、位置ずれを誇張して記載しているが、実際には、撮像位置のずれは、最大で撮像画像データの1画素分の幅となる。   The captured image data of m sheets × n sets is captured image data as shown in 10, for example. FIG. 10 is a diagram illustrating an example of captured image data. As illustrated, since the m pieces of captured image data included in the same captured image set are captured at different imaging positions, the images of the imaging targets reflected in the captured image data are also different from each other. Further, as illustrated, since the resolution of the imaging device 2 is not sufficient, the captured image data is image data in which an image to be captured is blurred. Note that, in FIG. 10, in order to indicate that the imaging position of each captured image data is shifted, the positional shift is exaggerated, but actually, the imaging position shift is the maximum of the captured image data. The width is one pixel.

さらに、ここではnセットの撮像を行うので、図示のように、同じ撮像位置にて撮像した撮像画像データがそれぞれn枚ずつ得られる。同じ撮像位置で撮像したn枚の撮像画像データは、露光時間がそれぞれ異なっているので、撮像画像データの輝度値も露光時間に応じて異なっている。すなわち、露光時間が長い撮像条件にて撮像された撮像画像データほど撮像画像データの輝度値は大きくなっている。   Further, since n sets of images are captured here, n pieces of captured image data captured at the same imaging position are obtained as shown in the figure. Since the n pieces of captured image data captured at the same imaging position have different exposure times, the brightness values of the captured image data also differ according to the exposure time. That is, the brightness value of the captured image data increases as the captured image data is captured under an imaging condition with a longer exposure time.

ここで、図10にD及びDで示す領域は白とびしており、D及びDで示す領域は黒つぶれしている。これは、露光時間等の条件によって露光過多または露光不足となることにより発生するものである。領域D〜Dには、図9に示す撮像対象とは異なる色が表示されている。すなわち、領域D〜Dは、撮像対象の形状及び色彩を正確に反映しておらず、このような領域の輝度値データを用いて超解像処理を行ってしまうと、超解像処理の精度が低下してしまう。 Here, the areas indicated by D 1 and D 3 in FIG. 10 are overexposed, and the areas indicated by D 2 and D 4 are blacked out. This occurs due to overexposure or underexposure depending on conditions such as exposure time. In the areas D 1 to D 4 , colors different from those of the imaging target shown in FIG. 9 are displayed. That is, the regions D 1 to D 4 do not accurately reflect the shape and color of the imaging target, and if super-resolution processing is performed using luminance value data of such regions, super-resolution processing is performed. The accuracy of will decrease.

また、本発明の超解像処理では、撮像画像データの正規化を行う。正規化を行うことによって、例えば図11に示すような画像データが得られる。図11は、正規化した撮像画像データの一例を示す図である。図示のように、正規化を行うことによって、各セットの撮像画像データの輝度値が同程度になっている。このように正規化を行うことにより、超解像処理に使用する全ての撮像画像データを同一の撮像条件で撮像したものとみなすことができ、これにより様々な撮像条件で撮像して得られた撮像画像データを用いて超解像処理を行うことが可能になる。   In the super-resolution processing of the present invention, the captured image data is normalized. By performing normalization, for example, image data as shown in FIG. 11 is obtained. FIG. 11 is a diagram illustrating an example of normalized captured image data. As shown in the figure, by performing normalization, the luminance values of the captured image data of each set are approximately the same. By performing normalization in this way, it can be considered that all captured image data used for the super-resolution processing are captured under the same imaging conditions, and thus obtained by imaging under various imaging conditions. Super-resolution processing can be performed using captured image data.

そして、正規化を行った後の、同一撮像位置の撮像画像データについて、画像の合成が行われ、合成撮像画像データが生成される。なお、本例のように、撮像画像データに対して正規化を行うようにしてもよいし、撮像画像データの合成を行った後に、合成撮像画像データに対して正規化を行うようにしてもよい。   Then, after the normalization, the synthesized images of the captured image data at the same imaging position are synthesized to generate synthesized captured image data. As in this example, normalization may be performed on the captured image data, or normalization may be performed on the combined captured image data after the captured image data is synthesized. Good.

続いて、本例で使用する初期高解像度画像データについて説明する。上述のように、様々な画像データを初期高解像度画像データとして使用することができるが、例えば図12(a)〜(d)に示すような画像データを使用することができる。図12(a)〜(d)は、初期高解像度画像データの一例を示す図である。   Next, the initial high resolution image data used in this example will be described. As described above, various image data can be used as the initial high-resolution image data. For example, image data as shown in FIGS. 12A to 12D can be used. 12A to 12D are diagrams illustrating an example of initial high-resolution image data.

すなわち、同図(a)に示すような、画像データの全面が白色の白色画像を初期高解像度画像データとして使用することができる。同様に、画像データの全面が黒色の黒色画像を初期高解像度画像データとして使用することができる。また、同図(b)に示すように、画像データの全面が白色と黒色の中間階調の灰色画像を初期高解像度画像データとして用いてもよい。   That is, as shown in FIG. 5A, a white image with the entire surface of the image data being white can be used as the initial high resolution image data. Similarly, a black image in which the entire image data is black can be used as the initial high resolution image data. Further, as shown in FIG. 5B, a gray image having an intermediate gradation of white and black on the entire surface of the image data may be used as the initial high resolution image data.

さらに、同図(c)に示すように、撮像画像データから選択した任意の画像データに補間処理を施したものを初期高解像度画像データとして用いることもできる。また、ここでは撮像対象の形状及び色彩が図9に示すものであることが予めわかっているので、同図(d)に示すような、撮像対象の形状及び色彩を示す設計データを初期高解像度画像データとして用いることもできる。   Furthermore, as shown in FIG. 5C, it is also possible to use, as initial high-resolution image data, any image data selected from captured image data that has been subjected to interpolation processing. Here, since it is known in advance that the shape and color of the imaging target are as shown in FIG. 9, design data indicating the shape and color of the imaging target as shown in FIG. It can also be used as image data.

なお、超解像処理では、高解像度画像データと撮像画像データとの差異が小さくなるように、高解像度画像データを順次更新してゆくので、初期高解像度画像データと撮像画像データとの差異が小さいほど、超解像処理は短時間で終了する。したがって、図12(a)〜(d)に示す初期高解像度画像データの中では、同図(a)や(b)に示すものよりも、同図(c)や(d)に示すものを用いた方が超解像処理の処理時間及び演算量を少なく抑えることができる。   In the super-resolution processing, the high-resolution image data is sequentially updated so that the difference between the high-resolution image data and the captured image data becomes small. Therefore, there is a difference between the initial high-resolution image data and the captured image data. The smaller the value is, the faster the super-resolution processing is completed. Accordingly, among the initial high resolution image data shown in FIGS. 12A to 12D, those shown in FIGS. 12C and 12D are more than those shown in FIGS. 12A and 12B. The use can reduce the processing time and calculation amount of the super-resolution processing.

図12(c)または図12(d)に示す画像データを初期高解像度画像データとして用いた場合には、擬似低解像度画像データは、例えば図13に示すようなデータとなる。図13は、擬似低解像度画像データの一例を示す図である。図示のように、擬似低解像度画像データは、m枚の撮像画像データのそれぞれと同じ撮像位置のm枚の画像データで構成されており、各画像データの解像度(画素サイズ)は撮像画像データと同じである(図25参照)。   When the image data shown in FIG. 12C or FIG. 12D is used as the initial high resolution image data, the pseudo low resolution image data is, for example, data as shown in FIG. FIG. 13 is a diagram illustrating an example of pseudo low-resolution image data. As shown in the figure, the pseudo low-resolution image data is composed of m image data at the same imaging position as each of the m captured image data, and the resolution (pixel size) of each image data is the same as that of the captured image data. The same is true (see FIG. 25).

なお、図12(a)や図12(b)に示すような初期高解像度画像データの擬似低解像度化を行う場合には、図13のような画像データは生成されず、全面が均一で解像度(画素数)が撮像画像データと等しい、黒色画像や白色画像、または灰色画像等が生成される。   Note that in the case of performing the pseudo low resolution of the initial high resolution image data as shown in FIGS. 12A and 12B, the image data as shown in FIG. 13 is not generated, and the entire surface is uniform and has the resolution. A black image, a white image, a gray image, or the like having the (number of pixels) equal to the captured image data is generated.

このようにして生成した擬似低解像度画像データと合成撮像画像データとの差分から差分画像データを生成し、差分画像データに重み付けを行って重み付け差分画像データを生成する。そして、この重み付け差分画像データを用いて繰り返し演算を行うことにより、初期高解像度画像データは順次更新されて、所望の精度の高解像度画像データが生成される。   Difference image data is generated from the difference between the pseudo low-resolution image data and the composite captured image data generated as described above, and the difference image data is weighted to generate weighted difference image data. Then, by repeatedly performing calculation using the weighted difference image data, the initial high-resolution image data is sequentially updated, and high-resolution image data with desired accuracy is generated.

〔参考例〕
上記画像処理システム1の構成によれば、露光時間が異なる複数の撮像画像データを正規化し、合成して超解像処理を行っているので、ダイナミックレンジの拡大された高解像度画像データを生成することができる。
[Reference example]
According to the configuration of the image processing system 1, since a plurality of captured image data having different exposure times are normalized and synthesized to perform super-resolution processing, high-resolution image data with an expanded dynamic range is generated. be able to.

また、画像処理システム1の構成によれば、白とびや黒つぶれが発生している可能性の高い第1領域の寄与が、有効ダイナミックレンジ内の輝度値を有する第2領域の寄与よりも小さくなるように重み付けが行われるので、高精度な高解像度画像データを少ない演算量で短時間に生成することが可能になる。   In addition, according to the configuration of the image processing system 1, the contribution of the first region that is likely to cause overexposure or blackout is smaller than the contribution of the second region having a luminance value within the effective dynamic range. Thus, it is possible to generate high-precision high-resolution image data in a short time with a small amount of calculation.

しかしながら、画像処理システム1では、露光時間が異なる複数の撮像画像セットを用いているので、撮像に要する時間が長くなるという問題がある。すなわち、超解像処理において解像度をN倍にする場合には、N回の撮像を行う必要があるので、複数の露光時間で撮像を行う場合には、撮像時間の増加が著しい。 However, since the image processing system 1 uses a plurality of captured image sets having different exposure times, there is a problem that the time required for imaging becomes long. That is, when the resolution is increased N times in the super-resolution processing, it is necessary to perform N 2 times of imaging. Therefore, when imaging is performed with a plurality of exposure times, the imaging time is remarkably increased.

例えば、解像度を3倍にする場合には、9回の撮像を行う必要がある。この場合に、露光時間を100ミリ秒に設定すると、900ミリ秒で撮像は終了する。しかしながら、露光時間を100ミリ秒、200ミリ秒、300ミリ秒の3通りに設定した場合には、撮像終了までに最短でも5400ミリ秒の時間を要する。   For example, when the resolution is tripled, it is necessary to perform nine imaging operations. In this case, if the exposure time is set to 100 milliseconds, imaging is completed in 900 milliseconds. However, when the exposure time is set to three types of 100 milliseconds, 200 milliseconds, and 300 milliseconds, it takes a minimum of 5400 milliseconds to complete the imaging.

なお、画像処理にてダイナミックレンジの拡大を行うことは、従来から行われている。例えば、“多重絞りカラー画像の解析”(浅田尚紀、松山隆司、望月孝俊、情報処理学会論文誌、1991年10月、Vol.32、No.10、p.1338-1348)や、特開平02−174470号公報(1990年7月5日公開)、及び特開2007−49228号公報(2007年2月22日公開)には、露光時間の異なる複数の画像を用いて合成処理を行うことにより、ダイナミックレンジを拡張することが記載されている。   Note that the expansion of the dynamic range by image processing has been conventionally performed. For example, “analysis of multi-aperture color image” (Naoki Asada, Takashi Matsuyama, Takatoshi Mochizuki, Transactions of Information Processing Society of Japan, October 1991, Vol. 32, No. 10, p.1338-1348) JP-A-174470 (published on July 5, 1990) and JP-A-2007-49228 (published on February 22, 2007) perform composite processing using a plurality of images having different exposure times. It is described to extend the dynamic range.

上記の文献で記載されている方法によれば、ダイナミックレンジを拡大する対象となる撮像対象を、短時間露光及び長時間露光の2種類の露光時間で撮像する。そして、2種類の露光時間で撮像した各画像について、白とび画素、黒つぶれ画素等の不適正露光領域を検出し、それらの領域を短時間露光画像、もしくは長時間露光画像で置き換えるようにしている。   According to the method described in the above-mentioned document, an imaging target that is a target for expanding the dynamic range is imaged with two types of exposure time, that is, short exposure and long exposure. Then, for each image captured with two types of exposure time, improper exposure areas such as overexposure pixels and blackout pixels are detected, and these areas are replaced with short exposure images or long exposure images. Yes.

例えば、特開平02−174470号公報では、長時間露光画像と短時間露光画像とを交互に出力する構成としている。すなわち、短時間露光画像出力時に、その輝度値が所定値以下の画素に関しては黒つぶれがあると判断し、メモリに記憶されている長時間露光画像信号に切り替える。同様に、長時間露光画像出力時に、その輝度値が所定値以上の画素に関しては白とびがあると判断し、メモリに記憶されている短時間露光信号に切り替える。   For example, Japanese Patent Laid-Open No. 02-174470 has a configuration in which a long exposure image and a short exposure image are alternately output. That is, when outputting a short-exposure image, it is determined that a pixel whose luminance value is equal to or less than a predetermined value is blacked out, and the long-exposure image signal stored in the memory is switched. Similarly, when outputting a long-exposure image, it is determined that there is an overexposure with respect to a pixel whose luminance value is a predetermined value or more, and the short-time exposure signal stored in the memory is switched.

なお、上記従来の方法によれば、置き換える対象となる画素は撮像位置が同じである必要がある。すなわち、上記従来の方法によれば、画素レベルで撮像位置が一致した一組の画像を用いる必要がある。撮像位置がずれた画像データで上記従来の方法を用いた場合には、画素の置き換えを行った箇所が、置き換えを行っていない箇所と不連続になってしまうからである。   Note that according to the conventional method, the pixels to be replaced need to have the same imaging position. That is, according to the conventional method, it is necessary to use a set of images in which the imaging positions coincide at the pixel level. This is because, when the above-described conventional method is used with image data whose imaging position is shifted, the place where the pixel is replaced becomes discontinuous with the place where the replacement is not performed.

したがって、撮像位置をずらしながら撮像を行う超解像処理においては、上記従来のダイナミックレンジ拡張方法を適用することは考えられていなかった。また、上述ように、超解像処理において、複数組の撮像画像セットを合成した合成撮像画像データを用いることによって、高解像度画像データダイナミックレンジを拡張することができるが、撮像に時間がかかるという難点もある。   Therefore, it has not been considered to apply the above-described conventional dynamic range expansion method in super-resolution processing in which imaging is performed while shifting the imaging position. In addition, as described above, in the super-resolution processing, the high-resolution image data dynamic range can be expanded by using composite captured image data obtained by combining a plurality of captured image sets, but imaging takes time. There are also difficulties.

そこで、本参考例では、撮像に要する時間を増加させずにダイナミックレンジの拡大された高解像度画像データを生成する例について図14〜図21に基づいて説明する。より詳細には、本参考例では、撮像対象の撮像を行うときに、撮像位置に応じて露光時間を変更しながら撮像を行うことにより、撮像位置毎に異なる露光時間で撮像された撮像画像データを取得する。   Therefore, in this reference example, an example in which high-resolution image data with an expanded dynamic range is generated without increasing the time required for imaging will be described with reference to FIGS. More specifically, in this reference example, when imaging an imaging target, imaging is performed while changing the exposure time according to the imaging position, so that the captured image data captured at different exposure times for each imaging position To get.

そして、このようにして撮像された撮像画像データを用いて超解像処理またはイメージシフト処理を行うことによって、ダイナミックレンジの拡大された高解像度画像データを生成することができる。すなわち、本参考例に記載の発明は、主に撮像方法に特色がある。   Then, high resolution image data with an expanded dynamic range can be generated by performing super-resolution processing or image shift processing using the captured image data captured in this way. That is, the invention described in this reference example is mainly characterized by an imaging method.

図14は、本参考例の撮像方法を説明する図である。なお、同図では、縦5×横5の25画素からなる撮像画像データを3倍に高解像度化する例を示している。3倍に高解像度化する場合には、図6の例と同様に、撮像画像データは9枚必要になる。また、この場合には、図6の例と同様に、9枚の撮像画像データの撮像位置は、撮像画像データ1画素の幅の1/3ピッチでずれている。   FIG. 14 is a diagram for explaining the imaging method of this reference example. In the figure, an example is shown in which captured image data composed of 25 pixels of 5 × 5 pixels is three times higher in resolution. When the resolution is increased to three times, nine pieces of captured image data are required as in the example of FIG. In this case, as in the example of FIG. 6, the imaging positions of the nine captured image data are shifted by 1/3 pitch of the width of one pixel of the captured image data.

ここで、図6の例と比較すればわかるように、図14の撮像画像データは、同図の最上段及び最下段の露光時間がaであるのに対し、同図の2段目の露光時間はbとなっている。すなわち、本参考例の撮像方法によれば、1枚の高解像度画像データを生成するための撮像画像セットの中に、複数の異なる露光時間にて撮像された撮像画像データが含まれている。なお、ここでは簡単のため撮像条件として露光時間のみを変更する例について説明する。   Here, as can be seen from a comparison with the example of FIG. 6, the captured image data of FIG. 14 has the exposure time a of the uppermost stage and the lowermost stage of FIG. Time is b. That is, according to the imaging method of the present reference example, captured image data captured at a plurality of different exposure times is included in a captured image set for generating one piece of high-resolution image data. For simplicity, an example in which only the exposure time is changed as an imaging condition will be described.

このような撮像画像セットは、図2に示す画像処理システムにて取得することができる。すなわち、アクチュエータ制御部26は、アクチュエータ13を駆動して撮像素子12を予め定めた撮像位置に移動させる。そして、この撮像位置において、撮像タイミング制御部27は、露光時間aだけ撮像対象を撮像させる。これにより、図14の最上段の一番左に示す撮像画像データが撮像される。   Such a captured image set can be acquired by the image processing system shown in FIG. That is, the actuator control unit 26 drives the actuator 13 to move the image sensor 12 to a predetermined imaging position. Then, at this imaging position, the imaging timing control unit 27 images the imaging target for the exposure time a. As a result, the captured image data shown on the leftmost side of the uppermost stage in FIG. 14 is captured.

撮像が終了すると、アクチュエータ制御部26は、アクチュエータ13を駆動して、図14における右向きに像画像データの1画素幅の1/3だけ撮像領域が移動するように、撮像素子12を移動させる。そして、移動が終了すると、撮像タイミング制御部27は、上記の場合と同様に、露光時間aだけ撮像対象を撮像させる。これにより、1画素幅の1/3だけ移動した撮像位置においても露光時間aで撮像が行われることになり、図14の最上段の中央に示す撮像画像データが撮像される。同様に、さらに1画素幅の1/3だけ移動させた撮像位置においても露光時間aで撮像が行われ、図14の最上段の一番右に示す撮像画像データが撮像される。   When the imaging is completed, the actuator control unit 26 drives the actuator 13 to move the imaging device 12 so that the imaging region moves to the right in FIG. 14 by 1/3 of one pixel width of the image image data. When the movement is completed, the imaging timing control unit 27 causes the imaging target to be imaged for the exposure time a as in the above case. As a result, even at an imaging position moved by 1/3 of one pixel width, imaging is performed with the exposure time a, and the captured image data shown in the center of the uppermost stage in FIG. 14 is captured. Similarly, imaging is performed at an exposure time a at an imaging position further moved by 1/3 of one pixel width, and the captured image data shown at the rightmost position in the uppermost stage in FIG. 14 is captured.

ここで、図14の最上段に記載されている3枚の撮像画像データの撮像が終了すると、アクチュエータ制御部26は、アクチュエータ13を駆動して、図14における下向きに像画像データの1画素幅の1/3だけ撮像領域が移動するように、撮像素子12を移動させる。そして、移動が終了すると、撮像タイミング制御部27は、露光時間bだけ撮像対象を撮像させる。これにより、図14の2段目の一番右に示す撮像画像データが撮像される。すなわち、図14の最上段の撮像画像データは、露光時間aで撮像が行われていたが、図14の2段目の撮像画像データでは、露光時間がbに変わっている。   Here, when the imaging of the three pieces of captured image data described in the uppermost part of FIG. 14 is completed, the actuator control unit 26 drives the actuator 13 to have a one-pixel width of the image image data downward in FIG. The image pickup element 12 is moved so that the image pickup area is moved by 1/3. When the movement is completed, the imaging timing control unit 27 images the imaging target for the exposure time b. Thereby, the captured image data shown at the rightmost level in the second row of FIG. 14 is captured. In other words, the uppermost captured image data in FIG. 14 is captured at the exposure time a, but the exposure time is changed to b in the second captured image data in FIG.

以下同様に、1画素幅の1/3ピッチで撮像位置を移動させながら露光時間bで撮像を行い、図14の2段目の中央、及び一番左に記載の撮像画像データを取得する。そして、アクチュエータ制御部26は、アクチュエータ13を駆動して、図14における下向きに撮像画像データの1画素幅の1/3だけ撮像領域が移動するように、撮像素子12を移動させる。ここでは、撮像タイミング制御部27は、再び露光時間をaに戻して撮像を実行させる。そして、上記と同様にして、撮像画像データ1画素幅の1/3ピッチで撮像位置を図14の右向き移動させながら露光時間bで撮像を行い、図14の最下段に記載されている3枚の撮像画像データを取得する。   Similarly, imaging is performed with an exposure time b while moving the imaging position at 1/3 pitch of one pixel width, and the captured image data described in the center and the leftmost part of the second row in FIG. 14 is acquired. Then, the actuator control unit 26 drives the actuator 13 to move the imaging element 12 so that the imaging region moves downward by 1/3 of one pixel width of the captured image data in FIG. Here, the imaging timing control unit 27 returns the exposure time to a again to execute imaging. Then, in the same manner as described above, imaging is performed with the exposure time b while moving the imaging position to the right in FIG. 14 at 1/3 pitch of the captured image data, and the three images shown in the bottom row of FIG. The captured image data is acquired.

このように、本発明の撮像方法によれば、高解像度画像データを生成するための1組の撮像画像セット内に、複数の露光時間(撮像条件)で撮像された撮像画像データが含まれることになる。例えば、図14の例では、撮像画像セットに含まれる9枚の撮像画像データのうち、6枚が露光時間aで撮像されたものであり、3枚が露光時間bで撮像されたものである。   Thus, according to the imaging method of the present invention, captured image data captured with a plurality of exposure times (imaging conditions) is included in one captured image set for generating high-resolution image data. become. For example, in the example of FIG. 14, among the nine captured image data included in the captured image set, 6 images are captured at the exposure time a, and 3 images are captured at the exposure time b. .

このような複数の露光時間(撮像条件)にて撮像された撮像画像データを用いることによって、1種類の露光時間で撮像された撮像画像データのみを用いる場合と比べて、ダイナミックレンジの拡大された高解像度画像データを生成することができる。なお、高解像度画像データは、イメージシフト処理にて生成されるものであってもよいし、再構成型の超解像処理にて生成されるものであってもよい。   By using the captured image data captured at such a plurality of exposure times (imaging conditions), the dynamic range is expanded compared to the case of using only captured image data captured at one type of exposure time. High resolution image data can be generated. Note that the high-resolution image data may be generated by an image shift process or may be generated by a reconstruction type super-resolution process.

ここでは、まずイメージシフト処理にてダイナミックレンジの拡大された高解像度画像データを生成する例について説明する。上述のように、イメージシフト処理は、撮像画像データの各画素の輝度値を高解像度画像データの各画素位置にマッピングすることによって行われる。   Here, an example in which high-resolution image data with an expanded dynamic range is first generated by image shift processing will be described. As described above, the image shift process is performed by mapping the luminance value of each pixel of the captured image data to each pixel position of the high resolution image data.

例えば、図14の9枚の撮像画像データを用いてイメージシフト処理を行った場合には、図15に示す高解像度画像データが生成される。図15は、図14の撮像画像データを用いてイメージシフト処理を行うことにより生成される高解像度画像データを示す図である。   For example, when the image shift process is performed using the nine captured image data shown in FIG. 14, the high-resolution image data shown in FIG. 15 is generated. FIG. 15 is a diagram showing high-resolution image data generated by performing image shift processing using the captured image data of FIG.

図示のように、図14の9枚の撮像画像データを用いてイメージシフト処理を行った場合には、高解像度画像データの最上行の各画素には、露光時間aで撮像された撮像画像データの輝度値がマッピングされる。そして、上から2行目には、露光時間bで撮像された撮像画像データの輝度値がマッピングされ、上から3行目及び4行目には、露光時間aで撮像された撮像画像データの輝度値がマッピングされる。以下同様に、高解像度画像データの各行に、露光時間b、露光時間a、露光時間a、露光時間bの順で撮像画像データの輝度値がマッピングされる。   As shown in the figure, when the image shift processing is performed using the nine captured image data of FIG. 14, the captured image data captured at the exposure time a is applied to each pixel in the uppermost row of the high resolution image data. Are mapped. The brightness value of the captured image data captured at the exposure time b is mapped to the second line from the top, and the captured image data captured at the exposure time a is mapped to the third and fourth lines from the top. Luminance values are mapped. Similarly, the luminance value of the captured image data is mapped to each row of the high resolution image data in the order of exposure time b, exposure time a, exposure time a, and exposure time b.

ここで、上記のようにして生成された高解像度画像データの各画素について、その輝度値が正常範囲内か否かを判別する。すなわち、ここでは高解像度画像データの各画素が正常露光の第2領域であるか、不適正露光の第1領域であるかを判別する。判別の方法は、上記実施形態で説明した通りであるから、ここではその説明を省略する。   Here, it is determined whether or not the luminance value of each pixel of the high-resolution image data generated as described above is within a normal range. That is, here, it is determined whether each pixel of the high-resolution image data is the normal exposure second region or the improper exposure first region. Since the determination method is as described in the above embodiment, the description thereof is omitted here.

続いて、上記判別処理において不適正露光画素と判定された画素について補間処理を行う。補間処理は、上記不適正露光画素に隣接する画素(例えば当該不適正露光画素の上下左右の4方向、または上下左右斜めの8方向に隣接する画素)のうち、上記判別処理において正常露光画素であると判定された画素の輝度値の平均値または中間値で上記不適正露光画素の輝度値を置き換えることで行われる。   Subsequently, an interpolation process is performed on the pixels determined to be inappropriate exposure pixels in the determination process. Interpolation processing is performed on normal exposure pixels in the discrimination processing among the pixels adjacent to the inappropriate exposure pixel (for example, pixels adjacent in four directions of up / down / left / right, or up / down / left / right diagonal directions) of the inappropriate exposure pixel. This is performed by replacing the luminance value of the inappropriately exposed pixel with the average value or intermediate value of the luminance values of the pixels determined to be present.

このように補間処理を行うことによって、例えば露光時間bまたは露光時間aのいずれか一方で撮像された撮像画像データに白とびや黒つぶれが発生していた場合であっても、正常露光画素によって補間更新される。すなわち、補間処理を行うことによって高解像度画像データのダイナミックレンジが拡大される。   By performing the interpolation processing in this way, for example, even when overexposure or underexposure occurs in captured image data captured in either the exposure time b or the exposure time a, the normal exposure pixels Interpolated and updated. That is, the dynamic range of the high-resolution image data is expanded by performing the interpolation process.

そして、上記補間処理後の高解像度画像データの画素には、互いに異なる撮像条件(例えば露光時間)にて撮像された撮像画像データに由来する画素が含まれているので、各画素の正規化を行う。正規化の方法は、上記実施形態で説明した通りである。これにより、ダイナミックレンジの拡大された高解像度画像データが生成される。   Since the pixels of the high-resolution image data after the interpolation processing include pixels derived from captured image data captured under different imaging conditions (for example, exposure time), normalization of each pixel is performed. Do. The normalization method is as described in the above embodiment. Thereby, high-resolution image data with an expanded dynamic range is generated.

次に、超解像処理にてダイナミックレンジの拡大された高解像度画像データを生成する例について説明する。上記実施形態の超解像処理部25によれば、本参考例の超解像処理を実行することができる。つまり、本参考例の超解像処理は、図1に示す超解像処理部25にて、図5のフローチャートに記載の処理を行うことによって実行される。   Next, an example of generating high-resolution image data with an expanded dynamic range by super-resolution processing will be described. According to the super-resolution processing unit 25 of the above-described embodiment, the super-resolution processing of this reference example can be executed. That is, the super-resolution processing of this reference example is executed by performing the processing described in the flowchart of FIG. 5 in the super-resolution processing unit 25 shown in FIG.

すなわち、図5のフローチャートにおける撮像画像データとして、上記の撮像方法にて取得した一組の撮像画像セットを用いて超解像処理を行うことにより、複数組の撮像画像セットを用いることなく、ダイナミックレンジの拡大された高解像度画像データを生成することができる。なお、本参考例では、撮像画像セットを一組のみ用いるので、図5のフローチャートにおけるS5及びS6の処理は行われない。   That is, as the captured image data in the flowchart of FIG. 5, by performing super-resolution processing using a set of captured image sets acquired by the above-described imaging method, a dynamic image can be obtained without using a plurality of captured image sets. High-resolution image data with an expanded range can be generated. In this reference example, since only one set of captured image sets is used, the processes of S5 and S6 in the flowchart of FIG. 5 are not performed.

ここで、図5のフローチャートでは、S13にて更新された高解像度画像データが、撮像画像データに位置合わせされると共に低解像度化されて、擬似低解像度画像データが生成される(S8)。このとき、高解像度画像データの各画素は、PSFによりダウンサンプリングされる。例えば、図15の高解像度画像データを擬似低解像度化した場合には、縦3×横3画素の領域に含まれる9つの画素の画素値が、擬似低解像度画像データの1画素の輝度値となる。   Here, in the flowchart of FIG. 5, the high-resolution image data updated in S13 is aligned with the captured image data and the resolution is reduced, and pseudo low-resolution image data is generated (S8). At this time, each pixel of the high resolution image data is down-sampled by PSF. For example, when the high-resolution image data in FIG. 15 is reduced in pseudo low resolution, the pixel values of nine pixels included in the vertical 3 × horizontal 3 pixel region are the luminance value of one pixel in the pseudo low-resolution image data. Become.

その結果、高解像度画像データの各画素は、低解像度化の際に、当該画素の周囲に位置する画素の輝度値によって補間更新される。これにより、高解像度画像データの画素の中に、重み付けによって寄与が低下された画素が含まれている場合であって、当該画素の周囲に正常に露光された画素が配置している場合には、この画素は周囲の画素の画素値によって更新される。   As a result, each pixel of the high-resolution image data is interpolated and updated with the luminance values of the pixels located around the pixel when the resolution is reduced. As a result, when pixels whose contribution has been reduced by weighting are included in the pixels of the high-resolution image data, and normally exposed pixels are arranged around the pixels. This pixel is updated with the pixel values of surrounding pixels.

したがって、擬似低解像度画像データの1画素に対応する領域に含まれる、高解像度画像データの複数画素には、各撮像条件で撮像した撮像画像データに由来する画素が均等に含まれていることが好ましい。例えば、図15の例では、高解像度画像データの縦3×横3画素の領域(擬似低解像度画像データの1画素に対応する領域)に含まれる9つの画素のそれぞれには、露光時間aで撮像した撮像画像データに由来する画素が6つと、露光時間bで撮像した撮像画像データに由来する画素が3つ含まれている。   Therefore, the plurality of pixels of the high-resolution image data included in the region corresponding to one pixel of the pseudo low-resolution image data may include pixels derived from the captured image data captured under each imaging condition evenly. preferable. For example, in the example of FIG. 15, each of nine pixels included in a region of 3 × 3 pixels of high resolution image data (a region corresponding to one pixel of pseudo low resolution image data) has an exposure time a. Six pixels derived from the captured image data and three pixels derived from the captured image data captured at the exposure time b are included.

これにより、例えば露光時間bで撮像した撮像画像データが白とびしていた場合であっても、露光時間aで撮像した撮像画像データが正常露光で撮像されたものであれば、露光時間bで撮像した撮像画像データに由来する画素の画素値は、擬似低解像度画像データの生成時に露光時間aで撮像した撮像画像データに由来する画素の画素値によって補間更新される。そして、これにより、ダイナミックレンジの拡大された高解像度画像データが生成される。   Thus, for example, even if the captured image data captured at the exposure time b is overexposed, if the captured image data captured at the exposure time a is captured at normal exposure, the exposure time b The pixel value of the pixel derived from the captured image data is interpolated and updated by the pixel value of the pixel derived from the captured image data captured at the exposure time a when generating the pseudo low resolution image data. As a result, high-resolution image data with an expanded dynamic range is generated.

なお、図14の撮像方法にて撮像を行った場合には、図15に示すように、露光時間aで撮像した撮像画像データに由来する画素と、露光時間bで撮像した撮像画像データに由来する画素とがストライプ状に配列する。この場合に、例えば、露光時間aまたはbの何れか一方で撮像された撮像画像データの広い領域で露光不良が生じたときには、図15に示すように、高解像度画像データの各画素の左右方向に隣接する画素の露光時間が等しくなることから、十分な補間更新が行われにくくなるということも考えられる。   In addition, when imaging is performed by the imaging method of FIG. 14, as illustrated in FIG. 15, the pixel is derived from the captured image data captured at the exposure time a and the captured image data captured at the exposure time b. The pixels to be arranged are arranged in stripes. In this case, for example, when an exposure failure occurs in a wide area of the captured image data captured with either the exposure time a or b, as shown in FIG. 15, the horizontal direction of each pixel of the high resolution image data It is also conceivable that sufficient interpolation update is difficult to perform because the exposure times of the pixels adjacent to the pixel are equal.

また、図14の撮像方法にて撮像を行った場合には、図15に示すように、露光時間aで撮像した撮像画像データに由来する画素の方が、露光時間bで撮像した撮像画像データに由来する画素よりも数が多くなる。したがって、露光時間aで撮像した撮像画像データの広い領域で露光不良が生じた場合には、十分な補間更新が行われにくくなるということも考えられる。   In addition, when imaging is performed by the imaging method of FIG. 14, as shown in FIG. 15, the pixels derived from the captured image data captured at the exposure time “a” are captured image data captured at the exposure time “b”. The number is larger than the pixels derived from Therefore, when exposure failure occurs in a wide area of the captured image data captured at the exposure time a, it may be difficult to perform sufficient interpolation update.

そこで、図16に示すような撮像画像データを用いることによって、上記の問題点を解決することができる。図16は、本参考例の上記とは別の撮像方法を説明する図である。図16に示す撮像画像データの撮像方法は、図14の例とほぼ同様であるが、露光時間を変更するタイミングが異なっている。   Therefore, the above-described problems can be solved by using captured image data as shown in FIG. FIG. 16 is a diagram illustrating an imaging method different from the above in this reference example. The imaging method of the captured image data shown in FIG. 16 is almost the same as the example of FIG. 14, but the timing for changing the exposure time is different.

すなわち、図16の例では、撮像位置が上下方向または左右方向に隣接する撮像画像データの露光時間(撮像条件)がそれぞれ異なるように撮像されている。このようにして撮像された撮像画像データの各画素値を高解像度画像データの画素位置にマッピングすることにより、図17に示す高解像度画像データが生成される。   That is, in the example of FIG. 16, imaging is performed so that the exposure times (imaging conditions) of captured image data whose imaging positions are adjacent in the vertical direction or the horizontal direction are different. High-resolution image data shown in FIG. 17 is generated by mapping each pixel value of the captured image data captured in this way to the pixel position of the high-resolution image data.

なお、再構成型の超解像処理では、マッピング処理を行うことはないが、撮像画像データの各画素は、マッピング処理を行った場合と同じ位置に反映される。したがって、図16の撮像画像セットを用いて超解像処理を行った場合には、図17に示すような高解像度画像データが生成される。   Note that in the reconstruction-type super-resolution processing, mapping processing is not performed, but each pixel of the captured image data is reflected at the same position as when mapping processing is performed. Accordingly, when super-resolution processing is performed using the captured image set of FIG. 16, high-resolution image data as shown in FIG. 17 is generated.

図17は、図16の撮像画像データから生成される高解像度画像データを示す図である。図示のように、図17の例では露光時間aで撮像した撮像画像データに由来する画素と、露光時間bで撮像した撮像画像データに由来する画素とが、同図の左右方向及び上下方向に交互に現れる。   FIG. 17 is a diagram showing high-resolution image data generated from the captured image data of FIG. As shown in the figure, in the example of FIG. 17, the pixels derived from the captured image data captured at the exposure time a and the pixels derived from the captured image data captured at the exposure time b are in the horizontal direction and the vertical direction in FIG. Appear alternately.

ここで、図15の例では、上下方向及び斜め方向では異なる露光時間で撮像された撮像画像データに由来する各画素が交互に配列されているが、左右方向には同じ露光時間で撮像された撮像画像データに由来する画素のみが配列されている。そのため、左右方向の隣接画素間での補間処理が十分に行われないおそれがあった。   Here, in the example of FIG. 15, the pixels derived from the captured image data captured with different exposure times in the vertical direction and the oblique direction are alternately arranged, but are captured with the same exposure time in the left-right direction. Only the pixels derived from the captured image data are arranged. Therefore, there is a possibility that the interpolation process between adjacent pixels in the left-right direction is not sufficiently performed.

これに対し、図17の例では、上下方向、左右方向、斜め方向の何れの方向においても、異なる露光時間で撮像された撮像画像データに由来する各画素が交互に配列する。したがって、この配列によれば、隣接画素間での補間処理が十分に行われ、その結果、図15の例と比べてより高精度な高解像度画像データを生成することが可能となる。   On the other hand, in the example of FIG. 17, pixels derived from captured image data captured at different exposure times are alternately arranged in any of the vertical direction, the horizontal direction, and the diagonal direction. Therefore, according to this arrangement, the interpolation processing between adjacent pixels is sufficiently performed, and as a result, it is possible to generate high-resolution image data with higher accuracy than in the example of FIG.

また、図15の例では、高解像度画像データの縦3×横3画素の領域(擬似低解像度画像データの1画素に対応する領域)に含まれる9つの画素のそれぞれには、露光時間aで撮像した撮像画像データに由来する画素が6つと、露光時間bで撮像した撮像画像データに由来する画素が3つ含まれていた。すなわち、図15の例では、露光時間aで撮像した撮像画像データに由来する画素の割合が高く、そのためaで撮像した撮像画像データに由来する画素の影響が大きくなっている。   In the example of FIG. 15, each of nine pixels included in a region of 3 × vertical 3 pixels of high resolution image data (a region corresponding to one pixel of pseudo low resolution image data) has an exposure time a. Six pixels derived from the captured image data and three pixels derived from the captured image data captured at the exposure time b were included. That is, in the example of FIG. 15, the ratio of the pixels derived from the captured image data captured at the exposure time a is high, and therefore the influence of the pixels derived from the captured image data captured at a is large.

これに対し、図17の例では、高解像度画像データの縦3×横3画素の領域(擬似低解像度画像データの1画素に対応する領域)に含まれる9つの画素のそれぞれには、露光時間aで撮像した撮像画像データに由来する画素が5つと、露光時間bで撮像した撮像画像データに由来する画素が4つ含まれている。   On the other hand, in the example of FIG. 17, each of nine pixels included in an area of 3 × 3 pixels of the high resolution image data (an area corresponding to one pixel of the pseudo low resolution image data) has an exposure time. 5 pixels derived from the captured image data captured at a and 4 pixels derived from the captured image data captured at the exposure time b are included.

すなわち、図17の例では、高解像度画像データにおいて、擬似低解像度画像データの1画素に対応する領域に含まれる、露光時間の異なる撮像画像データに由来する画素の数の差が図15の例よりも小さくなっている。これにより、一方の露光時間で撮像した撮像画像データの広い領域で露光不良が生じた場合であっても、十分な補間更新が行われるため、ダイナミックレンジの拡大された高解像度画像データを精度よく生成することができる。   That is, in the example of FIG. 17, in the high resolution image data, the difference in the number of pixels derived from the captured image data with different exposure times included in the region corresponding to one pixel of the pseudo low resolution image data is the example of FIG. Is smaller than As a result, even if an exposure failure occurs in a wide area of captured image data captured with one exposure time, sufficient interpolation update is performed, so high-resolution image data with an expanded dynamic range can be accurately obtained. Can be generated.

ところで、図14〜図17の例では、9枚の撮像画像データを用いる場合に、a及びbの2種類の露光時間で撮像を行っている。そのため、高解像度画像データにおいて、露光時間aで撮像した撮像画像データに由来する画素と、露光時間bで撮像した撮像画像データに由来する画素とを等しくすることはできず、何れかの露光時間で撮像した撮像画像データの影響が他方の露光時間で撮像した撮像画像データの影響よりも大きくなってしまう。   By the way, in the example of FIGS. 14-17, when nine captured image data are used, it image | photographs with two types of exposure time of a and b. For this reason, in high-resolution image data, the pixels derived from the captured image data captured at the exposure time a and the pixels derived from the captured image data captured at the exposure time b cannot be made equal, and any of the exposure times The influence of the picked-up image data picked up in (1) becomes larger than the influence of the picked-up image data picked up at the other exposure time.

そこで、9枚の撮像画像データを用いる場合には、3種類または9種類の露光時間で撮像を行えばよい。これにより、高解像度画像データにおける、各露光時間で撮像した撮像画像データに由来する画素の数を等しくすることができる。図18は、3種類の露光時間で撮像する場合の撮像方法を説明する図である。なお、図18においても、図14や図16と同様に、縦5×横5の25画素からなる撮像画像データを3倍に高解像度化する例を示している。   Therefore, when nine pieces of captured image data are used, imaging may be performed with three types or nine types of exposure times. Thereby, in the high resolution image data, the number of pixels derived from the captured image data captured at each exposure time can be made equal. FIG. 18 is a diagram for explaining an imaging method when imaging is performed with three types of exposure times. FIG. 18 also shows an example in which the resolution of captured image data composed of 25 pixels of 5 × 5 pixels is increased three times as in FIG. 14 and FIG. 16.

図示のように、3種類の露光時間で撮像する場合も、撮像位置の移動方法は、図14や図16の場合と同様である。ただし、図18の例では、最上段の3枚の撮像画像データと、2段目の3枚の撮像画像データと、最下段の3枚の撮像画像データとが、それぞれ異なる露光時間で撮像されている。すなわち、図18の例では、最上段の3枚の撮像画像データは、露光時間aで撮像され、2段目の3枚の撮像画像データは、露光時間bで撮像され、最下段の3枚の撮像画像データは、露光時間cで撮像されている。   As shown in the figure, also in the case of imaging with three types of exposure time, the method of moving the imaging position is the same as in the case of FIGS. However, in the example of FIG. 18, the top three captured image data, the second three captured image data, and the bottom three captured image data are captured with different exposure times. ing. That is, in the example of FIG. 18, the uppermost three captured image data are captured at the exposure time a, and the second three captured image data are captured at the exposure time b, and the lowermost three images are captured. The captured image data is captured at the exposure time c.

そして、図18の例の撮像画像データを用いることによって、図19に示す高解像度画像データを得ることができる。図19は、図18の撮像画像データから生成される高解像度画像データを示す図である。   Then, by using the captured image data in the example of FIG. 18, the high-resolution image data shown in FIG. 19 can be obtained. FIG. 19 is a diagram showing high-resolution image data generated from the captured image data of FIG.

図示のように、高解像度画像データの縦3×横3画素の領域(擬似低解像度画像データの1画素に対応する領域)に含まれる9つの画素のそれぞれには、露光時間a〜cで撮像した撮像画像データに由来する画素が3つずつ含まれている。これにより、高解像度画像データにおける、露光時間a〜cで撮像した撮像画像データに由来する画素の寄与を等しくすることができる。その結果、例えば何れかの露光時間で撮像した撮像画像データの広い領域で露光不良が生じた場合であっても、十分な補間更新が行われるため、ダイナミックレンジの拡大された高解像度画像データを精度よく生成することができる。   As shown in the figure, each of nine pixels included in a 3 × 3 pixel area of high resolution image data (an area corresponding to one pixel of the pseudo low resolution image data) is imaged at exposure times a to c. Three pixels derived from the captured image data are included. Thereby, the contribution of the pixel originating in the captured image data imaged by exposure time ac in the high resolution image data can be made equal. As a result, for example, even when an exposure failure occurs in a wide area of captured image data captured at any exposure time, sufficient interpolation update is performed, so high-resolution image data with an expanded dynamic range is obtained. It can be generated with high accuracy.

ここで、図示のように、図19の例では、上下方向及び斜め方向には、各露光時間で撮像した撮像画像データに由来する画素が交互に配列しているが、左右方向には同一の露光時間で撮像した撮像画像データに由来する画素のみが配列している。したがって、図19の例では、図15の例と同様に、左右方向の隣接画素間での補間処理が十分に行われないおそれがある。   Here, as illustrated, in the example of FIG. 19, pixels derived from captured image data captured at each exposure time are alternately arranged in the vertical direction and the diagonal direction, but the same in the horizontal direction. Only the pixels derived from the captured image data captured at the exposure time are arranged. Accordingly, in the example of FIG. 19, as in the example of FIG. 15, there is a possibility that the interpolation process between adjacent pixels in the left-right direction is not sufficiently performed.

そこで、例えば図20に示す撮像方法にて撮像を行えばよい。図20は、上記とはさらに異なる撮像方法を説明する図である。なお、図20においても、図18と同様に、3種類の露光時間にて撮像を行い、9枚の撮像画像データを取得する例を示している。また、各撮像画像データは、縦5×横5の25画素からなり、この撮像画像データを3倍に高解像度化することを想定している。   Therefore, for example, imaging may be performed by the imaging method shown in FIG. FIG. 20 is a diagram for explaining an imaging method further different from the above. Note that FIG. 20 also shows an example in which imaging is performed with three types of exposure times and nine captured image data are acquired, as in FIG. Each captured image data is composed of 25 pixels of 5 × 5 pixels, and it is assumed that the resolution of the captured image data is increased three times.

図示のように、図20の例においても、撮像位置の移動方法は、図14や図16、及び図18の場合と同様である。ただし、図20の例では、最上段から最下段までの各段における3枚の撮像画像データが、それぞれ異なる露光時間で撮像されている。そして、図20の例では、最左列から最右列までの各列における3枚の撮像画像データが、それぞれ異なる露光時間となっている。すなわち、図20の例では、最上段の最左列、2段目の2列目、及び3段目の最右列の撮像画像データは露光時間aで撮像され、最上段の2列目、2段目の最右列、及び3段目の最左列の撮像画像データは露光時間bで撮像され、最上段の最右列、2段目の最左列、及び3段目の2列目、の撮像画像データは露光時間cで撮像されている。   As shown in the figure, also in the example of FIG. 20, the moving method of the imaging position is the same as in the case of FIG. 14, FIG. 16, and FIG. However, in the example of FIG. 20, three pieces of captured image data in each stage from the uppermost stage to the lowermost stage are imaged with different exposure times. In the example of FIG. 20, the three captured image data in each column from the leftmost column to the rightmost column have different exposure times. That is, in the example of FIG. 20, the captured image data of the uppermost leftmost column, the second second column, and the third rightmost column are captured at the exposure time a, and the uppermost second column, The captured image data in the second rightmost column and the third leftmost column are captured at the exposure time b, and the uppermost rightmost column, the second leftmost column, and the third second row The captured image data of the eye is captured at the exposure time c.

そして、図20の例の撮像画像データを用いることによって、図21に示す高解像度画像データを得ることができる。図21は、図20の撮像画像データから生成される高解像度画像データを示す図である。   And the high resolution image data shown in FIG. 21 can be obtained by using the captured image data of the example of FIG. FIG. 21 is a diagram showing high-resolution image data generated from the captured image data of FIG.

図示のように、高解像度画像データの縦3×横3画素の領域(擬似低解像度画像データの1画素に対応する領域)に含まれる9つの画素のそれぞれには、露光時間a〜cで撮像した撮像画像データに由来する画素が3つずつ含まれている。これにより、高解像度画像データにおける、露光時間a〜cで撮像した撮像画像データに由来する画素の寄与を等しくすることができる。その結果、例えば何れかの露光時間で撮像した撮像画像データの広い領域で露光不良が生じた場合であっても、十分な補間更新が行われるため、ダイナミックレンジの拡大された高解像度画像データを精度よく生成することができる。   As shown in the figure, each of nine pixels included in a 3 × 3 pixel area of high resolution image data (an area corresponding to one pixel of the pseudo low resolution image data) is imaged at exposure times a to c. Three pixels derived from the captured image data are included. Thereby, the contribution of the pixel originating in the captured image data imaged by exposure time ac in the high resolution image data can be made equal. As a result, for example, even when an exposure failure occurs in a wide area of captured image data captured at any exposure time, sufficient interpolation update is performed, so high-resolution image data with an expanded dynamic range is obtained. It can be generated with high accuracy.

また、図示のように、図21の例では、上下方向、及び左右方向には、各露光時間で撮像した撮像画像データに由来する画素が交互に配列している。したがって、図21の例では、上下方向、及び左右方向にて補間処理が十分に行われる。その結果、図21の例では、ダイナミックレンジの拡大された高解像度画像データを精度よく生成することができる。   Further, as illustrated, in the example of FIG. 21, pixels derived from captured image data captured at each exposure time are alternately arranged in the vertical direction and the horizontal direction. Therefore, in the example of FIG. 21, the interpolation processing is sufficiently performed in the vertical direction and the horizontal direction. As a result, in the example of FIG. 21, high-resolution image data with an expanded dynamic range can be generated with high accuracy.

なお、図21の例では、斜め方向には同一の露光時間で撮像した撮像画像データに由来する画素のみが配列しているが、図21の例の配列は、左右方向に同一の露光時間で撮像した撮像画像データに由来する画素のみが配列する図19の例よりも好ましい。これは、超解像処理で用いられるPSFはガウス分布を持つ点広がり関数のため、畳み込み処理時の注目画素の近傍にできるだけ多くの正常値がある方が好ましいためである。また、イメージシフトを行う場合の補間処理においても、注目画素の上下左右に位置する4画素を用いる場合があるので、上記のように注目画素の上下左右に同じ露光時間で撮像した撮像画像データに由来する画素が配列しないようにすることが好ましい。   In the example of FIG. 21, only pixels derived from captured image data captured with the same exposure time are arranged in the oblique direction, but the arrangement of the example of FIG. 21 has the same exposure time in the left-right direction. This is more preferable than the example of FIG. 19 in which only pixels derived from captured image data are arranged. This is because the PSF used in the super-resolution processing is a point spread function having a Gaussian distribution, and therefore it is preferable that there are as many normal values as possible in the vicinity of the pixel of interest during the convolution processing. Also, in the interpolation processing when performing image shift, there are cases where four pixels located above, below, left, and right of the target pixel are used, so that the captured image data captured with the same exposure time on the top, bottom, left, and right of the target pixel as described above. It is preferable that the derived pixels are not arranged.

以上のように、本参考例の撮像方法によれば、一組の撮像画像データを用いた場合であってもダイナミックレンジの拡張された高解像度画像データを生成することができる。無論、上述の方法は本参考例の撮像方法の一例を示すものであり、本参考例の撮像方法はこの例に限られない。   As described above, according to the imaging method of the present reference example, high-resolution image data with an extended dynamic range can be generated even when a set of captured image data is used. Of course, the above-mentioned method shows an example of the imaging method of this reference example, and the imaging method of this reference example is not limited to this example.

すなわち、上述の例では、縦5×横5の25画素からなる撮像画像データを3倍に高解像度化する例を示したが、撮像画像データの画素数、及び高解像度化の倍率は、必要に応じて適宜変更することができる。また、上述の例では、撮像条件として露光時間のみ変化させる例を示したが、使用する撮像装置、照明強度、撮像感度、使用するフィルタ、及びアイリス等の撮像条件の少なくとも1つを変化させるようにしてもよい。   That is, in the above-described example, the example of increasing the resolution of the captured image data composed of 25 pixels of 5 × 5 pixels by 3 times is shown. However, the number of pixels of the captured image data and the magnification for increasing the resolution are necessary. It can be changed as appropriate according to the situation. In the above-described example, only the exposure time is changed as the imaging condition. However, at least one of the imaging conditions such as the imaging device to be used, the illumination intensity, the imaging sensitivity, the filter to be used, and the iris is changed. It may be.

上述のように、本参考例の撮像方法では、一組の撮像画像セットに、少なくとも1枚の他の撮像画像データと撮像条件が異なる撮像画像データが含まれていれば、ダイナミックレンジを拡張することができる。   As described above, in the imaging method of the present reference example, the dynamic range is extended if a set of captured image sets includes captured image data having imaging conditions different from at least one other captured image data. be able to.

そして、高解像度画像データにおいて、撮像画像データの1画素に対応する領域に含まれる、互いに異なる撮像条件で撮像された撮像画像データに由来する画素の配置を調整することによって、より精度の高い高解像度画像データを生成することが可能になる。   Then, in the high-resolution image data, by adjusting the arrangement of the pixels derived from the captured image data captured under different imaging conditions included in the region corresponding to one pixel of the captured image data, it is possible to achieve higher accuracy. It becomes possible to generate resolution image data.

すなわち、本参考例の撮像方法では、高解像度画像データにおいて、撮像画像データの1画素に対応する領域に含まれる複数の画素において、互いに異なる撮像条件で撮像された撮像画像データに由来する画素の画素数の差が最小となるように、各撮像画像データの撮像条件を制御することが好ましい。   That is, in the imaging method of the present reference example, in the high-resolution image data, in a plurality of pixels included in a region corresponding to one pixel of the captured image data, pixels derived from captured image data captured under different imaging conditions are used. It is preferable to control the imaging conditions of each captured image data so that the difference in the number of pixels is minimized.

例えば、図15の例では、高解像度画像データにおいて、撮像画像データの1画素に対応する領域には、露光時間aで撮像された撮像画像データに由来する画素が6個、露光時間bで撮像された撮像画像データに由来する画素が3個含まれている。これに対して、図17の例では、高解像度画像データにおいて、撮像画像データの1画素に対応する領域には、露光時間aで撮像された撮像画像データに由来する画素が5個、露光時間bで撮像された撮像画像データに由来する画素が4個含まれている。   For example, in the example of FIG. 15, in the high-resolution image data, in the region corresponding to one pixel of the captured image data, 6 pixels derived from the captured image data captured at the exposure time a are captured at the exposure time b. Three pixels derived from the captured image data are included. On the other hand, in the example of FIG. 17, in the high-resolution image data, the area corresponding to one pixel of the captured image data includes five pixels derived from the captured image data captured at the exposure time a, and the exposure time. Four pixels derived from the captured image data imaged in b are included.

すなわち、図17の例では、互いに異なる撮像条件で撮像された撮像画像データに由来する画素の画素数の差が最小されている。したがって、図17の例の高解像度画像データが生成される図16の撮像方法が、図15の例の高解像度画像データが生成される図14の撮像方法よりも好ましいということになる。   That is, in the example of FIG. 17, the difference in the number of pixels derived from captured image data captured under different imaging conditions is minimized. Therefore, the imaging method of FIG. 16 in which the high-resolution image data of the example of FIG. 17 is generated is preferable to the imaging method of FIG. 14 in which the high-resolution image data of the example of FIG. 15 is generated.

また、本参考例の撮像方法では、高解像度画像データにおいて、撮像画像データの1画素に対応する領域に含まれる、同じ撮像条件にて撮像された撮像画像データに由来する画素において、上記各領域内において縦方向または横方向に連続して配列される画素の数が最小化されるように撮像条件を制御することが好ましい。   In the imaging method of the present reference example, in the high-resolution image data, each of the above-described regions in pixels derived from the captured image data captured under the same imaging condition included in the region corresponding to one pixel of the captured image data. It is preferable to control the imaging conditions so that the number of pixels continuously arranged in the vertical direction or the horizontal direction is minimized.

上述のように、本参考例の撮像方法で生成された撮像画像データを(再構成型)超解像処理に用いた場合には、擬似低解像度画像データを生成する際に、撮像画像データの1画素に対応する領域に含まれる、異なる撮像画像データに由来する画素が補間更新される。したがって、高解像度画像データに含まれる、異なる撮像条件で撮像された撮像画像データに由来する画素は、当該高解像度画像データの全面に均一に配列していることが好ましい。   As described above, when the captured image data generated by the imaging method of the present reference example is used for (reconstruction type) super-resolution processing, when generating the pseudo low-resolution image data, Pixels derived from different captured image data included in an area corresponding to one pixel are updated by interpolation. Therefore, it is preferable that the pixels derived from the captured image data captured under different imaging conditions included in the high resolution image data are uniformly arranged on the entire surface of the high resolution image data.

言い換えれば、高解像度画像データに含まれる、異なる撮像条件で撮像された撮像画像データに由来する画素は、当該高解像度画像データにおいて、水平方向、垂直方向、斜め方向に均一に分布しており、また異なる撮像条件で撮像された撮像画像データに由来する画素の分布密度の差が小さいことが好ましい。   In other words, the pixels derived from the captured image data captured under different imaging conditions included in the high-resolution image data are uniformly distributed in the horizontal direction, the vertical direction, and the diagonal direction in the high-resolution image data. Moreover, it is preferable that the difference in the distribution density of pixels derived from captured image data captured under different imaging conditions is small.

例えば、図15の例では、高解像度画像データにおいて、露光時間aで撮像された撮像画像データに由来する画素、及び露光時間bで撮像された撮像画像データに由来する画素が同図の横方向に15個連続して配列している。これに対して、図17の例では、露光時間aで撮像された撮像画像データに由来する画素、及び露光時間bで撮像された撮像画像データに由来する画素が同図の横方向に連続して配列している個数は最大で2個になっている。   For example, in the example of FIG. 15, in the high-resolution image data, the pixels derived from the captured image data captured at the exposure time “a” and the pixels derived from the captured image data captured at the exposure time “b” are in the horizontal direction of FIG. Fifteen in a row. On the other hand, in the example of FIG. 17, the pixels derived from the captured image data captured at the exposure time a and the pixels derived from the captured image data captured at the exposure time b are continuous in the horizontal direction of FIG. The maximum number of elements arranged is 2.

すなわち、図17の例では、横方向に連続して配列される画素の数が最小化されている。したがって、図17の例の高解像度画像データが生成される図16の撮像方法が、図15の例の高解像度画像データが生成される図14の撮像方法よりも好ましいということになる。   That is, in the example of FIG. 17, the number of pixels arranged continuously in the horizontal direction is minimized. Therefore, the imaging method of FIG. 16 in which the high-resolution image data of the example of FIG. 17 is generated is preferable to the imaging method of FIG. 14 in which the high-resolution image data of the example of FIG. 15 is generated.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

最後に、制御装置3の各ブロック、特に撮像制御部21及び超解像処理部25は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the control device 3, in particular, the imaging control unit 21 and the super-resolution processing unit 25 may be configured by hardware logic, or may be realized by software using a CPU as follows. .

すなわち、制御装置3は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである制御装置3の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記制御装置3に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the control device 3 includes a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, a RAM (random access memory) that expands the program, A storage device (recording medium) such as a memory for storing the program and various data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the control device 3 that is software that realizes the above-described functions is recorded so as to be readable by a computer. This can also be achieved by supplying the control device 3 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、制御装置3を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the control device 3 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Further, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

上述のように、撮像条件の異なる複数の撮像画像セットについて、撮像条件に応じた輝度値の補正を行い、さらにこれらを合成することにより、撮像画像データと比べてダイナミックレンジが拡大された合成撮像画像データを得ることができる。そして、この合成撮像画像データを用いて高解像度画像データを生成することにより、ダイナミックレンジが拡大された高解像度画像データが生成される。As described above, for a plurality of captured image sets with different image capturing conditions, the luminance value is corrected in accordance with the image capturing conditions, and these are combined to further increase the dynamic range compared to the captured image data. Image data can be obtained. Then, by generating high resolution image data using the composite captured image data, high resolution image data with an expanded dynamic range is generated.

しかしながら、撮像条件の異なる複数の撮像画像セットを用いる場合には、撮像する撮像画像データの枚数が増加するため、撮像に要する時間が長くなってしまうという問題を生じる。  However, when a plurality of captured image sets having different imaging conditions are used, the number of captured image data to be captured increases, which causes a problem that the time required for imaging becomes long.

そこで、上記参考例に係る発明の撮像制御装置は、上記課題を解決するために、撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成するために、上記撮像対象を撮像する撮像装置の制御を行う撮像制御装置であって、上記高解像度画像データにおいて、上記撮像画像データの1画素に対応する領域のそれぞれに、互いに異なる撮像条件にて撮像された撮像画像データに由来する高解像度画像データの画素が含まれるように上記各撮像画像データの撮像条件を制御する撮像条件制御手段を備えていることを特徴としている。  Therefore, in order to solve the above problem, the imaging control device of the invention according to the reference example has a high resolution in which the imaging target is increased based on the number of low resolution captured image data corresponding to the resolution increasing magnification. An image pickup control apparatus that controls an image pickup apparatus that picks up the image pickup target to generate image data, and each of regions corresponding to one pixel of the picked-up image data in the high-resolution image data It is characterized by comprising imaging condition control means for controlling the imaging conditions of the respective captured image data so as to include pixels of high resolution image data derived from captured image data captured under different imaging conditions.

また、上記参考例に係る発明の撮像制御装置の制御方法は、上記課題を解決するために、撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成するために、上記撮像対象を撮像する撮像装置の制御を行う撮像制御装置の制御方法であって、上記高解像度画像データにおいて、上記撮像画像データの1画素に対応する領域のそれぞれに、互いに異なる撮像条件にて撮像された撮像画像データに由来する高解像度画像データの画素が含まれるように上記各撮像画像データの撮像条件を制御する撮像条件制御ステップを含むことを特徴としている。  In addition, in order to solve the above-described problem, the control method of the imaging control apparatus according to the reference example described above increases the resolution of the imaging target based on the number of low-resolution captured image data corresponding to the resolution enhancement magnification. In order to generate the high-resolution image data, the control method of the imaging control device that controls the imaging device that images the imaging target, and corresponds to one pixel of the captured image data in the high-resolution image data Including an imaging condition control step for controlling the imaging conditions of each of the captured image data so that each region includes pixels of high-resolution image data derived from captured image data captured under different imaging conditions. It is a feature.

上記の構成によれば、高解像度画像データにおいて、撮像画像データの1画素に対応する領域のそれぞれに、互いに異なる撮像条件にて撮像された撮像画像データに由来する高解像度画像データの画素が含まれるように各撮像画像データの撮像条件が制御される。なお、撮像条件とは、露光時間(シャッタースピード)、使用する撮像装置、照明強度、撮像感度、使用するフィルタ、及びアイリスの少なくとも1つである。  According to the above configuration, in the high-resolution image data, each region corresponding to one pixel of the captured image data includes pixels of the high-resolution image data derived from the captured image data captured under different imaging conditions. As described above, the imaging condition of each captured image data is controlled. The imaging conditions are at least one of exposure time (shutter speed), imaging device to be used, illumination intensity, imaging sensitivity, filter to be used, and iris.

したがって、上記の構成にて撮像された、高解像度化倍率に応じた数の低解像度の撮像画像データを用いて高解像度画像を生成した場合には、撮像画像データの1画素に対応する領域のそれぞれに、互いに異なる撮像条件にて撮像された撮像画像データに由来する高解像度画像データの画素が含まれる高解像度画像データが生成される。  Therefore, when a high-resolution image is generated using the low-resolution captured image data corresponding to the high-resolution magnification imaged with the above configuration, the region corresponding to one pixel of the captured image data High-resolution image data including pixels of high-resolution image data derived from captured image data captured under different imaging conditions is generated.

この高解像度画像データは、互いに異なる撮像条件にて撮像された撮像画像データを反映しているので、同じ撮像条件で撮像した撮像画像データを用いて高解像度画像データを生成する場合と比べて、ダイナミックレンジが拡大されている。  Since this high resolution image data reflects captured image data captured under different imaging conditions, compared to the case where high resolution image data is generated using captured image data captured under the same imaging conditions, The dynamic range has been expanded.

したがって、上記の構成によれば、所望の高解像度倍率の高解像度画像データを生成するために必要な撮像画像データを増やすことなく、ダイナミックレンジの拡張された高解像度画像データを生成することができる。  Therefore, according to the above configuration, it is possible to generate high-resolution image data with an extended dynamic range without increasing captured image data necessary to generate high-resolution image data with a desired high-resolution magnification. .

また、上記撮像条件制御手段は、上記各領域に含まれる同じ撮像条件にて撮像された撮像画像データに由来する画素において、上記各領域内において縦方向または横方向に連続して配列される画素の数が最小化されるように上記各撮像画像データの撮像条件を制御することが好ましい。  Further, the imaging condition control means is a pixel derived from captured image data captured under the same imaging condition included in each area, and is continuously arranged in the vertical direction or the horizontal direction in each area. It is preferable to control the imaging conditions of each of the captured image data so that the number of images is minimized.

ここで、ある撮像条件にて撮像された撮像画像データの広い領域で不適正露光画素が発生した場合に、上記撮像条件にて撮像された撮像画像データに由来する画素が、各領域内において縦方向または横方向に連続して配列されていると、高解像度画像データにおいて、不適正露光画素が目立ちやすい。  Here, when an improper exposure pixel occurs in a wide area of captured image data captured under a certain imaging condition, pixels derived from the captured image data captured under the imaging condition are vertically aligned in each area. If the pixels are continuously arranged in the horizontal direction or the horizontal direction, improperly exposed pixels tend to be noticeable in the high-resolution image data.

例えば、露光過多による白とびが広い領域で発生した撮像画像データに由来する画素が、各領域内において縦方向または横方向に連続して配列されていると、高解像度画像データにおいて、縦方向または横方向に白い筋が視認される。  For example, when pixels derived from captured image data generated in a region where overexposure is caused by wide exposure are arranged continuously in the vertical direction or the horizontal direction in each region, in the high-resolution image data, White stripes are visible in the horizontal direction.

そこで、上記の構成によれば、同じ撮像条件にて撮像された撮像画像データに由来する画素が、各領域内において縦方向または横方向に連続して配列される画素の数を最小化するようにしている。これにより、特定の撮像条件にて撮像された撮像画像データの広い領域で不適正露光画素が発生した場合であっても、高解像度画像データにおいて、不適正露光画素に由来する画素が目立ち難くなる。  Therefore, according to the above configuration, the number of pixels in which pixels derived from captured image data captured under the same imaging conditions are continuously arranged in the vertical direction or the horizontal direction in each region is minimized. I have to. As a result, even when inappropriate exposure pixels are generated in a wide area of captured image data captured under specific imaging conditions, pixels derived from inappropriate exposure pixels are less noticeable in high-resolution image data. .

また、上記の撮像制御装置の制御に基づいて撮像された撮像画像データを用いて超解像処理を行った場合には、高解像度画像データにおいて、撮像画像データの1画素に対応する領域に含まれる複数の画素が補間更新される。これにより、不適正露光画素に由来する画素の輝度値が、該画素に隣接する正常露光画素の輝度値によって適正な値に更新されるので、高精度な高解像度画像データを生成することができる。  In addition, when super-resolution processing is performed using captured image data captured based on the control of the above-described imaging control apparatus, the high-resolution image data is included in an area corresponding to one pixel of the captured image data. A plurality of pixels to be interpolated are updated. Thereby, the luminance value of the pixel derived from the inappropriate exposure pixel is updated to an appropriate value by the luminance value of the normal exposure pixel adjacent to the pixel, so that high-precision high-resolution image data can be generated. .

また、上記撮像条件制御手段は、上記各領域に含まれる互いに異なる撮像条件にて撮像された撮像画像データに由来する画素の画素数の差が最小となるように上記各撮像画像データの撮像条件を制御することが好ましい。  Further, the imaging condition control means is configured to capture the imaging conditions of the captured image data so that a difference in the number of pixels derived from captured image data captured under different imaging conditions included in the regions is minimized. Is preferably controlled.

ここで、ある撮像条件にて撮像された撮像画像データの広い領域で不適正露光画素が発生した場合であって、上記撮像条件にて撮像された撮像画像データに由来する画素の各領域内に占める割合が高い場合には、高解像度画像データにおいて不適正露光画素が目立ちやすい。  Here, in the case where improper exposure pixels occur in a wide area of captured image data captured under a certain imaging condition, each pixel area derived from the captured image data captured under the above imaging condition When the proportion is high, improperly exposed pixels tend to be noticeable in high resolution image data.

そこで、上記の構成によれば、互いに異なる撮像条件にて撮像された撮像画像データに由来する画素の画素数の差を最小にしている。これにより、特定の撮像条件にて撮像された撮像画像データの広い領域で不適正露光画素が発生した場合であっても、高解像度画像データにおいて、不適正露光画素に由来する画素が目立ち難くなる。  Therefore, according to the above configuration, the difference in the number of pixels derived from captured image data captured under different imaging conditions is minimized. As a result, even when inappropriate exposure pixels are generated in a wide area of captured image data captured under specific imaging conditions, pixels derived from inappropriate exposure pixels are less noticeable in high-resolution image data. .

また、上記の撮像制御装置の制御に基づいて撮像された撮像画像データを用いて超解像処理を行った場合には、高解像度画像データにおいて、撮像画像データの1画素に対応する領域に含まれる複数の画素が補間更新される。これにより、不適正露光画素に由来する画素の輝度値が、該画素に隣接する正常露光画素の輝度値によって適正な値に更新されるので、高精度な高解像度画像データを生成することができる。  In addition, when super-resolution processing is performed using captured image data captured based on the control of the above-described imaging control apparatus, the high-resolution image data is included in an area corresponding to one pixel of the captured image data. A plurality of pixels to be interpolated are updated. Thereby, the luminance value of the pixel derived from the inappropriate exposure pixel is updated to an appropriate value by the luminance value of the normal exposure pixel adjacent to the pixel, so that high-precision high-resolution image data can be generated. .

また、上記撮像制御装置の制御により撮像された一組の撮像画像データの全てが、上記異なる撮像条件から選択された1つの撮像条件にて撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正する撮像画像補正手段と、上記撮像画像補正手段が補正を行った一組の撮像画像データを用いて超解像処理を行う超解像処理手段とを備えている画像処理装置であれば、所望の高解像度倍率の高解像度画像データを生成するために必要な撮像画像データを増やすことなく、ダイナミックレンジの拡張された高解像度画像データを生成することができる。  In addition, each imaging is performed so that all of a set of captured image data captured by the control of the imaging control device can be regarded as being captured under one imaging condition selected from the different imaging conditions. Captured image correction means for correcting the luminance value of each pixel of image data, and super-resolution processing means for performing super-resolution processing using a set of captured image data corrected by the captured image correction means. The image processing apparatus can generate high-resolution image data with an extended dynamic range without increasing the number of captured image data necessary to generate high-resolution image data with a desired high-resolution magnification. .

これは、超解像処理を行う際に、撮像画像データの1画素に対応する領域のそれぞれに、互いに異なる撮像条件にて撮像された撮像画像データに由来する高解像度画像データの画素が、擬似低解像度画像データを生成するときに1画素に統合されることによる。  This is because when performing super-resolution processing, pixels of high-resolution image data derived from captured image data captured under different imaging conditions are simulated in each of the regions corresponding to one pixel of captured image data. This is because it is integrated into one pixel when generating low-resolution image data.

すなわち、互いに異なる撮像条件にて撮像された撮像画像データに由来する高解像度画像データの画素の輝度値が、擬似低下像度画像データの1つの画素として統合されて、高解像度画像データの更新に用いられることにより、更新後の高解像度画像データには、互いに異なる撮像条件にて撮像された撮像画像データの輝度値が反映される。その結果、高解像度画像データのダイナミックレンジが拡大される。  That is, the luminance values of the pixels of the high-resolution image data derived from the captured image data captured under different imaging conditions are integrated as one pixel of the pseudo-decrease image data, and the high-resolution image data is updated. By being used, the updated high-resolution image data reflects the brightness value of the captured image data captured under different imaging conditions. As a result, the dynamic range of the high resolution image data is expanded.

また、上記撮像制御装置の制御により撮像された一組の撮像画像データの各画素を、上記高解像度画像データの各画素位置にマッピングして高解像度画像データを生成するマッピング手段と、上記マッピング手段が生成した高解像度画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断手段と、上記高解像度画像データにおいて上記適正露光画素判断手段が正常範囲内ではないと判断した画素の輝度値を、該画素に隣接する画素のうち、上記適正露光画素判断手段が正常範囲内であると判断した画素の輝度値に基づいて補間する補間手段と、上記マッピング手段が生成した高解像度画像データの全画素が、上記異なる撮像条件から選択された1つの撮像条件にて撮像されたものとみなすことができるように、上記高解像度画像データの各画素の輝度値を補正する撮像画像補正手段とを備えていることを特徴とする画像処理装置であれば、所望の高解像度倍率の高解像度画像データを生成するために必要な撮像画像データを増やすことなく、ダイナミックレンジの拡張された高解像度画像データを生成することができる。  A mapping unit configured to map each pixel of the set of captured image data captured by the control of the imaging control device to each pixel position of the high-resolution image data and generate the high-resolution image data; and the mapping unit For each pixel of the high-resolution image data generated by the above, the appropriate exposure pixel determination means for determining whether or not the luminance value is within a predetermined normal range, and the appropriate exposure pixel determination means in the high-resolution image data Interpolation means for interpolating the luminance value of the pixel determined not within the normal range based on the luminance value of the pixel adjacent to the pixel determined by the appropriate exposure pixel determination means to be within the normal range; , All the pixels of the high-resolution image data generated by the mapping means are considered to have been imaged under one imaging condition selected from the different imaging conditions. A high-resolution image having a desired high-resolution magnification, so long as the image processing apparatus includes a captured image correction unit that corrects the luminance value of each pixel of the high-resolution image data. High-resolution image data with an extended dynamic range can be generated without increasing the captured image data necessary for generating the data.

本発明によれば、ダイナミックレンジの拡大された高解像度画像データを生成することができるので、静止画像または動画像の高解像度化を行う装置に好適に適用できる。   According to the present invention, high-resolution image data with an expanded dynamic range can be generated, and therefore, the present invention can be suitably applied to an apparatus for increasing the resolution of a still image or a moving image.

本発明の実施形態を示すものであり、超解像処理部の要部構成を示すブロック図である。1, showing an embodiment of the present invention, is a block diagram illustrating a main configuration of a super-resolution processing unit. FIG. 本発明の実施形態を示すものであり、画像処理システムの要部構成を示すブロック図である。1, showing an embodiment of the present invention, is a block diagram illustrating a main configuration of an image processing system. FIG. 撮像素子と高解像度画像データの画素との位置関係を説明する図である。It is a figure explaining the positional relationship of an image sensor and the pixel of high resolution image data. 本発明の実施形態を示すものであり、撮像画像データの合成方法の一例を示す図である。FIG. 4 is a diagram illustrating an example of a method for synthesizing captured image data according to an exemplary embodiment of the present invention. 上記画像処理システムにおいて実行される超解像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the super-resolution process performed in the said image processing system. 上記画像処理システムにおいて使用される撮像画像セットの一例を示す図である。It is a figure which shows an example of the captured image set used in the said image processing system. 上記撮像画像セットに含まれる撮像画像データを合成して生成される合成撮像画像データの一例を示す図である。It is a figure which shows an example of the composite picked-up image data produced | generated by combining the picked-up image data contained in the said picked-up image set. 上記合成撮像画像データをイメージシフト処理に供することで生成された高解像度画像データを示す図である。It is a figure which shows the high resolution image data produced | generated by using the said composite picked-up image data for an image shift process. 上記画像処理システムにて用いられる撮像対象の一例を示す図である。It is a figure which shows an example of the imaging target used with the said image processing system. 上記撮像対象を撮像して得られる撮像画像データの一例を示す図である。It is a figure which shows an example of the captured image data obtained by imaging the said imaging target. 上記撮像画像データを正規化した状態の一例を示す図である。It is a figure which shows an example of the state which normalized the said captured image data. 同図(a)〜(d)は、上記画像処理システムにて用いられる初期高解像度画像データの一例を示す図である。FIGS. 4A to 4D are diagrams showing an example of initial high-resolution image data used in the image processing system. 上記画像処理システムにて生成される擬似低解像度画像データの一例を示す図である。It is a figure which shows an example of the pseudo | simulation low resolution image data produced | generated by the said image processing system. 本発明の参考例における撮像方法を説明する図である。It is a figure explaining the imaging method in the reference example of this invention. 上記撮像方法にて撮像された撮像画像データを用いてイメージシフト処理を行うことにより生成される高解像度画像データを示す図である。It is a figure which shows the high resolution image data produced | generated by performing an image shift process using the captured image data imaged with the said imaging method. 本発明の参考例における、上記とは別の撮像方法を示す図である。It is a figure which shows the imaging method different from the above in the reference example of this invention. 上記撮像方法にて撮像された撮像画像データから生成される高解像度画像データを示す図である。It is a figure which shows the high resolution image data produced | generated from the captured image data imaged with the said imaging method. 本発明の参考例において、3種類の露光時間で撮像する場合の撮像方法を説明する図である。In the reference example of this invention, it is a figure explaining the imaging method in the case of imaging with three types of exposure time. 上記撮像方法にて撮像された撮像画像データから生成される高解像度画像データを示す図である。It is a figure which shows the high resolution image data produced | generated from the captured image data imaged with the said imaging method. 本発明の参考例における、上記とはさらに異なる撮像方法を説明する図である。It is a figure explaining the imaging method further different from the above in the reference example of this invention. 上記撮像方法にて撮像された撮像画像データから生成される高解像度画像データを示す図である。It is a figure which shows the high resolution image data produced | generated from the captured image data imaged with the said imaging method. 従来の超解像処理方法の一例を示すフローチャートである。It is a flowchart which shows an example of the conventional super-resolution processing method. 超解像処理に用いる撮像画像データの撮像方法の一例を示す図である。It is a figure which shows an example of the imaging method of the captured image data used for a super-resolution process. 超解像処理に用いる初期高解像度画像データの一例を示す図である。It is a figure which shows an example of the initial high resolution image data used for a super-resolution process. 超解像処理に用いる擬似低解像度画像データの一例を示す図である。It is a figure which shows an example of the pseudo | simulation low resolution image data used for a super-resolution process.

1 画像処理システム
2 撮像装置
3 制御装置
21 撮像制御部
25 超解像処理部
31 正規化部
32 画像合成部
33 差分画像生成部(差分画像生成手段)
34 擬似低解像度画像生成部
35 領域抽出部(適正露光画素判断手段)
36 重み付け差分画像生成部(重み付け差分画像生成手段)
37 画像更新部(画像更新手段)
DESCRIPTION OF SYMBOLS 1 Image processing system 2 Imaging apparatus 3 Control apparatus 21 Imaging control part 25 Super-resolution processing part 31 Normalization part 32 Image composition part 33 Difference image generation part (difference image generation means)
34 pseudo low-resolution image generation unit 35 region extraction unit (appropriate exposure pixel determination means)
36 Weighted difference image generating unit (weighted difference image generating means)
37 Image update unit (image update means)

Claims (7)

撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成する画像処理装置であって、
上記高解像度画像データを、上記複数の撮像画像データの一つに対して位置合わせし、上記撮像画像データと同じ解像度に変換し、当該撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて擬似低解像度画像データを生成し(処理順番)、該擬似低解像度画像データと当該撮像画像データとの差分を取る処理を、上記複数の撮像画像データのそれぞれに対して行って、複数の差分画像データを生成する差分画像生成手段と、
上記差分画像生成手段が生成した上記複数の差分画像データに基づいて、上記高解像度画像データと上記複数の撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新手段とを備えていると共に、
上記複数の撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断手段と、
上記複数の撮像画像データの一つと対応する一つの差分画像データにおいて、上記適正露光画素判断手段が上記複数の撮像画像データの一つにおいて正常範囲内ではないと判断した画素に対応する位置に存在する対象画素の上記評価値に対する寄与が小さくなるように、上記対象画素に重み付けを行う処理を、上記複数の差分画像データのそれぞれに対して行う重み付け差分画像生成手段とをさらに備え、
上記画像更新手段は、上記重み付け差分画像生成手段が重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新することを特徴とする画像処理装置。
An image processing apparatus that generates high-resolution image data obtained by increasing the resolution of an imaging target based on a number of low-resolution captured image data corresponding to the resolution-enhancing magnification,
Points obtained from the camera model of the imaging device that images the captured image data by aligning the high-resolution image data with one of the captured image data, converting it to the same resolution as the captured image data Multiplying the spread function to generate pseudo low-resolution image data (processing order), and performing a process of taking the difference between the pseudo low-resolution image data and the captured image data for each of the plurality of captured image data Differential image generation means for generating a plurality of difference image data;
Based on the plurality of difference image data generated by the difference image generation means, an evaluation value indicating an error between the high resolution image data and the plurality of captured image data is calculated, and the evaluation value is a predetermined threshold value. In the case of the above, the image update means for updating the high-resolution image data so that the evaluation value becomes small,
For each pixel of the plurality of captured image data, appropriate exposure pixel determination means for determining whether or not the luminance value is within a predetermined normal range;
In one difference image data corresponding to one of the plurality of captured image data, the appropriate exposure pixel determining unit exists at a position corresponding to a pixel determined to be not within the normal range in one of the plurality of captured image data. Weighting difference image generation means for performing weighting on the target pixel so as to reduce the contribution of the target pixel to the evaluation value to each of the plurality of difference image data,
The image processing apparatus, wherein the image update means updates the high-resolution image data using the plurality of difference image data weighted by the weighted difference image generation means.
上記複数の撮像画像データには、異なる撮像条件にて撮像された撮像画像データが含まれており、
上記適正露光画素判断手段が、輝度値が予め定めた正常範囲内であるか否かを判断した後に、上記異なる撮像条件から選択された1つの撮像条件にて、上記一組の撮像画像データの全てが撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正する撮像画像補正手段を備えていることを特徴とする請求項1に記載の画像処理装置。
The plurality of captured image data includes captured image data captured under different imaging conditions,
After the appropriate exposure pixel determining means determines whether or not the luminance value is within a predetermined normal range, the one set of captured image data of the set of captured image data is selected under one imaging condition selected from the different imaging conditions. The image processing apparatus according to claim 1, further comprising a captured image correction unit that corrects the luminance value of each pixel of each captured image data so that it can be regarded that all of the captured images have been captured.
撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成する画像処理装置であって、
上記高解像度化倍率に応じた数の撮像画像データを一組とする複数組の撮像画像セットに基づいて上記高解像度画像データを生成するようになっており、上記各撮像画像セットに含まれる撮像画像データは、同一の撮像条件にて撮像されたものであり、異なる撮像画像セットに含まれる撮像画像データは、互いに異なる撮像条件にて撮像されたものであり、
上記複数組の撮像画像セットに含まれる各撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断手段と、
上記適正露光画素判断手段が、輝度値が予め定めた正常範囲内であるか否かを判断した後に、上記異なる撮像条件から選択された1つの撮像条件にて、上記複数組の撮像画像セットに含まれる撮像画像データの全てが撮像されたものとみなすことができるように、各撮像画像データの各画素の輝度値を補正する撮像画像補正手段と、
上記複数組の撮像画像セットから選択した一組に含まれる各撮像画像データの画素において、上記適正露光画素判断手段が上記正常範囲内ではないと判断した置換対象画素の輝度値を、他の撮像画像セットにおいて上記置換対象画素と対応する位置の画素であって、上記適正露光画素判断手段が上記正常範囲内であると判断した置換候補画素が存在する場合に、上記置換対象画素の輝度値を上記置換候補画素の輝度値で置き換えて、一組の合成撮像画像データを生成する画像合成手段と、
上記高解像度画像データを、上記一組の合成撮像画像データに含まれる合成撮像画像データの一つに対して位置合わせし、当該合成撮像画像データと同じ解像度に変換し、さらに上記複数の撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて生成した擬似低解像度画像データと、当該合成撮像画像データとの差分を取って、差分画像データを生成する処理を、上記一組の合成撮像画像データに含まれる合成撮像画像データのそれぞれに対して行って、一組の差分画像データを生成する差分画像生成手段と、
上記差分画像生成手段が生成した上記一組の差分画像データに基づいて、上記高解像度画像データと上記一組の合成撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新手段とを備え、
上記適正露光画素判断手段は、上記一組の合成撮像画像データに含まれる各合成撮像画像データの画素について、その輝度値が予め定めた正常範囲内であるか否かをさらに判断し、
上記適正露光画素判断手段が上記一組の合成撮像画像データにおいて、正常範囲内ではないと判断した上記合成撮像画像データの画素に対応する位置に存在する差分画像データの画素の、上記評価値に対する寄与が小さくなるように、上記差分画像生成手段が生成した一組の差分画像データの各画素に重み付けを行う重み付け差分画像生成手段とを備え、
上記画像更新手段は、上記重み付け差分画像生成手段が重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新することを特徴とする画像処理装置。
An image processing apparatus that generates high-resolution image data obtained by increasing the resolution of an imaging target based on a number of low-resolution captured image data corresponding to the resolution-enhancing magnification,
The high-resolution image data is generated on the basis of a plurality of sets of picked-up image data including a set of picked-up image data of the number corresponding to the high-resolution magnification, and the image pick-up included in each picked-up image set The image data is captured under the same imaging conditions, and the captured image data included in different captured image sets is captured under different imaging conditions.
Appropriate exposure pixel determining means for determining whether or not the luminance value is within a predetermined normal range for each pixel of each captured image data included in the plurality of captured image sets;
After the appropriate exposure pixel determining means determines whether or not the luminance value is within a predetermined normal range, the plurality of sets of captured image sets are set under one imaging condition selected from the different imaging conditions. Captured image correction means for correcting the luminance value of each pixel of each captured image data so that all of the included captured image data can be regarded as captured;
In the pixels of each captured image data included in one set selected from the plurality of captured image sets, the luminance value of the replacement target pixel determined by the appropriate exposure pixel determining unit not being within the normal range is set to another image. In the image set, when there is a replacement candidate pixel that is located at a position corresponding to the replacement target pixel and is determined to be within the normal range by the appropriate exposure pixel determination unit, the luminance value of the replacement target pixel is set. Image synthesizing means for generating a set of combined captured image data by replacing with the luminance value of the replacement candidate pixel;
The high-resolution image data is aligned with one of the composite captured image data included in the set of composite captured image data, converted to the same resolution as the composite captured image data, and the plurality of captured images The process of taking the difference between the pseudo low-resolution image data generated by multiplying the point spread function obtained from the camera model of the imaging device that captured the data and the composite captured image data, and generating the difference image data Differential image generation means for generating a set of differential image data by performing each of the composite captured image data included in the set of composite captured image data;
Based on the set of difference image data generated by the difference image generation means, an evaluation value indicating an error between the high-resolution image data and the set of combined captured image data is calculated. An image updating means for updating the high-resolution image data so that the evaluation value becomes smaller when the threshold value is equal to or greater than a predetermined threshold;
The appropriate exposure pixel determination means further determines whether or not the luminance value is within a predetermined normal range for each pixel of the composite captured image data included in the set of composite captured image data,
With respect to the evaluation value of the pixel of the difference image data existing at the position corresponding to the pixel of the composite captured image data determined by the appropriate exposure pixel determination means not being within the normal range in the set of composite captured image data. Weighting difference image generation means for weighting each pixel of the set of difference image data generated by the difference image generation means so as to reduce the contribution,
The image processing apparatus, wherein the image update means updates the high-resolution image data using the plurality of difference image data weighted by the weighted difference image generation means.
請求項1から3の何れか1項に記載の画像処理装置と、上記撮像装置とを含む画像処理システム。   An image processing system comprising the image processing device according to claim 1 and the imaging device. 撮像対象を、高解像度化倍率に応じた数の低解像度の撮像画像データに基づいて高解像度化した高解像度画像データを生成する画像処理装置の制御方法であって、
上記高解像度画像データを、上記複数の撮像画像データの一つに対して位置合わせし、上記撮像画像データと同じ解像度に変換し、当該撮像画像データを撮像した撮像装置のカメラモデルから得られる点広がり関数を乗じて擬似低解像度画像データを生成し、該擬似低解像度画像データと当該撮像画像データとの差分を取る処理を、上記複数の撮像画像データのそれぞれに対して行って、複数の差分画像データを生成する差分画像生成ステップと、
上記差分画像生成ステップにて生成した上記複数の差分画像データに基づいて、上記高解像度画像データと上記複数の撮像画像データとの誤差を示す評価値を算出すると共に、該評価値が予め定めた閾値以上である場合に、該評価値が小さくなるように上記高解像度画像データを更新する画像更新ステップとを含み、
上記複数の撮像画像データの各画素について、その輝度値が予め定めた正常範囲内であるか否かを判断する適正露光画素判断ステップと、
上記複数の撮像画像データの一つと対応する一つの差分画像データにおいて、上記適正露光画素判断ステップにて上記複数の撮像画像データの一つにおいて正常範囲内ではないと判断した画素に対応する位置に存在する対象画素の上記評価値に対する寄与が小さくなるように、上記対象画素に重み付けを行う処理を、上記複数の差分画像データのそれぞれに対して行う重み付け差分画像生成ステップとさらに含み、
上記画像更新ステップでは、上記重み付け差分画像生成ステップにて重み付けを行った上記複数の差分画像データを用いて上記高解像度画像データを更新することを特徴とする画像処理装置の制御方法。
A method for controlling an image processing apparatus that generates high-resolution image data obtained by increasing the resolution of an imaging target based on a number of low-resolution captured image data corresponding to the resolution-enhancing magnification,
Points obtained from the camera model of the imaging device that images the captured image data by aligning the high-resolution image data with one of the captured image data, converting it to the same resolution as the captured image data Multiplying the spread function to generate pseudo low-resolution image data, and performing a process of taking the difference between the pseudo low-resolution image data and the captured image data for each of the plurality of captured image data, A difference image generation step for generating image data;
Based on the plurality of difference image data generated in the difference image generation step, an evaluation value indicating an error between the high-resolution image data and the plurality of captured image data is calculated, and the evaluation value is predetermined. An image update step of updating the high-resolution image data so that the evaluation value becomes smaller when the value is equal to or greater than a threshold value,
For each pixel of the plurality of captured image data, a proper exposure pixel determination step for determining whether or not the luminance value is within a predetermined normal range;
In one difference image data corresponding to one of the plurality of captured image data, in a position corresponding to a pixel determined to be not within a normal range in one of the plurality of captured image data in the appropriate exposure pixel determination step. A weighted difference image generation step for weighting each of the plurality of difference image data, so as to reduce the contribution of the existing target pixel to the evaluation value,
In the image update step, the high-resolution image data is updated using the plurality of difference image data weighted in the weighted difference image generation step.
請求項1から3の何れか1項に記載の画像処理装置を動作させるための画像処理装置制御プログラムであって、
コンピュータを上記各手段として機能させるための画像処理装置制御プログラム。
An image processing apparatus control program for operating the image processing apparatus according to claim 1,
An image processing apparatus control program for causing a computer to function as each of the above means.
請求項6に記載の画像処理装置制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the image processing apparatus control program according to claim 6 is recorded.
JP2007325271A 2007-12-17 2007-12-17 Image processing device Active JP4355744B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007325271A JP4355744B2 (en) 2007-12-17 2007-12-17 Image processing device
CN200880121068.8A CN101896934B (en) 2007-12-17 2008-12-17 Image processing device and imaging control device
PCT/JP2008/072977 WO2009078437A1 (en) 2007-12-17 2008-12-17 Image processing device and imaging control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007325271A JP4355744B2 (en) 2007-12-17 2007-12-17 Image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009065044A Division JP2009171599A (en) 2009-03-17 2009-03-17 Imaging controller, imaging processor, control method of imaging controller, imaging controller controlling program, and computer readable recording medium recording program thereof

Publications (2)

Publication Number Publication Date
JP2009147830A JP2009147830A (en) 2009-07-02
JP4355744B2 true JP4355744B2 (en) 2009-11-04

Family

ID=40795550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007325271A Active JP4355744B2 (en) 2007-12-17 2007-12-17 Image processing device

Country Status (3)

Country Link
JP (1) JP4355744B2 (en)
CN (1) CN101896934B (en)
WO (1) WO2009078437A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011024249A1 (en) * 2009-08-24 2011-03-03 キヤノン株式会社 Image processing device, image processing method, and image processing program
JP5527035B2 (en) * 2010-06-16 2014-06-18 株式会社ニコン Image processing program, image processing apparatus, and imaging apparatus
US8654205B2 (en) 2009-12-17 2014-02-18 Nikon Corporation Medium storing image processing program and imaging apparatus
JP2012019337A (en) * 2010-07-07 2012-01-26 Olympus Corp Image processing device and method, and program
WO2012132183A1 (en) * 2011-03-28 2012-10-04 パナソニック株式会社 Image processing apparatus, image processing method, computer program for processing images, and recording medium
JP5060643B1 (en) * 2011-08-31 2012-10-31 株式会社東芝 Image processing apparatus and image processing method
EP3076662A4 (en) * 2013-11-26 2017-08-09 Nikon Corporation Electronic device, imaging device, and imaging element
US9674430B1 (en) * 2016-03-09 2017-06-06 Hand Held Products, Inc. Imaging device for producing high resolution images using subpixel shifts and method of using same
JP6995535B2 (en) 2017-08-31 2022-01-14 キヤノン株式会社 Image processing equipment, image processing methods and programs
CN111164959B (en) * 2017-11-10 2021-08-03 奥林巴斯株式会社 Image processing apparatus, image processing method, and recording medium
CN113487477B (en) * 2021-06-24 2023-12-01 Tcl华星光电技术有限公司 Super-resolution image reconstruction method and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3530652B2 (en) * 1995-09-26 2004-05-24 キヤノン株式会社 Image composition method and image composition device
KR100504594B1 (en) * 2003-06-27 2005-08-30 주식회사 성진씨앤씨 Method of restoring and reconstructing a super-resolution image from a low-resolution compressed image
JP4818031B2 (en) * 2005-10-27 2011-11-16 キヤノン株式会社 Image processing apparatus and image processing method
CN100413316C (en) * 2006-02-14 2008-08-20 华为技术有限公司 Ultra-resolution ratio reconstructing method for video-image
CN100481937C (en) * 2006-05-12 2009-04-22 北京理工大学 Equipment for reconstructing high dynamic image in high resolution

Also Published As

Publication number Publication date
WO2009078437A1 (en) 2009-06-25
CN101896934B (en) 2012-06-13
CN101896934A (en) 2010-11-24
JP2009147830A (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP4355744B2 (en) Image processing device
JP5016715B2 (en) Multi-exposure pattern to improve image dynamic range
KR101643122B1 (en) Image processing device, image processing method and recording medium
JP5756099B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
JP5713752B2 (en) Image processing apparatus and control method thereof
JP5408053B2 (en) Image processing apparatus and image processing method
US8619156B2 (en) Image capturing system and method of controlling the same utilizing exposure control that captures multiple images of different spatial resolutions
JP5672796B2 (en) Image processing apparatus and image processing method
JP4494505B1 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium
KR20100064369A (en) Image processing method and apparatus
JP2011086275A (en) Image processing device, imaging apparatus and imaging processing method, and program
JP2009194896A (en) Image processing device and method, and imaging apparatus
CN102629976A (en) Image processing apparatus, and control method thereof
JP7516471B2 (en) Control device, imaging device, control method, and program
JP2009181508A (en) Image processing device, inspection system, image processing method, image processing program, computer-readable recording medium recording the program
JP2013162347A (en) Image processor, image processing method, program, and device
JP5882702B2 (en) Imaging device
JP2011233058A (en) Imaging device, image processor, and image processing method
JP5042954B2 (en) Image generating apparatus, image generating method, image generating program, and computer-readable recording medium recording the program
JP7057079B2 (en) Image processing device, image pickup device, image processing method, and program
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP6056511B2 (en) Image processing apparatus, method, program, and imaging apparatus
JP2008294524A (en) Image processor and image processing method
JP2009171599A (en) Imaging controller, imaging processor, control method of imaging controller, imaging controller controlling program, and computer readable recording medium recording program thereof
JP2009237650A (en) Image processor and imaging device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090803

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4355744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 4

SG99 Written request for registration of restore

Free format text: JAPANESE INTERMEDIATE CODE: R316G99

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350