JP2010073035A - Image generation apparatus, image generation method, image generation program, and computer readable recording medium recording the program - Google Patents

Image generation apparatus, image generation method, image generation program, and computer readable recording medium recording the program Download PDF

Info

Publication number
JP2010073035A
JP2010073035A JP2008241338A JP2008241338A JP2010073035A JP 2010073035 A JP2010073035 A JP 2010073035A JP 2008241338 A JP2008241338 A JP 2008241338A JP 2008241338 A JP2008241338 A JP 2008241338A JP 2010073035 A JP2010073035 A JP 2010073035A
Authority
JP
Japan
Prior art keywords
imaging
image data
resolution
imaging position
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008241338A
Other languages
Japanese (ja)
Other versions
JP5042954B2 (en
Inventor
Hiroyuki Nakai
博之 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008241338A priority Critical patent/JP5042954B2/en
Publication of JP2010073035A publication Critical patent/JP2010073035A/en
Application granted granted Critical
Publication of JP5042954B2 publication Critical patent/JP5042954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a high-resolution image whose dynamic range is expanded without increasing the number of pickup images to be used. <P>SOLUTION: An image generation apparatus includes: a dynamic range expansion/super resolution processing part 35 which acquires a plurality of pickup image data picked up at image pickup positions set by an image pickup position determination device 10 and generates high-resolution image data; and the image pickup position determination device 10 including an image pickup position calculation part 12 which, when virtually setting reference image pickup positions in which reference pixel regions each of which has a shape corresponding to one pixel of the pickup image data are arrayed like a matrix, sets the image pickup positions of the pickup image data so that a center region having a shape corresponding to one pixel of the high-resolution image data which is positioned in the center of the shape corresponding to one pixel of the pickup image data may be included in the reference pixel region, and in pickup image data picked up under one image pickup condition out of a plurality of sorts of image pickup conditions, sets a first image pickup position for uniforming arranging the center regions. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置等に関する。   The present invention provides an image generation device that generates one high-resolution image with an increased resolution from a plurality of low-resolution images obtained by imaging the same imaging target under any of a plurality of types of imaging conditions while varying the imaging position. Etc.

エリアセンサ等の撮像装置で撮像された画像の解像度は、当該撮像装置が有する撮像素子の密度に依存している。撮像装置のユーザは、より解像度の高い画像を撮像できる撮像装置を求めており、カメラメーカ各社は、解像度に対するユーザの要求に応じるために、撮像素子密度の高い高解像度カメラを次々と発売している。   The resolution of an image captured by an imaging device such as an area sensor depends on the density of the image sensor that the imaging device has. Users of imaging devices are demanding imaging devices that can capture images with higher resolution, and camera manufacturers have released high-resolution cameras with high imaging element density one after another in order to meet user requirements for resolution. Yes.

しかしながら、撮像素子の高密度化にも限界はあり、また高密度化することにより撮像装置の製造コストが増大するという問題もある。そこで、同一の撮像対象に対して、少しずつ撮像位置をずらしながら複数回の撮像を行ない、撮像して得られた複数の撮像画像データを合成して、該撮像画像データよりも解像度の高い高解像度画像データを生成する高解像度化技術が従来から用いられている。   However, there is a limit to increasing the density of the image sensor, and there is a problem that the manufacturing cost of the imaging device increases due to the increase in density. Therefore, a plurality of times of imaging are performed on the same imaging target while shifting the imaging position little by little, and a plurality of captured image data obtained by imaging are synthesized, and the resolution is higher than that of the captured image data. Conventionally, a high-resolution technique for generating resolution image data has been used.

なお、「撮像位置をずらす」とは、撮像装置の撮像面(撮像素子が配列して構成される面)と撮像対象の被撮像面とが平行な状態を保ったまま、該平行な方向に上記撮像面と被撮像面との相対位置を変化させることを指す。これにより、撮像画像データのそれぞれは、撮像対象の異なる領域を反映させたものとなる。つまり、高解像度画像データは、撮像領域がずれた複数の撮像画像データに基づいて生成される。   Note that “shifting the imaging position” means that the imaging surface of the imaging device (the surface configured by arranging the imaging elements) and the imaging target surface to be imaged remain parallel to each other in the parallel direction. This refers to changing the relative position between the imaging surface and the imaging surface. Thereby, each of the picked-up image data reflects different regions to be picked up. That is, the high resolution image data is generated based on a plurality of captured image data in which the imaging regions are shifted.

画像の高解像度化技術は、一般的にイメージシフト処理と超解像処理との二種類に分けられる。イメージシフト処理では、同一の撮像対象について少しずつ撮像位置をずらしながら複数回の撮像を行なう。そして、複数の撮像画像データのそれぞれに含まれる画素と、高解像度画像データの画素との位置の対応を求め、撮像画像データの各画素の輝度値を高解像度画像データの各画素にマッピングすることにより、複数の撮像画像データを反映させた高解像度画像データを生成する。   Image resolution enhancement techniques are generally divided into two types: image shift processing and super-resolution processing. In the image shift process, imaging is performed a plurality of times while gradually shifting the imaging position for the same imaging target. Then, the correspondence between the positions of the pixels included in each of the plurality of captured image data and the pixels of the high resolution image data is obtained, and the luminance value of each pixel of the captured image data is mapped to each pixel of the high resolution image data. Thus, high-resolution image data reflecting a plurality of captured image data is generated.

なお、イメージシフト処理では、撮像画像データの全画素を高解像度画像データの画素にマッピングする必要があるため、撮像画像データの撮像位置及び撮像枚数は固定とする必要がある。したがって、イメージシフト処理では、低い計算コストで高解像度画像データを生成できるという利点を有している反面、解像度を飛躍的に向上させることは難しいという難点も有している。   In the image shift process, since it is necessary to map all the pixels of the captured image data to the pixels of the high resolution image data, it is necessary to fix the imaging position and the number of captured images of the captured image data. Therefore, the image shift process has an advantage that high-resolution image data can be generated at a low calculation cost, but has a problem that it is difficult to dramatically improve the resolution.

一方、超解像処理では、まずイメージシフト処理と同様に、同一の撮像対象について少しずつ撮像位置をずらしながら複数回の撮像を行なう。そして、超解像処理では、高解像度画像データを推定し、推定した高解像度画像と、上記複数回の撮像にて得られた複数の撮像画像データとの差が小さくなるように上記仮定した高解像度画像データを更新する。   On the other hand, in the super-resolution processing, first, similarly to the image shift processing, imaging is performed a plurality of times while gradually shifting the imaging position for the same imaging target. In the super-resolution processing, high-resolution image data is estimated, and the assumed high-resolution image data is reduced so that the difference between the estimated high-resolution image and the plurality of captured image data obtained by the plurality of imaging operations is reduced. Update the resolution image data.

このような方式の超解像処理は、再構成型超解像処理と呼ばれている。再構成型超解像処理としては、例えばML(Maximum-likelihood)法、MAP(Maximum A Posterior)法や、POCS(Projection On to Convex Set)法等が一般に知られており、下記の非特許文献1及び特許文献1にも開示されている。   Such a super-resolution process is called a reconfigurable super-resolution process. As reconstruction-type super-resolution processing, for example, ML (Maximum-likelihood) method, MAP (Maximum A Posterior) method, POCS (Projection On to Convex Set) method and the like are generally known. 1 and Patent Document 1.

再構成型超解像処理では、使用する低解像度画像データ(撮像画像データ)の枚数に制限がないため、解像度を飛躍的に向上させることができる。その反面、再構成型超解像処理では、高解像度画像データの更新に繰り返し演算が用いられるので、イメージシフト処理と比べて、一般に計算コストが高くなる。   In reconstruction super-resolution processing, the number of low-resolution image data (captured image data) to be used is not limited, so that the resolution can be dramatically improved. On the other hand, in the reconfigurable super-resolution processing, since iterative calculation is used for updating high-resolution image data, the calculation cost is generally higher than that of the image shift processing.

以下では、従来行なわれていた超解像処理についてより詳細に説明する。超解像処理(再構成型)は、生成される高解像度画像に対して定義される評価関数の最適化問題として定式化される。つまり、超解像処理は、「推定された撮像画像データ(高解像度画像データ)」と「観測された撮像画像データ(撮像画像データ)」との二乗誤差に基づく評価関数(誤差項)の最適化問題に帰着される。なお、超解像処理は、未知数の非常に大きな最適化計算であるため、その評価関数の最適化には例えば最急降下法などの繰返し計算法がよく利用される。   Hereinafter, the conventional super-resolution processing will be described in more detail. The super-resolution processing (reconstruction type) is formulated as an optimization problem of the evaluation function defined for the generated high resolution image. In other words, the super-resolution processing is an optimal evaluation function (error term) based on the square error between “estimated captured image data (high-resolution image data)” and “observed captured image data (captured image data)”. It will be reduced to the problem. Note that since the super-resolution processing is an optimization calculation with a very large number of unknowns, for example, an iterative calculation method such as the steepest descent method is often used to optimize the evaluation function.

また、高解像度画像データの特性が既知である場合には、その高解像度画像データの特性に基づく評価関数(拘束項)を評価関数(誤差項)に付加してもよい。例えば、高解像度画像データのエッジ成分が小さいことが予めわかっている場合には、高解像度画像データにラプラシアンフィルタを乗じた画像データに基づく評価関数(拘束項)を付加すればよい。これにより、高解像度画像データのエッジ成分が小さいということを超解像処理に反映させることができるので、高解像度化の精度を向上させることができる。   When the characteristics of the high resolution image data are known, an evaluation function (constraint term) based on the characteristics of the high resolution image data may be added to the evaluation function (error term). For example, when it is known in advance that the edge component of the high resolution image data is small, an evaluation function (constraint term) based on image data obtained by multiplying the high resolution image data by a Laplacian filter may be added. As a result, the fact that the edge component of the high-resolution image data is small can be reflected in the super-resolution processing, so that the accuracy of increasing the resolution can be improved.

ここで、従来の超解像処理方法における処理の流れについて図17に基づいて説明する。図17は、従来の超解像処理方法の一例を示すフローチャートである。ここでは、撮像位置を少しずつずらしながら同一の撮像対象を撮像して得られたm枚の撮像画像データから、1枚の高解像度画像データを生成することを想定している(mは正数)。なお、mは、撮像画像データを何倍に高解像度化するかに応じて決定される。具体的には、撮像画像データをn倍に高解像度化する場合には、例えばN枚の撮像画像データがあればよい。 Here, the flow of processing in the conventional super-resolution processing method will be described with reference to FIG. FIG. 17 is a flowchart showing an example of a conventional super-resolution processing method. Here, it is assumed that one piece of high-resolution image data is generated from m pieces of picked-up image data obtained by picking up the same image pickup object while shifting the image pickup position little by little (m is a positive number). ). Note that m is determined according to how many times the resolution of the captured image data is increased. Specifically, in order to increase the resolution of the captured image data by n times, for example, there may be N 2 captured image data.

なお、撮像画像データがN枚より少ない場合であってもN倍の高解像度化を行なうことは可能であるが、この場合には、N枚の撮像画像データを用いる場合と比べて高解像度化の精度は低くなる。逆に、N枚より多い撮像画像データを用いてN倍の高解像度化を行なうことによって、N枚の撮像画像データを用いる場合と比べて高解像度化の精度を向上させることも可能である。 Note that even when the number of captured image data is less than N 2, it is possible to increase the resolution N times, but in this case, the resolution is higher than when N 2 captured image data is used. The accuracy of resolution is lowered. Conversely, by performing a resolution of N times by using more captured image data from the two N, it is also possible to improve the resolution of accuracy as compared with the case of using the captured image data of the two N is there.

ここで、上記撮像画像データを取得する際の撮像対象の撮像方法について、図18に基づいて説明する。図18は、超解像処理に用いる撮像画像データの撮像方法を示す模式図である。なお、同図では簡単のため、9枚の撮像画像データを用いて1枚の高解像度画像データを生成する例、すなわちm=9であり、撮像画像データを3倍に高解像度化する例を示している。   Here, the imaging method of the imaging target when acquiring the captured image data will be described with reference to FIG. FIG. 18 is a schematic diagram illustrating an imaging method of captured image data used for super-resolution processing. In the figure, for simplicity, an example of generating one piece of high-resolution image data using nine pieces of picked-up image data, that is, an example in which m = 9 and the picked-up image data is three times higher in resolution. Show.

図18の(a)〜(i)は、ある撮像位置における1つの撮像素子の撮像領域を示す基準撮像領域T1と、該基準撮像領域T1から撮像位置を移動させたときの上記撮像素子の撮像領域P11〜P91との位置関係を示している。つまり、図18では、P11〜P91、およびT1の矩形のサイズが、撮像素子1つの撮像領域を示している。   18A to 18I show a reference imaging region T1 indicating an imaging region of one imaging device at a certain imaging position, and imaging of the imaging device when the imaging position is moved from the reference imaging region T1. The positional relationship with the area | regions P11-P91 is shown. That is, in FIG. 18, the rectangular sizes of P11 to P91 and T1 indicate the imaging region of one imaging element.

また、撮像領域P11〜P91の中心には、高解像度画像データの1画素に相当するサイズの矩形P13〜P93が図示されている。これは、撮像領域P11〜P91で取得された輝度値データが、高解像度画像データ上において、矩形P13〜P93で示す位置に反映されることを示している。同図では、3倍に高解像度化を行なうことを想定しているので、矩形P13〜P93の一辺の長さを、撮像領域P11〜P91の一辺の長さの1/3としている。   Further, in the center of the imaging regions P11 to P91, rectangles P13 to P93 having a size corresponding to one pixel of the high resolution image data are illustrated. This indicates that the luminance value data acquired in the imaging regions P11 to P91 is reflected on the positions indicated by the rectangles P13 to P93 on the high resolution image data. In the figure, since it is assumed that the resolution is increased three times, the length of one side of the rectangles P13 to P93 is set to one third of the length of one side of the imaging regions P11 to P91.

撮像画像データを3倍に高解像度化する場合には、図示のように、基準撮像領域T1に対して、該基準撮像領域Tの1/3の幅、すなわち、撮像画像データの1画素が撮像する撮像領域の1/3幅で撮像領域が移動するように撮像位置を移動させながら、各撮像位置にて1回ずつ撮像を行なえばよい。   In the case of increasing the resolution of the captured image data to three times, as shown in the figure, the width of the reference imaging area T1 is 1/3 of the reference imaging area T, that is, one pixel of the captured image data is captured. It is only necessary to perform imaging once at each imaging position while moving the imaging position so that the imaging area moves with a width of 1/3 of the imaging area to be performed.

これにより、図示のように、基準撮像領域Tを3×3のマトリクスに分割した各領域に9つの矩形P13〜P93が配列することになる。つまり、撮像素子1つ分の撮像領域である基準撮像領域Tを3×3のマトリクスに分割した各領域に、撮像領域P11〜P91で撮像した輝度値データを反映させることによって、画素数が9倍、すなわち3倍の解像度を有する高解像度画像データを生成することができる。   As a result, nine rectangles P13 to P93 are arranged in each region obtained by dividing the reference imaging region T into a 3 × 3 matrix as illustrated. That is, the luminance value data captured in the imaging regions P11 to P91 is reflected in each region obtained by dividing the reference imaging region T, which is an imaging region for one imaging element, into a 3 × 3 matrix, so that the number of pixels is nine. It is possible to generate high-resolution image data having double, that is, three times the resolution.

なお、撮像対象の形状及び色彩を正確に反映させた高解像度画像データを生成するためには、各撮像画像データを同一の撮像条件にて撮像する必要がある。ここで、撮像条件とは、露光時間(シャッタースピード)、照明強度、撮像感度、使用するフィルタ、及びアイリスの少なくとも1つを指す。   Note that in order to generate high-resolution image data that accurately reflects the shape and color of the imaging target, it is necessary to capture each captured image data under the same imaging conditions. Here, the imaging condition refers to at least one of exposure time (shutter speed), illumination intensity, imaging sensitivity, filter to be used, and iris.

ここで、フローチャートの説明に戻る。従来の超解像処理方法では、上記のようにして撮像された1枚目からm枚目までのm枚の撮像画像データyを取得する(S101)。なお、yは、上記1枚目からm枚目までのm枚の撮像画像データをベクトルとして表現したものであり、下記の数式(1)で表される。 Here, the description returns to the flowchart. In the conventional super-resolution processing method, m pieces of picked-up image data ym from the first piece to the m-th piece obtained as described above are acquired (S101). Incidentally, y m is a representation of the m pieces of image data to m-th first picture above as a vector is expressed by the following equation (1).

Figure 2010073035
Figure 2010073035

なお、画像データのベクトル表現とは、上記数式(1)のように画像データの構成要素を一列に並べた1行のベクトルとして表現したものを指す。例えば、画像データを構成する要素のサイズが横W×縦Hである場合には、当該画像データは、1行×(W×H)列のベクトルとして表現される。   Note that the vector representation of the image data refers to a representation of the image data components as a single row vector arranged in a line as in the above equation (1). For example, when the size of the elements constituting the image data is W × H, the image data is expressed as a vector of 1 row × (W × H) columns.

ここで、上述のように、超解像処理は、「推定された撮像画像データ(高解像度画像データ)」と「観測された撮像画像データ(撮像画像データ)」との二乗誤差に基づく評価関数(誤差項)の最適化問題に帰着される。すなわち、超解像処理を行なうためには、複数の撮像画像データと、当該複数の撮像画像データから推定される高解像度画像データとが必要である。   Here, as described above, the super-resolution processing is an evaluation function based on a square error between “estimated captured image data (high-resolution image data)” and “observed captured image data (captured image data)”. This results in an optimization problem of (error term). That is, in order to perform the super-resolution processing, a plurality of captured image data and high-resolution image data estimated from the plurality of captured image data are necessary.

しかしながら、撮像画像データyを取得した段階では、撮像画像データyから推定される高解像度画像データを取得することはできない。そこで、次のステップでは初期高解像度画像データhを取得する(S102)。初期高解像度画像データhは、撮像画像データよりも解像度が高い(画像を構成する画素数が多い)画像データである。なお、初期高解像度画像データhは、高解像度画像データをベクトルとして表現したものである。 However, at the stage of obtaining the captured image data y m, it can not acquire the high-resolution image data to be estimated from the captured image data y m. Therefore, in the next step, initial high-resolution image data h is acquired (S102). The initial high-resolution image data h is image data having a higher resolution than the captured image data (the number of pixels constituting the image is large). The initial high resolution image data h is a representation of the high resolution image data as a vector.

初期高解像度画像データhには予め初期値を設定しておけばよい。なお、撮像画像データを3倍に高解像度化する場合には、撮像画像データよりも解像度が高い高解像度画像データの各画素のサイズは、撮像画像データの各画素のサイズの1/3倍になる。   An initial value may be set in advance for the initial high-resolution image data h. When the resolution of the captured image data is increased to 3 times, the size of each pixel of the high-resolution image data having a higher resolution than the captured image data is 1/3 times the size of each pixel of the captured image data. Become.

なお、初期高解像度画像データは、超解像処理によって撮像画像データとの差異が小さくなるように更新されるので、高解像度画像データの初期値、すなわち初期高解像度画像データの各画素の輝度値は、どのような値であってもよい。例えば、画像の全面が均一の灰色画像や黒画像、または白画像を初期高解像度画像データとして用いることができる。また、撮像画像データの中から選択した任意の1枚を初期高解像度画像データとして用いてもよい。   Note that the initial high-resolution image data is updated so that the difference from the captured image data is reduced by the super-resolution processing, so the initial value of the high-resolution image data, that is, the luminance value of each pixel of the initial high-resolution image data. May be any value. For example, a gray image, black image, or white image with a uniform entire surface can be used as the initial high resolution image data. Further, any one selected from the captured image data may be used as the initial high resolution image data.

ここで、初期高解像度画像データhと撮像画像データyとでは、各画素のサイズ及び画素数が異なり、また撮像対象の撮像位置も異なっている。このため、高解像度画像データhと撮像画像データyとの差分を直接に計算することはできない。そこで、S101及びS102にて撮像画像データy及び高解像度画像データhを取得すると、高解像度画像データhを撮像画像データyに位置合わせすると共に低解像度化して、m枚の擬似低解像度画像データBhを生成する(S103)。 Here, in the initial high-resolution image data h and captured image data y m, vary in size and number of pixels in each pixel, also have different imaging position of the imaging subject. Therefore, it is not possible to calculate directly the difference between the high resolution image data h and captured image data y m. Therefore, when acquiring the captured image data y m and the high resolution image data h at S101 and S102, the high-resolution image data h to the lower resolution with aligning the captured image data y m, m pieces of the pseudo low resolution image Data B m h is generated (S103).

なお、Bは、高解像度画像データhを撮像画像データyに位置合わせすると共に低解像度化する行列である。Bは、下記の数式(2)に示すように、M〜MとCとの積で表される行列である。そして、行列M〜Mは、高解像度画像データhを撮像画像データyの撮像位置に位置合わせした後、撮像画像データyの各画素位置に相当する画素の輝度値をサンプリングする処理を示す行列である。また、Cは、観測モデル(撮像装置のカメラモデル)においてボケの原因となる点広がり関数(PSF:Point Spread Function)を用いたコンボリューション(畳み込んで画像をぼかす処理)を表す行列である。 Incidentally, B m is a matrix of low resolution with a high-resolution image data h to align the captured image data y m. B m is a matrix represented by the product of M 1 to M m and C, as shown in the following formula (2). Then, the matrix M 1 ~M m, after a high-resolution image data h are aligned at the imaging position of the captured image data y m, sampling the luminance value of the pixel corresponding to each pixel position of the captured image data y m processing Is a matrix. C is a matrix representing a convolution (a process of convolutioning and blurring an image) using a point spread function (PSF) that causes blur in the observation model (camera model of the imaging apparatus).

Figure 2010073035
Figure 2010073035

次に、上記S103にて生成した擬似低解像度画像データBhと撮像画像データyとの差分を計算し、差分画像データXを算出する(S104)。この差分画像データXが「推定された撮像画像データ(高解像度画像データ)」と「観測された撮像画像データ(撮像画像データ)」との誤差である。 Next, the difference between the pseudo low resolution image data B m h generated in S103 and the captured image data y m is calculated, and the difference image data X m is calculated (S104). This difference image data Xm is an error between “estimated captured image data (high resolution image data)” and “observed captured image data (captured image data)”.

続いて、上記算出した差分画像データXを評価関数に代入して、高解像度化の精度(高解像度画像データと撮像画像データとが相違している程度)を示す評価値Eを求める(S105)。評価関数としては、公知の様々なものを適用することができるが、例えば下記の数式(3)に示す評価関数を用いることによって、評価値Eを求めることができる。 Then, by substituting the evaluation function difference image data X m calculated above, obtaining the evaluation value E that indicates the high resolution accuracy (degree to which the high resolution image data and the captured image data are different) (S105 ). Various known functions can be applied as the evaluation function. For example, the evaluation value E can be obtained by using the evaluation function shown in the following mathematical formula (3).

Figure 2010073035
Figure 2010073035

上記数式(3)は、MAP法と呼ばれる超解像処理手法にて使用される評価関数である。数式(3)は、誤差項と拘束項とから成る数式であり、数式(3)の右辺におけるBh−yすなわち差分画像データXが誤差項である。そして、数式(3)の右辺におけるw、L、及びhの文字が含まれている項が拘束項である。なお、Lは高解像度画像データhの事前確率情報を表す行列であり、wは拘束項の強さを表すパラメータである。このような拘束項を評価関数に組み込むことにより、高解像度画像データの事前確率情報を反映させて、より高精度な超解像処理を行なうことができる。 The above mathematical formula (3) is an evaluation function used in a super-resolution processing method called a MAP method. Equation (3) is an equation composed of an error term and a constraint term, and B m h−y m on the right side of Equation (3), that is, difference image data X m is an error term. A term including the characters w, L, and h on the right side of Expression (3) is a constraint term. Note that L is a matrix representing prior probability information of the high-resolution image data h, and w is a parameter representing the strength of the constraint term. By incorporating such a constraint term into the evaluation function, more accurate super-resolution processing can be performed by reflecting the prior probability information of the high-resolution image data.

この数式(3)に差分画像データXを代入して得られる値が評価値Eである。高解像度画像データhが撮像画像データyを正確に反映させているほど誤差項の値が小さくなり、それに伴って評価値Eも小さくなる。したがって、超解像処理は、評価値Eを最小化する高解像度画像データhを探索する処理であるということができる。 Value obtained by substituting the difference image data X m in this formula (3) is an evaluation value E. The value of the error term as the high-resolution image data h is accurately reflect the captured image data y m decreases, the evaluation value E is also reduced accordingly. Therefore, it can be said that the super-resolution processing is processing for searching for high-resolution image data h that minimizes the evaluation value E.

次に、上記算出した評価値Eの値と、予め設定した閾値とを比較する(S106)。そして、評価値Eの値が上記閾値よりも小さい場合(S106でYES)には、当該評価値Eの算出に用いた高解像度画像データhを、超解像処理の結果として得られた最終的な高解像度画像データhとして超解像処理を終了する。   Next, the calculated evaluation value E is compared with a preset threshold value (S106). When the evaluation value E is smaller than the threshold value (YES in S106), the high resolution image data h used for calculating the evaluation value E is finally obtained as a result of the super-resolution processing. The super-resolution processing is finished as the high-resolution image data h.

なお、上記閾値は、要求される高解像度化の精度に応じて適宜変更することができる。例えば、より高い精度の高解像度化が要求される場合には、上記閾値を小さく設定すればよく、高解像度化精度は余り要求されないが、迅速な処理速度が要求される場合には、上記閾値を大きく設定すればよい。すなわち、上記閾値は、超解像処理の精度を決定するための値であり、超解像処理に要求される様々な条件に合わせて適宜設定することができる。   The threshold value can be changed as appropriate according to the required accuracy of resolution enhancement. For example, when higher resolution and higher resolution are required, the threshold value may be set small, and higher resolution accuracy is not required, but when a rapid processing speed is required, the threshold value is set. Should be set larger. That is, the threshold value is a value for determining the accuracy of the super-resolution processing, and can be set as appropriate according to various conditions required for the super-resolution processing.

一方、評価値Eの値が上記閾値以上である場合(S106でNO)には、評価値Eの値が小さくなるように繰り返し演算を行って、高解像度画像データhを更新する(S107)。例えば、下記の数式(4)を用いることによって、高解像度画像データhを更新することができる。   On the other hand, when the value of the evaluation value E is equal to or greater than the threshold value (NO in S106), the high-resolution image data h is updated by repeatedly performing the calculation so that the value of the evaluation value E becomes small (S107). For example, the high resolution image data h can be updated by using the following mathematical formula (4).

Figure 2010073035
Figure 2010073035

数式(4)は、最急降下法にて用いられる数式である。数式(4)によれば、高解像度画像データhから、差分画像データに予め定めた重みβを掛け合わせた値を引くことにより、新規の高解像度画像データhk+1が生成されるようになっている。この演算を繰り返すことによって、評価値Eの値がより小さくなる高解像度画像データhが生成される。なお、繰り返し演算は、最急降下法に限られず、公知の繰り返し演算手法を適用することもできる。 Formula (4) is a formula used in the steepest descent method. According to equation (4), made from the high resolution image data h k, by subtracting a value obtained by multiplying the weight β determined in advance in the difference image data, as the high resolution image data h k + 1 new is generated ing. By repeating this calculation, high-resolution image data h having a smaller evaluation value E is generated. The iterative calculation is not limited to the steepest descent method, and a known iterative calculation method can also be applied.

このようにして更新された高解像度画像データhは、再度S103にて擬似的に低解像度化され、S104及びS105にて評価値Eの算出に用いられる。そして、S106にて再度評価値と閾値との比較が行なわれる。すなわち、超解像処理では、評価値Eの値が閾値よりも小さくなるまでS103〜S107の処理が繰り返し行なわれる。そして、評価値Eの値が閾値よりも小さくなったときの高解像度画像データhを、超解像処理の結果として得られた最終的な高解像度画像データhとして超解像処理を終了する。これにより、所望の倍率及び所望の精度で高解像度化された高解像度画像データhを得ることができる。   The high-resolution image data h updated in this manner is subjected to pseudo-resolution reduction in S103 again, and is used for calculating the evaluation value E in S104 and S105. In S106, the evaluation value is compared with the threshold value again. That is, in the super-resolution process, the processes of S103 to S107 are repeatedly performed until the evaluation value E is smaller than the threshold value. Then, the high-resolution image data h obtained when the evaluation value E is smaller than the threshold value is used as the final high-resolution image data h obtained as a result of the super-resolution processing, and the super-resolution processing ends. As a result, high-resolution image data h with high resolution at a desired magnification and desired accuracy can be obtained.

以上が、従来行なわれていた超解像処理の手法である。このような超解像処理や、イメージシフト処理によって、複数の低解像度画像データから高解像度画像データを生成することができ、これにより、撮像装置の解像度を超える、精細な画像データを生成することが可能になる。
"画像の超解像度化処理"、杉本茂樹、奥富正敏、日本ロボット学会誌Vol.23,No.3,pp.305-309,2005 特開2006−127241号公報(2006年5月11日公開) "多重絞りカラー画像の解析"、浅田尚紀、松山隆司、望月孝俊、情報処理学会論文誌Vol.32,No.10,pp.1338-1348,Oct.1991 特開平02−174470号公報(1990年7月5日公開) 特開2007−49228号公報(2007年2月22日公開)
The above is the conventional super-resolution processing technique. Through such super-resolution processing and image shift processing, high-resolution image data can be generated from a plurality of low-resolution image data, thereby generating fine image data that exceeds the resolution of the imaging device. Is possible.
"Super-resolution processing of images", Shigeki Sugimoto, Masatoshi Okutomi, Journal of the Robotics Society of Japan Vol.23, No.3, pp.305-309,2005 JP 2006-127241 A (published May 11, 2006) "Analysis of multi-aperture color images", Naoki Asada, Takashi Matsuyama, Takatoshi Mochizuki, IPSJ Journal Vol.32, No.10, pp.1338-1348, Oct.1991 Japanese Patent Laid-Open No. 02-174470 (published July 5, 1990) JP 2007-49228 A (published February 22, 2007)

ところで、撮像素子は人の目に比べて、一度に捉えることのできる光の範囲(ダイナミックレンジ)が狭い。そのため、明暗差の大きい撮像対象を撮像した場合、撮像して得られた撮像画像データにおいて、明るい部分では階調がなくなる白とびや、暗い部分では一様に黒くなる黒つぶれが生じることがある。そして、白とびや黒つぶれが発生した箇所は撮像対象の色彩や形状を表すデータとはならない。   By the way, the image sensor has a narrower range of light (dynamic range) that can be captured at one time than the human eye. For this reason, when an imaging target with a large contrast between light and dark is imaged, in the captured image data obtained by imaging, there may be white overtones in which the gradation disappears in a bright part and blackouts that become black uniformly in a dark part. . A portion where overexposure or underexposure occurs is not data representing the color or shape of the imaging target.

したがって、超解像処理やイメージシフト処理に用いる複数の低解像度画像データ(撮像画像データ)の中に、白とびや黒つぶれが生じたものが含まれている場合には、撮像対象の形状や色彩が高解像度画像データに正確に反映されず、そのため高解像度化処理の精度が低下する。従って、明暗差の大きい撮像対象を撮像する場合、高解像度化処理の精度の低下を防ぐために、なんらかの対策を打つ必要がある。   Therefore, if the multiple low-resolution image data (captured image data) used for the super-resolution processing or the image shift processing includes those with overexposure or underexposure, The color is not accurately reflected in the high-resolution image data, so that the accuracy of the high-resolution processing is reduced. Therefore, when imaging an imaging target having a large difference in brightness, it is necessary to take some measures to prevent a reduction in the accuracy of the high resolution processing.

ここで、従来、撮像素子の実質的なダイナミックレンジを拡大する技術、すなわち、異なる撮像条件にて撮像して得られた複数の撮像画像データを画像処理して、ダイナミックレンジを拡大する技術が知られている。例えば、非特許文献2や、特許文献2、及び特許文献3には、露光時間の異なる複数の画像を用いて合成処理を行なうことにより、ダイナミックレンジを拡大することが記載されている。   Here, conventionally, there is known a technique for expanding a substantial dynamic range of an image sensor, that is, a technique for expanding a dynamic range by performing image processing on a plurality of captured image data obtained by imaging under different imaging conditions. It has been. For example, Non-Patent Document 2, Patent Document 2, and Patent Document 3 describe expanding the dynamic range by performing a combining process using a plurality of images having different exposure times.

上記の文献で記載されている方法によれば、ダイナミックレンジを拡大する対象となる撮像対象を、短時間露光及び長時間露光の2種類の露光時間で撮像する。そして、2種類の露光時間で撮像した各画像について、白とび画素、黒つぶれ画素等の不適正露光領域を検出し、それらの領域を短時間露光画像、もしくは長時間露光画像で置き換えるようにしている。   According to the method described in the above-mentioned document, an imaging target that is a target for expanding the dynamic range is imaged with two types of exposure time, that is, short exposure and long exposure. Then, for each image captured with two types of exposure time, improper exposure areas such as overexposure pixels and blackout pixels are detected, and these areas are replaced with short exposure images or long exposure images. Yes.

しかしながら、上記従来の方法では、置き換える対象となる画素は撮像位置が同じである必要がある。すなわち、上記従来の方法では、画素レベルで撮像位置が一致した一組の画像を用いる必要がある。撮像位置がずれた画像データで上記従来の方法を用いた場合には、画素の置き換えを行った箇所が、置き換えを行っていない箇所と不連続になってしまうからである。   However, in the conventional method, the pixels to be replaced need to have the same imaging position. That is, in the above conventional method, it is necessary to use a set of images in which the imaging positions coincide at the pixel level. This is because, when the above-described conventional method is used with image data whose imaging position is shifted, the place where the pixel is replaced becomes discontinuous with the place where the replacement is not performed.

このため、撮像位置をずらしながら撮像を行なう超解像処理においては、上記従来のダイナミックレンジ拡大方法を適用することは考えられていなかった。つまり、明暗差の大きい撮像対象を撮像する場合における高解像度化処理の精度の低下を防ぐための対策として上記従来のダイナミックレンジ拡大方法を採用することはできない。   For this reason, it has not been considered to apply the conventional dynamic range expansion method in super-resolution processing in which imaging is performed while shifting the imaging position. That is, the above-described conventional dynamic range expansion method cannot be employed as a measure for preventing a reduction in accuracy of the high resolution processing when imaging an imaging target having a large contrast.

本発明は、上記の問題に鑑みてなされたものであり、その第1の目的は、ダイナミックレンジの拡大された高解像度画像を生成することができる画像生成装置等を実現することにある。   The present invention has been made in view of the above problems, and a first object of the present invention is to realize an image generation apparatus and the like that can generate a high-resolution image with an expanded dynamic range.

また、ダイナミックレンジを拡大するためには、複数の撮像条件で撮像を行なう必要があるが、複数の撮像条件で撮像を行なう場合には、撮像条件の種類の数だけ撮像画像データの使用枚数が増え、これにより撮像時間が倍増するという問題がある。   In order to expand the dynamic range, it is necessary to perform imaging under a plurality of imaging conditions. When imaging is performed under a plurality of imaging conditions, the number of captured image data used is the number of types of imaging conditions. There is a problem that the imaging time is doubled due to the increase.

ここで、撮像時間を低減するには、撮像画像データの使用枚数を減らすことが考えられるが、単純に使用枚数を減らしてしまうと、その分だけ撮像画像データの情報が欠落し、高解像化処理によって得られる高解像度画像データの品質を損なうおそれがある。   Here, in order to reduce the imaging time, it is conceivable to reduce the number of captured image data used. However, if the number of used images is simply reduced, the information of the captured image data is lost by that amount, resulting in high resolution. The quality of the high-resolution image data obtained by the conversion processing may be impaired.

本発明は、上記の問題に鑑みてなされたものであり、その第2の目的は、撮像画像データの使用枚数を増加させることなく、ダイナミックレンジの拡大された高解像度画像データを生成することができる画像生成装置等を実現することにある。   The present invention has been made in view of the above problems, and a second object of the present invention is to generate high-resolution image data with an expanded dynamic range without increasing the number of captured image data used. It is to realize an image generation apparatus and the like that can be used.

本発明に係る画像生成装置は、上記課題を解決するために、同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置であって、上記複数の低解像度画像の撮像位置を設定する撮像位置決定手段と、上記撮像位置決定手段が設定した撮像位置で撮像された上記複数の低解像度画像を取得して上記高解像度画像を生成する高解像度画像生成手段とを備え、上記撮像位置決定手段は、上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、上記低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように、上記複数の低解像度画像の撮像位置を設定し、かつ上記複数種類のうち、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置を設定する第1撮像位置設定手段を備えていることを特徴としている。   In order to solve the above problems, an image generation apparatus according to the present invention obtains a resolution from a plurality of low-resolution images obtained by imaging the same imaging target under one of a plurality of types of imaging conditions with different imaging positions. An image generation apparatus that generates one raised high-resolution image, the imaging position determination unit that sets the imaging position of the plurality of low-resolution images, and the image that is captured at the imaging position set by the imaging position determination unit A high-resolution image generation unit configured to acquire a plurality of low-resolution images and generate the high-resolution image, and the imaging position determination unit includes a reference pixel region having a shape corresponding to one pixel of the low-resolution image as a matrix When the reference imaging positions arranged in a shape are virtually set, a shape corresponding to one pixel of the high-resolution image is located at the center of the shape corresponding to one pixel of the low-resolution image. For the low-resolution image that is set under the imaging positions of the plurality of low-resolution images so that the center region to be included in the reference pixel region and that is captured under at least one imaging condition among the plurality of types, First imaging position setting means is provided for setting a first imaging position, which is an imaging position where the central area is arranged at a uniform or substantially uniform position with respect to the entire reference pixel area arranged in a matrix. It is characterized by being.

また本発明に係る画像生成方法は、上記課題を解決するために、同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置の画像生成方法であって、上記複数の低解像度画像の撮像位置を設定する撮像位置設定ステップと、上記撮像位置設定ステップで設定された撮像位置で撮像された上記複数の低解像度画像を取得して上記高解像度画像を生成する高解像度画像生成ステップとを含み、上記撮像位置設定ステップは、上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、上記低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように、上記複数の低解像度画像の撮像位置を設定し、かつ上記複数種類のうち、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置を設定する第1撮像位置設定ステップを含むことを特徴としている。   Further, in order to solve the above-described problem, the image generation method according to the present invention provides a resolution from a plurality of low-resolution images obtained by imaging the same imaging target under any one of a plurality of types of imaging conditions with different imaging positions. An image generation method of an image generation apparatus that generates a single high-resolution image with a raised image, an imaging position setting step for setting imaging positions of the plurality of low-resolution images, and an imaging set in the imaging position setting step A high-resolution image generation step of acquiring the plurality of low-resolution images captured at positions and generating the high-resolution image, wherein the imaging position setting step has a shape corresponding to one pixel of the low-resolution image. When the reference imaging position in which the reference pixel areas having the matrix are arranged in a matrix is virtually set, the center is located at the center of the shape corresponding to one pixel of the low-resolution image, The imaging positions of the plurality of low resolution images are set so that a central area having a shape corresponding to one pixel of the resolution image is included in the reference pixel area, and at least one of the plurality of types is captured. For a low-resolution image captured under conditions, the first imaging position, which is an imaging position in which the central area is arranged at a uniform or almost uniform position, is set with respect to the entire reference pixel area arranged in a matrix. The first imaging position setting step is included.

上記の構成によれば、複数種類の撮像条件のいずれかで撮像した低解像度画像から、解像度を上げた1つの高解像度画像が生成される。すなわち、上記の構成によって生成される高解像度画像には、複数種類の撮像条件による低解像度画像が反映される。これにより、1種類の撮像条件のみで撮像された低解像度画像を用いる場合と比べて、高解像度画像のダイナミックレンジを拡大することができる。   According to the above configuration, one high-resolution image with an increased resolution is generated from a low-resolution image captured under any of a plurality of types of imaging conditions. That is, a low resolution image based on a plurality of types of imaging conditions is reflected in the high resolution image generated by the above configuration. Thereby, compared with the case where the low resolution image imaged only with one type of imaging condition is used, the dynamic range of a high resolution image can be expanded.

なお、複数種類の撮像条件のいずれかで撮像した低解像度画像から高解像度画像を生成する場合には、撮像条件の違いを補うために正規化処理を行なえばよい。すなわち、複数種類の撮像条件のいずれか1つを選択し、選択した撮像条件で全ての低解像度画像を撮像したとみなすことができるように、各低解像度画像の輝度値を補正する正規化処理を行なうことにより、異なる撮像条件で撮像した低解像度画像から、ダイナミックレンジの拡大された1つの高解像度画像を生成することができる。   Note that when a high resolution image is generated from a low resolution image captured under any of a plurality of types of imaging conditions, normalization processing may be performed to compensate for the difference in imaging conditions. That is, normalization processing for correcting the luminance value of each low-resolution image so that it can be considered that all the low-resolution images have been imaged under the selected imaging condition by selecting any one of a plurality of types of imaging conditions. By performing the above, it is possible to generate one high-resolution image with an expanded dynamic range from low-resolution images captured under different imaging conditions.

また、上記の構成によれば、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された基準画素領域の全体に対して、中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置が設定される。   Further, according to the above configuration, for the low resolution image captured under at least one imaging condition, the central region is arranged at a uniform or substantially uniform position with respect to the entire reference pixel region arranged in a matrix. A first imaging position that is an imaging position is set.

ここで、本発明は、同一の撮像対象を、撮像位置を異ならせながら撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する技術を前提としている。   Here, the present invention is premised on a technique for generating one high-resolution image with an increased resolution from a plurality of low-resolution images obtained by imaging the same imaging target with different imaging positions.

この技術においては、低解像度画像の1画素に相当する形状を有する基準画素領域が配置された基準撮像位置(図18のT1)を仮想的に設定した場合に、低解像度画像の1画素に相当する領域(図18のP11〜P91)の中心に位置する、高解像度画像の1画素に相当する中心領域(図18のP13〜P93)が、基準画素領域内に含まれるように、撮像位置が設定される。   In this technique, when a reference imaging position (T1 in FIG. 18) where a reference pixel area having a shape corresponding to one pixel of a low resolution image is virtually set, it corresponds to one pixel of the low resolution image. The imaging position is set so that a central area (P13 to P93 in FIG. 18) corresponding to one pixel of the high-resolution image located at the center of the area to be performed (P11 to P91 in FIG. 18) is included in the reference pixel area. Is set.

このように撮像位置を設定することにより、基準画素領域は、低解像度画像の1画素の輝度値データを生成する撮像素子の1画素によって、異なる位置から複数回撮像されることになる。この輝度値データを高解像度画像の1画素に相当する中心領域の輝度値データに反映させることによって、基準画素領域内の輝度値データ数を増やす、すなわち解像度を向上させることができる。   By setting the imaging position in this way, the reference pixel region is imaged a plurality of times from different positions by one pixel of the imaging element that generates luminance value data of one pixel of the low resolution image. By reflecting this luminance value data in the luminance value data of the central area corresponding to one pixel of the high resolution image, the number of luminance value data in the reference pixel area can be increased, that is, the resolution can be improved.

なお、図18の例では、低解像度画像の1画素に相当する領域および基準画素領域を1つのみ図示しているが、実際の撮像装置では、撮像素子がマトリクス状に配列しているので、低解像度画像の1画素に相当する領域および基準画素領域もマトリクス状に配列することになる。   In the example of FIG. 18, only one region corresponding to one pixel of the low resolution image and one reference pixel region are illustrated. However, in an actual imaging device, the imaging elements are arranged in a matrix, An area corresponding to one pixel of the low resolution image and a reference pixel area are also arranged in a matrix.

ここで、複数の低解像度画像を撮像するときに、撮像位置ごとに撮像条件を変える場合には、同じ撮像条件で撮像した低解像度画像に対応する中心領域が、マトリクス状に配列した基準画素領域内で密集することがある。   Here, when capturing a plurality of low-resolution images, if the imaging conditions are changed for each imaging position, the central area corresponding to the low-resolution images captured under the same imaging conditions is a reference pixel area arranged in a matrix May be crowded within.

例えば、図18の例において、(a)、(c)、(e)、(g)、(i)の5つを第1撮像条件で撮像し、残りを第2撮像条件で撮像した場合には、P13、P33、P53、P73、P93の撮像条件が全て第1撮像条件になり、P23、P43、P63、P83の撮像条件が全て第2撮像条件になる。このような配置の中心領域を含む基準画素領域がマトリクス状に配列するので、P13の左、左上、および上の3方向にも、第1撮像条件の中心領域が配置されることになる。同様に、P33、P73、P93についても3方向に隣接する中心領域の撮像条件は第1撮像条件となる。つまり、この場合には、マトリクス状に配列した基準画素領域において、第1撮像条件の中心領域が4つ集まった密集領域が形成される。   For example, in the example of FIG. 18, when (a), (c), (e), (g), and (i) are imaged under the first imaging condition and the rest are imaged under the second imaging condition. The imaging conditions of P13, P33, P53, P73, and P93 are all the first imaging conditions, and the imaging conditions of P23, P43, P63, and P83 are all the second imaging conditions. Since the reference pixel regions including the central region of such an arrangement are arranged in a matrix, the central region of the first imaging condition is also arranged in the three directions on the left, upper left, and upper side of P13. Similarly, for P33, P73, and P93, the imaging condition of the center region adjacent in the three directions is the first imaging condition. That is, in this case, a dense region in which four central regions of the first imaging condition are gathered is formed in the reference pixel regions arranged in a matrix.

このような密集領域が形成された場合に、第1撮像条件で撮像した低解像度画像に例えばハレーションが発生したときには、この密集領域の輝度値データがまとめて欠落するおそれがある。広い領域で輝度値データが欠落した場合には、欠落部分を補間したとしても、補間に用いられる輝度値データが、欠落部分から離れた位置となるので、生成される高解像度画像の高解像度化精度は著しく低下してしまう。   When such a dense area is formed, for example, when halation occurs in the low-resolution image captured under the first imaging condition, there is a possibility that the luminance value data of the dense area is lost collectively. When luminance value data is missing in a wide area, even if the missing part is interpolated, the luminance value data used for interpolation will be located away from the missing part, so the resolution of the generated high-resolution image will be increased. The accuracy is significantly reduced.

このような問題を解決するためには、例えば同じ撮像位置で撮像条件を変えて複数回撮像を行なうことにより、複数組の低解像度画像セットを生成して、各低解像度画像セットを合成した合成撮像画像セットを用いることが考えられる。なお、1組の撮像画像セットは、何れも同じ撮像条件で撮像されたものであり、1つの撮像画像セットによって1枚の高解像度画像を生成することができるものとする。   In order to solve such a problem, for example, a plurality of sets of low resolution image sets are generated by changing the imaging conditions at the same imaging position and imaging is performed a plurality of times, and each low resolution image set is synthesized. It is conceivable to use a captured image set. Note that each set of captured image sets is captured under the same imaging condition, and one high-resolution image can be generated by one captured image set.

このように、複数組の低解像度画像セットを用いる場合には、低解像度画像セットの中にハレーションが発生した低解像度画像が含まれていたとしても、その低解像度画像の輝度値データを、他の低解像度画像セットに含まれる低解像度画像データで置換することができるので、高解像度化精度を低下させることがない。   As described above, when a plurality of low resolution image sets are used, even if the low resolution image set includes a low resolution image in which halation has occurred, the brightness value data of the low resolution image is Therefore, the resolution can be replaced with the low-resolution image data included in the low-resolution image set.

しかしながら、複数組の低解像度画像セットを用いる場合には、用いる組数分だけ撮像に要する時間が倍増するという難点がある。   However, when using a plurality of sets of low-resolution images, there is a problem that the time required for imaging is doubled by the number of sets to be used.

そこで、上記の構成によれば、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置を設定している。   Therefore, according to the above configuration, for a low resolution image captured under at least one imaging condition, the central region is arranged at a uniform or substantially uniform position with respect to the entire reference pixel region arranged in a matrix. The first imaging position that is the imaging position to be set is set.

これにより、複数の撮像条件のいずれかで例えばハレーションが発生した場合であっても、中心領域が均一に配置される第1撮像位置で撮像した低解像度画像の輝度値データによって欠落した輝度値データを補間することができる。つまり、均一に配置された中心領域から輝度値データを補間する場合には、欠落部分の補間に、該欠落部分と近い位置の輝度値データが用いられるので、高解像度画像の高解像度化精度の低下を抑えることができる。   Thereby, even if, for example, halation occurs in any of a plurality of imaging conditions, the luminance value data lost due to the luminance value data of the low-resolution image captured at the first imaging position where the central region is uniformly arranged Can be interpolated. That is, when the luminance value data is interpolated from the uniformly arranged central region, the luminance value data at a position close to the missing portion is used for interpolation of the missing portion. The decrease can be suppressed.

すなわち、上記の構成によれば、撮像枚数を増加させることなく、また高解像度化精度を低下させることなく、ダイナミックレンジの拡大された高解像度画像を生成することができる。   That is, according to the above configuration, it is possible to generate a high-resolution image with an expanded dynamic range without increasing the number of captured images and without reducing the resolution accuracy.

また、上記第1撮像位置設定手段は、マトリクス状に配列された上記基準画素領域の1つに含まれる、上記中心領域間の距離を算出すると共に、当該基準画素領域に含まれる中心領域と、当該基準画素領域に隣接する基準画素領域に含まれる各中心領域との距離を算出し、算出した距離の最小値が最大となるように上記第1撮像位置を設定することが好ましい。   In addition, the first imaging position setting unit calculates a distance between the center regions included in one of the reference pixel regions arranged in a matrix, and includes a center region included in the reference pixel region; It is preferable to calculate the distance from each center area included in the reference pixel area adjacent to the reference pixel area, and set the first imaging position so that the minimum value of the calculated distance is maximized.

上記の構成によれば、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置を演算で求めることができる。   According to the above configuration, it is possible to obtain an imaging position where the central region is arranged at a uniform or substantially uniform position with respect to the entire reference pixel region arranged in a matrix.

また、上記画像生成装置は、上記第1撮像位置以外の撮像位置を、上記基準画素領域内に総撮像回数に等しい数の中心領域をマトリクス状に配置したときの、各中心領域のそれぞれに対応する第2撮像位置から選択して設定する第2撮像位置設定手段を備えていることが好ましい。   In addition, the image generation apparatus corresponds to each of the center regions when the image pickup positions other than the first image pickup position are arranged in a matrix in the reference pixel region with a number of center regions equal to the total number of image pickup times. It is preferable to include second imaging position setting means for selecting and setting from the second imaging position.

上述のように、高解像度画像の各画素は、低解像度画像の各画素に基づいて求められる。そして、高解像度画像の各画素は、マトリクス状に配列しているので、上記中心領域は、マトリクス状に配置されていることが好ましい。   As described above, each pixel of the high resolution image is obtained based on each pixel of the low resolution image. Since the pixels of the high resolution image are arranged in a matrix, the central region is preferably arranged in a matrix.

そこで、上記の構成によれば、まず、総撮像回数に等しい数の中心領域を均一またはほぼ均一に配置したときの、各中心領域のそれぞれに対応する第2撮像位置を設定している。図18の例では、全ての低解像度画像が、この第2撮像位置で撮像されている。   Therefore, according to the above configuration, first, the second imaging positions corresponding to the respective central regions when the number of the central regions equal to the total number of times of imaging are arranged uniformly or substantially uniformly are set. In the example of FIG. 18, all the low resolution images are captured at the second imaging position.

ここで、全ての低解像度画像をこの第2撮像位置で撮像した場合には、上述のように、同じ撮像条件に対応する中心領域が密集するという問題がある。そこで、上記の構成によれば、第1撮像位置以外の撮像位置を第2撮像位置から選択して設定している。   Here, when all the low-resolution images are imaged at the second imaging position, there is a problem in that the central areas corresponding to the same imaging condition are dense as described above. Therefore, according to the above configuration, an imaging position other than the first imaging position is selected and set from the second imaging position.

これにより、中心領域の一部をマトリクス状の配置とすることができると共に、中心領域の別の一部をマトリクス状に配列された上記基準画素領域の全体に対して分散した配置とすることができる。したがって、撮像枚数を増加させることなく、また高解像度化精度を低下させることなく、ダイナミックレンジの拡大された高解像度画像を生成することができると共に、高解像度画像の精度を高めることができる。   Thereby, a part of the central area can be arranged in a matrix, and another part of the central area can be distributed over the entire reference pixel area arranged in a matrix. it can. Therefore, it is possible to generate a high-resolution image with an expanded dynamic range without increasing the number of images to be taken and without reducing the resolution enhancement accuracy, and it is possible to improve the accuracy of the high-resolution image.

また、上記画像生成装置は、上記第2撮像位置のうち上記第2撮像位置設定手段によって選択されなかった撮像位置から、上記第1撮像位置と最短距離にある撮像位置を選択し、該選択した撮像位置と、上記第1撮像位置とを重み付け平均して該第1撮像位置を補正する重み付け撮像位置設定手段を備えていることが好ましい。   Further, the image generation device selects an imaging position that is the shortest distance from the first imaging position from the imaging positions that are not selected by the second imaging position setting unit among the second imaging positions, and selects the selected imaging position. It is preferable to include weighted imaging position setting means for correcting the first imaging position by weighted averaging of the imaging position and the first imaging position.

上記の構成によれば、第1撮像位置が、第1撮像位置と第2撮像位置との間の、重みに応じた位置に補正される。ここで、上述のように、第1撮像位置は、中心領域をマトリクス状に配列された基準画素領域の全体に対して分散した配置とするための撮像位置であり、第2撮像位置は、中心領域をマトリクス状の配置とするための撮像位置である。   According to the above configuration, the first imaging position is corrected to a position corresponding to the weight between the first imaging position and the second imaging position. Here, as described above, the first imaging position is an imaging position for disposing the center area with respect to the entire reference pixel area arranged in a matrix, and the second imaging position is the center. This is an imaging position for arranging the regions in a matrix.

そして、上記の構成によれば、重みを設定することにより、第1撮像位置を第2撮像位置寄りに補正することができる。これにより、必要に応じて、中心領域をマトリクス状に配列された基準画素領域の全体に対して分散させることを重視した撮像位置を設定することもできるし、中心領域をマトリクス状の配置とすることを重視した撮像位置を設定することもできる。なお、第1および第2撮像位置は、何れもメリットとデメリットとを有しているので、必要に応じて重みを変更できるように構成することがさらに好ましい。   And according to said structure, a 1st imaging position can be correct | amended near a 2nd imaging position by setting a weight. Thereby, if necessary, it is possible to set an imaging position that places importance on dispersion of the central area over the entire reference pixel area arranged in a matrix, and the central area is arranged in a matrix. It is also possible to set an imaging position that emphasizes this. Since both the first and second imaging positions have merits and demerits, it is more preferable that the weights can be changed as necessary.

また、上記撮像条件は、露光時間、絞り、光学フィルタ、および撮像感度の少なくとも1つであることが好ましい。   The imaging condition is preferably at least one of exposure time, aperture, optical filter, and imaging sensitivity.

上記のような撮像条件を異ならせた複数の低解像度画像を用いることにより、高解像度画像のダイナミックレンジを拡大することができる。   By using a plurality of low-resolution images with different imaging conditions as described above, the dynamic range of the high-resolution image can be expanded.

また、上記撮像条件は、上記撮像対象の明度、反射率、および上記撮像対象に照射される照明の強度の少なくとも一つに応じて設定されていることが好ましい。   Moreover, it is preferable that the imaging condition is set according to at least one of brightness, reflectance, and intensity of illumination irradiated on the imaging target.

上述のように、複数の撮像条件で撮像を行なうのは、高解像度画像のダイナミックレンジを拡大するためである。したがって、撮像条件は、ダイナミックレンジを効率よく拡大できるように設定されていることが好ましいが、撮像対象や撮像対象に照射される照明の強度が変われば、好適な撮像条件の設定もそれに応じて変わることになる。   As described above, the imaging is performed under a plurality of imaging conditions in order to expand the dynamic range of the high resolution image. Therefore, it is preferable that the imaging conditions are set so that the dynamic range can be efficiently expanded. However, if the intensity of illumination irradiated to the imaging target or the imaging target changes, a suitable imaging condition is set accordingly. Will change.

そこで、上記の構成によれば、撮像対象の明度、反射率、および上記撮像対象に照射される照明の強度の少なくとも一つに応じて設定された撮像条件を用いるようにしている。これにより、ダイナミックレンジを効率よく拡大することができる。   Therefore, according to the above configuration, an imaging condition set in accordance with at least one of the brightness and reflectance of the imaging target and the intensity of illumination applied to the imaging target is used. Thereby, a dynamic range can be expanded efficiently.

例えば、撮像対象の明度、反射率、および上記撮像対象に照射される照明の強度が高いほど、露光時間を短く設定することによって、低解像度画像におけるハレーションの発生を防ぎ、ダイナミックレンジを効率よく拡大することができる。   For example, the higher the lightness, reflectance, and illumination intensity of the imaged object, the shorter the exposure time, thereby preventing halation in low-resolution images and efficiently expanding the dynamic range. can do.

また、第1撮像位置で撮像された低解像度画像の各画素の輝度値は、ハレーション等によって欠落した輝度値データの補間に用いられるので、第1撮像位置で撮像された低解像度画像には、他の撮像条件と比べてハレーション等が発生し難い撮像条件を割り当てることが好ましい。   In addition, since the luminance value of each pixel of the low-resolution image captured at the first imaging position is used for interpolation of luminance value data lost due to halation or the like, the low-resolution image captured at the first imaging position includes It is preferable to assign an imaging condition in which halation or the like is unlikely to occur compared to other imaging conditions.

また、本発明の上記とは別の画像生成装置は、上記課題を解決するために、同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置であって、上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、上記複数の低解像度画像は、該低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように撮像されたものであると共に、上記複数種類のうちの1つの撮像条件で撮像する低解像度画像は、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置されるように撮像されたものであることを特徴としている。   Further, in order to solve the above-described problem, an image generation apparatus different from the above of the present invention has a plurality of low-capacity images obtained by imaging the same imaging target under one of a plurality of types of imaging conditions with different imaging positions. An image generation apparatus that generates one high-resolution image with an increased resolution from a resolution image, wherein a reference imaging position in which reference pixel regions having a shape corresponding to one pixel of the low-resolution image are arranged in a matrix is obtained. When set virtually, the plurality of low-resolution images are located at the center of the shape corresponding to one pixel of the low-resolution image, and the central region having the shape corresponding to one pixel of the high-resolution image, A low-resolution image that is captured so as to be included in the reference pixel region and that is captured under one of the plurality of types of image capturing conditions is the entire reference pixel region arranged in a matrix. In contrast, it is characterized in that which is captured as the central region is arranged in a uniform or substantially uniform position.

上記の構成によれば、高解像度画像に複数種類の撮像条件による低解像度画像が反映されるので、1種類の撮像条件のみで撮像された低解像度画像を用いる場合と比べて、高解像度画像のダイナミックレンジを拡大することができる。   According to the above configuration, the low-resolution image based on a plurality of types of imaging conditions is reflected in the high-resolution image, so that the high-resolution image is compared with the case where the low-resolution image captured using only one type of imaging condition is used. The dynamic range can be expanded.

また、上記の構成によれば、何れかの撮像条件で撮像された低解像度画像にハレーション等が発生した場合であっても、中心領域が均一に配置される第1撮像位置で撮像した低解像度画像の輝度値データによって欠落した輝度値データを補間することができるので、高解像度画像の高解像度化精度の低下を抑えることができる。   Further, according to the above configuration, even when halation or the like occurs in a low-resolution image captured under any imaging condition, the low-resolution captured at the first imaging position where the central region is uniformly arranged Since the missing luminance value data can be interpolated by the luminance value data of the image, it is possible to suppress a decrease in the resolution accuracy of the high resolution image.

すなわち、上記の構成によれば、使用する低解像度画像の数を増加させることなく、また高解像度化精度を低下させることなく、ダイナミックレンジの拡大された高解像度画像を生成することができる。   That is, according to the above configuration, it is possible to generate a high-resolution image with an expanded dynamic range without increasing the number of low-resolution images to be used and without reducing the resolution accuracy.

なお、上記画像生成装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像生成装置の各手段として動作させることにより、上記画像生成装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   The image generation apparatus may be realized by a computer. In this case, a control program for causing the image generation apparatus to be realized by a computer by causing the computer to operate as each unit of the image generation apparatus, and A computer-readable recording medium on which it is recorded also falls within the scope of the present invention.

以上のように、本発明に係る画像生成装置は、複数の低解像度画像の撮像位置を設定する撮像位置決定手段と、上記撮像位置決定手段が設定した撮像位置で撮像された上記複数の低解像度画像を取得して上記高解像度画像を生成する高解像度画像生成手段とを備え、上記撮像位置決定手段は、上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、上記低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように、上記複数の低解像度画像の撮像位置を設定し、かつ上記複数種類のうち、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置を設定する第1撮像位置設定手段を備えている構成である。   As described above, the image generation apparatus according to the present invention includes the imaging position determination unit that sets the imaging positions of a plurality of low resolution images, and the plurality of low resolutions that are captured at the imaging positions set by the imaging position determination unit. A high-resolution image generation unit configured to acquire an image and generate the high-resolution image. The imaging position determination unit includes reference pixel regions having a shape corresponding to one pixel of the low-resolution image arranged in a matrix. When the reference image pickup position is virtually set, a center region having a shape corresponding to one pixel of the high resolution image located at the center of the shape corresponding to one pixel of the low resolution image is the reference pixel. The imaging positions of the plurality of low-resolution images are set so as to be included in the region, and the matrix for the low-resolution images captured under at least one imaging condition among the plurality of types is set. 1st imaging position setting means which sets the 1st imaging position which is the imaging position where the above-mentioned center field is arranged in the uniform or almost uniform position to the whole above-mentioned reference pixel area arranged in a shape It is a configuration.

また、以上のように、本発明に係る画像生成方法は複数の低解像度画像の撮像位置を設定する撮像位置設定ステップと、上記撮像位置設定ステップで設定された撮像位置で撮像された上記複数の低解像度画像を取得して上記高解像度画像を生成する高解像度画像生成ステップとを含み、上記撮像位置設定ステップは、上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、上記低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように、上記複数の低解像度画像の撮像位置を設定し、かつ上記複数種類のうち、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置を設定する第1撮像位置設定ステップを含む構成である。   As described above, the image generation method according to the present invention includes the imaging position setting step for setting the imaging positions of a plurality of low-resolution images, and the plurality of images captured at the imaging positions set in the imaging position setting step. A high-resolution image generation step of acquiring a low-resolution image and generating the high-resolution image, wherein the imaging position setting step includes a matrix of reference pixel regions having a shape corresponding to one pixel of the low-resolution image When the arranged reference imaging positions are set virtually, a central region having a shape corresponding to one pixel of the high-resolution image located at the center of the shape corresponding to one pixel of the low-resolution image is A low-resolution image that is set under the imaging positions of the plurality of low-resolution images so as to be included in the reference pixel region and that is captured under at least one imaging condition among the plurality of types. With respect to the first imaging position setting step, a first imaging position setting step for setting a first imaging position that is an imaging position where the central area is arranged at a uniform or substantially uniform position with respect to the entire reference pixel area arranged in a matrix. It is the structure containing.

また、以上のように、本発明に係る、上記とは別の画像生成装置は、同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置であって、低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、上記複数の低解像度画像は、該低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように撮像されたものであると共に、上記複数種類のうちの1つの撮像条件で撮像する低解像度画像は、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置されるように撮像されたものである。   In addition, as described above, the image generation apparatus different from the above according to the present invention has a plurality of low resolutions in which the same imaging target is imaged under one of a plurality of types of imaging conditions with different imaging positions. An image generation apparatus that generates one high-resolution image with an increased resolution from an image, wherein a reference imaging position in which reference pixel areas having a shape corresponding to one pixel of a low-resolution image are arranged in a matrix is virtually The plurality of low-resolution images are located in the center of the shape corresponding to one pixel of the low-resolution image, and the central region having the shape corresponding to one pixel of the high-resolution image is the reference region A low-resolution image that is imaged so as to be included in the pixel region and is imaged under one of the plurality of types of imaging conditions is based on the entire reference pixel region arranged in a matrix. Those captured as serial central region is disposed in a uniform or substantially uniform position.

したがって、撮像枚数を増加させることなく、また高解像度化精度を低下させることなく、ダイナミックレンジの拡大された高解像度画像を生成することができるという効果を奏する。   Therefore, there is an effect that it is possible to generate a high-resolution image with an expanded dynamic range without increasing the number of captured images and without reducing the resolution enhancement accuracy.

本発明の一実施形態について図1から図16に基づいて説明すると以下の通りである。   An embodiment of the present invention will be described below with reference to FIGS.

〔画像処理システムの構成〕
本実施形態の画像処理システム(画像生成装置)1の構成について、図2に基づいて説明する。図2は、画像処理システム1の要部構成を示すブロック図である。図示のように、画像処理システム1は、撮像位置決定装置(撮像位置決定手段)10と、撮像装置20と、制御装置30とを含む構成である。
[Configuration of image processing system]
The configuration of the image processing system (image generation apparatus) 1 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a main configuration of the image processing system 1. As illustrated, the image processing system 1 includes an imaging position determination device (imaging position determination means) 10, an imaging device 20, and a control device 30.

撮像位置決定装置10は、撮像装置20が撮像対象を撮像するときの撮像位置を決定するものである。また、撮像装置20は、制御装置30の指示に従って撮像対象の撮像を行なう装置であり、制御装置30は、撮像装置20の動作制御を行なうと共に、撮像装置20が取得した撮像対象の画像データ(以下、撮像画像データと呼ぶ)に超解像処理を施して、高解像度画像データを生成する。   The imaging position determination device 10 determines an imaging position when the imaging device 20 captures an imaging target. The imaging device 20 is a device that captures an image of an imaging target in accordance with an instruction from the control device 30. The control device 30 controls the operation of the imaging device 20, and also acquires image data (the imaging target acquired by the imaging device 20) ( Hereinafter, super-resolution processing is performed on the captured image data) to generate high-resolution image data.

本発明は、撮像装置20が撮像対象の撮像を行なうときの撮像位置を、撮像位置決定装置10で決定することによって、撮像回数を増加させることなく、ダイナミックレンジの拡大された高解像度画像データを生成する点に主な特徴がある。以下において、画像処理システム1の各構成である撮像位置決定装置10、撮像装置20および制御装置30の詳細について説明する。   In the present invention, the imaging position determination apparatus 10 determines the imaging position when the imaging apparatus 20 performs imaging of the imaging target, thereby increasing high-resolution image data with an expanded dynamic range without increasing the number of imaging. The main feature is in the point of generation. Hereinafter, details of the imaging position determination device 10, the imaging device 20, and the control device 30 which are the components of the image processing system 1 will be described.

まず、撮像位置決定装置10について説明する。撮像位置決定装置10は、図示のように記憶部11と、撮像位置計算部12を備えている。   First, the imaging position determination device 10 will be described. The imaging position determination apparatus 10 includes a storage unit 11 and an imaging position calculation unit 12 as illustrated.

記憶部11は、撮像装置20の撮像条件と、該撮像条件で撮像する撮像画像データの枚数とを対応付けた撮像情報を記憶している。すなわち、画像処理システム1では、複数の撮像条件で、それぞれ所定回数の撮像が行なわれ、この撮像で得られた撮像画像データを用いて高解像度画像データが生成される。また、記憶部11には、上記撮像情報の他に、各撮像条件における撮像位置を示す組合せ別撮像位置が記憶される。さらに、該組合せ別撮像位置に重み付けを行なうための組合せ別重みが記憶される。なお、これらの情報の詳細については後述する。   The storage unit 11 stores imaging information in which imaging conditions of the imaging device 20 are associated with the number of captured image data captured under the imaging conditions. That is, in the image processing system 1, imaging is performed a predetermined number of times under a plurality of imaging conditions, and high-resolution image data is generated using the captured image data obtained by the imaging. In addition to the imaging information, the storage unit 11 stores combination-specific imaging positions that indicate imaging positions under each imaging condition. Further, a combination-specific weight for weighting the combination-specific imaging position is stored. Details of these pieces of information will be described later.

以下では、撮像条件として露光時間(シャッタースピード)を用いる例について説明する。ただし、撮像条件は、この例に限られず、撮像感度、使用する光学フィルタ、及びアイリス(絞り)を示すデータ、および、これらを組み合わせたデータを用いることもできる。   Below, the example which uses exposure time (shutter speed) as an imaging condition is demonstrated. However, the imaging conditions are not limited to this example, and data indicating imaging sensitivity, an optical filter to be used, an iris (aperture), and data combining these can also be used.

なお、これらの撮像条件は、撮像対象の明度、反射率、および撮像時の照明強度の少なくとも1つに応じて設定されたものであることが好ましい。すなわち、撮像対象の明度、反射率、および撮像時の照明強度が高い場合には、撮像画像データにハレーションが発生しやすいので、このような場合には、露光時間を短めに設定することが好ましい。同様に、撮像対象の明度、反射率、および撮像時の照明強度が低い場合には、露光時間を長めに設定することが好ましい。   In addition, it is preferable that these imaging conditions are set according to at least one of the brightness of the imaging target, the reflectance, and the illumination intensity at the time of imaging. That is, when the brightness, reflectance, and illumination intensity at the time of imaging are high, halation is likely to occur in the captured image data. In such a case, it is preferable to set the exposure time short. . Similarly, when the brightness, reflectance, and illumination intensity during imaging are low, it is preferable to set the exposure time longer.

撮像位置計算部12は、撮像装置20が撮像対象を撮像する撮像位置を決定する。撮像位置計算部12は、記憶部11に格納されている上記撮像情報等を参照し、撮像条件ごとの撮像画像データの撮像位置を決定する。そして、撮像位置計算部12は、撮像条件と該撮像条件における撮像位置とを対応づけて撮像条件保存部32に保存する。なお、撮像位置計算部12が行なう処理の詳細については後述する。   The imaging position calculation unit 12 determines an imaging position at which the imaging device 20 captures an imaging target. The imaging position calculation unit 12 refers to the imaging information stored in the storage unit 11 and determines the imaging position of the captured image data for each imaging condition. Then, the imaging position calculation unit 12 associates the imaging conditions with the imaging positions in the imaging conditions and stores them in the imaging condition storage unit 32. Details of the processing performed by the imaging position calculation unit 12 will be described later.

次に撮像装置20について説明する。撮像装置20は、図示のように、レンズ21、撮像素子22、及びアクチュエータ23を備えている。すなわち、撮像装置20では、撮像対象から反射した光を、レンズ21を介して撮像装置20内の撮像素子22に光学的に結像させるようになっている。そして、撮像素子22が、光学的に結像した撮像対象の像を空間的に離散化させてサンプリングし、画像信号に変換することにより、撮像対象の像が画像データとして取得されるようになっている。   Next, the imaging device 20 will be described. The imaging device 20 includes a lens 21, an imaging element 22, and an actuator 23 as illustrated. That is, in the imaging device 20, the light reflected from the imaging target is optically imaged on the imaging element 22 in the imaging device 20 via the lens 21. The imaging element 22 spatially discretizes and samples the image of the imaging target that has been optically imaged, and converts it into an image signal, whereby the imaging target image is acquired as image data. ing.

撮像素子22としては、例えばCCD(charge-coupled device)やCMOS(complementary mental-oxide semiconductor)等を用いることができる。なお、ここでは撮像装置20は、マトリクス状に配列した複数の撮像素子22にて撮像を行なうエリアセンサであることを想定している。   As the imaging element 22, for example, a charge-coupled device (CCD), a complementary mental-oxide semiconductor (CMOS), or the like can be used. Here, it is assumed that the imaging device 20 is an area sensor that performs imaging with a plurality of imaging elements 22 arranged in a matrix.

アクチュエータ23は、撮像対象と撮像素子22との相対位置を変化させるものである。アクチュエータ23は撮像装置20の筐体の内壁に固定されており、撮像素子22はアクチュエータ23によって支持されている。すなわち、アクチュエータ23は、撮像対象とレンズ21とを結ぶ光軸に対して垂直な平面(撮像対象の被撮像面に平行な平面)において撮像素子22を2次元的に移動させることによって、撮像対象と撮像素子22との相対位置を変化させるようになっている。   The actuator 23 changes the relative position between the imaging target and the image sensor 22. The actuator 23 is fixed to the inner wall of the housing of the imaging device 20, and the imaging element 22 is supported by the actuator 23. That is, the actuator 23 moves the imaging element 22 in a two-dimensional manner in a plane perpendicular to the optical axis connecting the imaging target and the lens 21 (a plane parallel to the imaging target surface of the imaging target). And the relative position of the image sensor 22 are changed.

つまり、アクチュエータ23が、撮像対象と撮像素子22との相対位置を変化させることにより、撮像装置20が撮像対象を撮像する撮像位置(撮像領域の撮像対象上の位置)が変化するようになっている。このため、撮像位置は、撮像対象の被撮像面に対して平行な2次元平面上の座標として表現することができる。ここでは、アクチュエータ制御部36が2次元座標を指定することにより、アクチュエータ23は指定された2次元座標で特定される位置に撮像素子を移動させるものとする。なお、アクチュエータ23は、撮像素子22を2次元のみならず、回転を含む3次元で移動させるものであってもよい。   That is, when the actuator 23 changes the relative position between the imaging target and the imaging element 22, the imaging position at which the imaging device 20 captures the imaging target (position on the imaging target in the imaging region) changes. Yes. For this reason, the imaging position can be expressed as coordinates on a two-dimensional plane parallel to the imaging target surface to be imaged. Here, it is assumed that the actuator controller 36 moves the image sensor to a position specified by the designated two-dimensional coordinates by designating the two-dimensional coordinates. The actuator 23 may move the image sensor 22 not only in two dimensions but also in three dimensions including rotation.

アクチュエータ23としては、例えばピエゾアクチュエータやステッピングモータ等を使用することができる。アクチュエータ23は、撮像対象と撮像素子22との相対位置を変化させることができるものであればよく、特に限定されないが、ここではピエゾアクチュエータを用いるものとする。   As the actuator 23, for example, a piezo actuator or a stepping motor can be used. The actuator 23 is not particularly limited as long as it can change the relative position between the imaging target and the image sensor 22, but here, a piezoelectric actuator is used.

次に、制御装置30について説明する。本実施形態に係る制御装置30が行なう超解像処理によれば、撮像画像データに白とびや黒つぶれが発生している場合であっても精度の高い高解像度画像データを生成することができる。また、制御装置30にて実行される超解像処理によれば、従来の超解像処理と比べて広いダイナミックレンジを有する高解像度画像データが生成される。   Next, the control device 30 will be described. According to the super-resolution processing performed by the control device 30 according to the present embodiment, high-resolution image data with high accuracy can be generated even when overexposed or underexposure occurs in the captured image data. . Further, according to the super-resolution processing executed by the control device 30, high-resolution image data having a wider dynamic range than that of the conventional super-resolution processing is generated.

図示のように、制御装置30は、撮像制御部31、撮像条件保存部32、低解像度画像保存部33、高解像度画像保存部34、およびダイナミックレンジ拡大超解像処理部(以下、DR拡大超解像処理部と称する)35を備えており、これらの構成により、上記のような制御装置30の機能が実現されている。   As illustrated, the control device 30 includes an imaging control unit 31, an imaging condition storage unit 32, a low-resolution image storage unit 33, a high-resolution image storage unit 34, and a dynamic range expansion super-resolution processing unit (hereinafter referred to as DR expansion super-resolution). 35) (referred to as a resolution processing unit), and the functions of the control device 30 as described above are realized by these configurations.

撮像制御部31は、図示のように、アクチュエータ制御部36及び撮像タイミング制御部37を備えている。アクチュエータ制御部36は、アクチュエータ23を移動させることによって撮像装置20の撮像位置を制御する。具体的には、アクチュエータ制御部36は、アクチュエータ23の移動開始及び停止のタイミング、移動速度、及び移動距離等の制御を行なう。このようなアクチュエータ制御部36の制御により、撮像装置20において、図18を用いて説明したような撮像位置において撮像を行なうことができる。   The imaging control unit 31 includes an actuator control unit 36 and an imaging timing control unit 37 as illustrated. The actuator control unit 36 controls the imaging position of the imaging device 20 by moving the actuator 23. Specifically, the actuator control unit 36 controls the timing for starting and stopping the movement of the actuator 23, the moving speed, the moving distance, and the like. Under such control of the actuator control unit 36, the imaging device 20 can perform imaging at the imaging position as described with reference to FIG.

撮像タイミング制御部37は、撮像装置20の撮像開始及び停止のタイミングを制御する。具体的には、撮像タイミング制御部37は、アクチュエータ制御部36から送られてくる、撮像装置20の現在の撮像位置を示す情報と、撮像条件保存部32に格納されている撮像条件と、当該撮像条件に対応する撮像位置とに基づいて撮像装置20へ制御信号を送ることにより、各撮像位置における撮像時間、すなわち露光時間を制御する。   The imaging timing control unit 37 controls the timing of starting and stopping imaging of the imaging device 20. Specifically, the imaging timing control unit 37 includes information indicating the current imaging position of the imaging device 20 sent from the actuator control unit 36, imaging conditions stored in the imaging condition storage unit 32, and By sending a control signal to the imaging device 20 based on the imaging position corresponding to the imaging condition, the imaging time at each imaging position, that is, the exposure time is controlled.

画像処理システム1では、撮像タイミング制御部37の指示によって、ある撮像位置にて撮像が行なわれると、撮像装置20は、撮像して得られた撮像画像データに、該撮像画像データを識別可能な識別子(例えば画像番号)を付して低解像度画像保存部33に格納する。   In the image processing system 1, when imaging is performed at a certain imaging position according to an instruction from the imaging timing control unit 37, the imaging device 20 can identify the captured image data from the captured image data obtained by imaging. An identifier (for example, an image number) is attached and stored in the low-resolution image storage unit 33.

この繰り返しによって、撮像位置決定装置10が決定した各撮像位置において、該撮像位置に対応する撮像条件で撮像対象が撮像される。そして、撮像によって得られた撮像画像データが識別子を付されて低解像度画像保存部33に格納される。撮像条件保存部32には、撮像条件と撮像位置とが対応付けて格納されているので、上記識別子を用いることによって、各撮像画像データの撮像位置と撮像条件とを特定することができる。   By repeating this, at each imaging position determined by the imaging position determination device 10, an imaging target is imaged under an imaging condition corresponding to the imaging position. The captured image data obtained by the imaging is attached with an identifier and stored in the low-resolution image storage unit 33. Since the imaging condition storage unit 32 stores the imaging condition and the imaging position in association with each other, the imaging position and the imaging condition of each captured image data can be specified by using the identifier.

なお、以下では、1枚の高解像度画像データを生成するために用いられる撮像画像データの枚数をm(mは正数)とし、1枚の高解像度画像データに対応するm枚一組の撮像画像データを撮像画像セットとして説明を行なう。   In the following description, the number of captured image data used to generate one piece of high-resolution image data is m (m is a positive number), and a set of m pieces of images corresponding to one piece of high-resolution image data. The image data will be described as a captured image set.

詳細については後述するが、画像処理システム1では、露光時間の異なる複数の撮像画像セットを用いることによって、超解像処理にて生成される高解像度画像データのダイナミックレンジを拡大させることもできる。ここでは、撮像画像セットの数をn(nは正数)とする。この場合には、低解像度画像保存部33には、m×n枚の撮像画像データymnが格納されることになる。 Although details will be described later, in the image processing system 1, the dynamic range of the high-resolution image data generated by the super-resolution processing can be expanded by using a plurality of captured image sets having different exposure times. Here, the number of captured image sets is n (n is a positive number). In this case, m × n pieces of captured image data y mn are stored in the low resolution image storage unit 33.

また、詳細については後述するが、画像処理システム1では、露光時間の異なる複数の撮像画像データからなる1組の撮像画像セットを用いることによって、超解像処理にて生成される高解像度画像データのダイナミックレンジを拡大させることもできる。この場合には、低解像度画像保存部33には、m枚の撮像画像データyが格納されることになる。 Although details will be described later, in the image processing system 1, high-resolution image data generated by super-resolution processing by using one set of captured image data composed of a plurality of captured image data having different exposure times. The dynamic range of can also be expanded. In this case, the low resolution image storage unit 33, so that m pieces of captured image data y m is stored.

高解像度画像保存部34は、低解像度画像保存部33に格納されている撮像画像データyまたはymnを用いて超解像処理を行なうことによって生成された高解像度画像データhを格納する。なお、上記従来の超解像処理と同様に、超解像処理を行なうためには初期高解像度画像データを用いる必要があるため、超解像処理を行なう前に、予め高解像度画像保存部34に初期高解像度画像データを格納しておく。 The high resolution image storage unit 34 stores the high resolution image data h generated by performing the super-resolution processing using the captured image data y m or y mn stored in the low resolution image storage unit 33. As in the conventional super-resolution process, since it is necessary to use initial high-resolution image data in order to perform the super-resolution process, the high-resolution image storage unit 34 is preliminarily used before the super-resolution process. The initial high resolution image data is stored in.

初期高解像度画像データは、超解像処理にて生成したい解像度の画像であればよく、特に限定されない。例えば、撮像画像データの解像度を3倍にする場合には、各画素のサイズが撮像画像データの1/3となる全面が均一の黒画像や白画像、または灰色画像を初期高解像度画像データとして用いることができる。   The initial high-resolution image data is not particularly limited as long as it is an image having a resolution desired to be generated by the super-resolution processing. For example, when the resolution of the captured image data is tripled, a black image, a white image, or a gray image having a uniform entire surface where the size of each pixel is 1/3 of the captured image data is used as the initial high resolution image data. Can be used.

DR拡大超解像処理部35は、低解像度画像保存部33に格納された撮像画像データを高解像度化して高解像度画像データを生成する超解像処理を行なう。具体的には、DR拡大超解像処理部35は、低解像度画像保存部33に格納された撮像画像データと、高解像度画像保存部34に格納された高解像度画像データ42とに基づいて、新規の高解像度画像データを生成し、生成した高解像度画像データを高解像度画像保存部34に格納する。なお、DR拡大超解像処理部35が実行する超解像処理の詳細については後述する。   The DR enlargement super-resolution processing unit 35 performs super-resolution processing for generating high-resolution image data by increasing the resolution of the captured image data stored in the low-resolution image storage unit 33. Specifically, the DR expansion super-resolution processing unit 35 is based on the captured image data stored in the low-resolution image storage unit 33 and the high-resolution image data 42 stored in the high-resolution image storage unit 34. New high-resolution image data is generated, and the generated high-resolution image data is stored in the high-resolution image storage unit 34. Details of the super-resolution processing executed by the DR expansion super-resolution processing unit 35 will be described later.

〔複数組の撮像画像セットを用いる場合の例〕
画像処理システム1では、撮像位置決定装置10が撮像画像データの撮像位置を適切に設定することにより、超解像処理に用いる撮像画像データの枚数を増加させることなく、ダイナミックレンジが拡大された高解像度画像データを生成することができるようになっている。
[Example of using multiple captured image sets]
In the image processing system 1, the imaging position determination device 10 appropriately sets the imaging position of the captured image data, thereby increasing the dynamic range without increasing the number of captured image data used for the super-resolution processing. Resolution image data can be generated.

ここでは、まず、上記構成の前提となる構成、すなわち超解像処理に用いる撮像画像データの枚数を増加させる(複数組の撮像画像セットを用いる)ことによって、ダイナミックレンジが拡大された高解像度画像データを生成する例について説明する。   Here, first, a high-resolution image whose dynamic range is expanded by increasing the number of captured image data used for super-resolution processing (using a plurality of captured image sets), which is a premise of the above configuration. An example of generating data will be described.

上述のように、異なる撮像位置で撮像されたN枚の撮像画像データを用いることによって、撮像画像データのN倍の解像度を有する高解像度画像データを生成することができる。なお、上記N枚の撮像画像データは、何れも同じ撮像条件で撮像したものである。つまり、1組の撮像画像セットに含まれる各撮像画像データは、何れも同じ撮像条件で撮像されたものであり、異なる撮像画像セットに含まれる各撮像画像データは、何れも異なる撮像条件で撮像されたものということになる。 As described above, high-resolution image data having N times the resolution of the captured image data can be generated by using N 2 captured image data captured at different imaging positions. Note that the N 2 sheets of captured image data are all captured under the same imaging conditions. That is, each captured image data included in one set of captured image sets is captured under the same imaging conditions, and each captured image data included in different captured image sets is captured under different imaging conditions. It will be what was done.

DR拡大超解像処理部35は、互いに異なる撮像条件での撮像によって得られた複数組の撮像画像セットを用いて1枚の高解像度画像データを生成することにより、1組の撮像画像セットを用いる場合と比べて、高解像度画像データのダイナミックレンジを拡大することが可能である。この場合には、低解像度画像保存部33に格納されるm×n枚の撮像画像データymnを用いて高解像度画像データの生成が行われる。 The DR expansion super-resolution processing unit 35 generates one set of captured image sets by generating one set of high-resolution image data using a plurality of sets of captured image sets obtained by imaging under different imaging conditions. Compared to the case of using it, the dynamic range of the high-resolution image data can be expanded. In this case, high-resolution image data is generated using m × n pieces of captured image data y mn stored in the low-resolution image storage unit 33.

〔DR拡大超解像処理部の詳細構成〕
続いて、DR拡大超解像処理部35の詳細な構成について図3に基づいて説明する。図3は、DR拡大超解像処理部35の要部構成を示すブロック図である。図示のように、DR拡大超解像処理部35は、正規化処理部43、画像合成部44、差分画像生成部45、擬似低解像度画像生成部46、領域抽出部47、画像更新部48を備えている。
[Detailed configuration of DR expansion super-resolution processing unit]
Next, a detailed configuration of the DR expansion super-resolution processing unit 35 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a main configuration of the DR expansion super-resolution processing unit 35. As shown in the figure, the DR expansion super-resolution processing unit 35 includes a normalization processing unit 43, an image synthesis unit 44, a difference image generation unit 45, a pseudo low-resolution image generation unit 46, a region extraction unit 47, and an image update unit 48. I have.

正規化処理部43は、撮像画像セットの中に、異なる撮像条件にて撮像されたものが含まれている場合に、上記撮像画像セットに含まれる全ての撮像画像データが、上記異なる撮像条件の1つの撮像条件にて撮像されたものとして処理できるように、各撮像画像データの各画素の輝度値を補正し正規化する。正規化処理部43が行なう正規化処理により、異なる撮像条件で撮像して得られた撮像画像データを含む撮像画像セットを用いて超解像処理を行なうことが可能になる。   When the captured image set includes images captured under different imaging conditions, the normalization processing unit 43 converts all captured image data included in the captured image set to the different imaging conditions. The luminance value of each pixel of each captured image data is corrected and normalized so that it can be processed as being captured under one imaging condition. By the normalization processing performed by the normalization processing unit 43, it is possible to perform super-resolution processing using a captured image set including captured image data obtained by imaging under different imaging conditions.

具体的には、正規化処理部43は、低解像度画像保存部33に格納されているm×n枚の撮像画像データymnを、撮像条件保存部32に保存されている上記m×n枚の撮像画像データymnの撮像に用いられた撮像条件に基づいて正規化処理を行なう。 Specifically, the normalization processing unit 43 converts the m × n pieces of captured image data y mn stored in the low resolution image storage unit 33 into the m × n sheets stored in the imaging condition storage unit 32. Normalization processing is performed on the basis of the imaging conditions used for imaging the captured image data y mn .

また、正規化処理部43が行なう正規化処理には、撮像条件の1つを基準として、他の撮像条件で撮像された撮像データの各画素の輝度値を補正する手法を採用できる。   For the normalization process performed by the normalization processing unit 43, a technique of correcting the luminance value of each pixel of the image data captured under the other image capturing conditions can be employed with one image capturing condition as a reference.

例えば、撮像画像データA,B,Cがあり、各撮像画像データの露光時間がそれぞれa,b,c(a<b<c)である場合を考える。この場合に、露光時間aを基準にすると、撮像画像データB及びCの輝度値を例えば下記の数式(5)にて表すことができる。   For example, consider the case where there are captured image data A, B, and C, and the exposure times of the captured image data are a, b, and c (a <b <c), respectively. In this case, with the exposure time a as a reference, the brightness values of the captured image data B and C can be expressed by, for example, the following mathematical formula (5).

Figure 2010073035
Figure 2010073035

すなわち、露光時間がbの撮像画像データBは、露光時間がaの撮像画像データAに対して、露光時間がb/a倍になっているので、輝度値もb/a倍になっていると予想される。同様に、露光時間がcの撮像画像データCは、露光時間がaの撮像画像データAに対して、露光時間がc/a倍になっているので、輝度値もc/a倍になっていると予想される。   That is, the captured image data B with the exposure time b is b / a times as long as the exposure time is b / a times that of the captured image data A with the exposure time a. It is expected to be. Similarly, the captured image data C with the exposure time c is c / a times as long as the exposure time is c / a times that of the captured image data A with the exposure time a. It is expected that

したがって、露光時間がaの撮像画像データAを基準にした場合には、露光時間がbの撮像画像データの輝度値をa/b倍に補正し、露光時間がc秒の撮像画像データの輝度値をa/c倍に補正することによって、撮像画像データA〜Cの輝度値を全て同等とすることができる。なお、基準とする露光時間は、撮像画像データA〜Cの中から任意のものを選択することができる。   Therefore, when the captured image data A with an exposure time of a is used as a reference, the brightness value of the captured image data with an exposure time of b is corrected to a / b times, and the brightness of the captured image data with an exposure time of c seconds is corrected. By correcting the value by a / c times, all of the luminance values of the captured image data A to C can be made equal. The reference exposure time can be selected from any of the captured image data A to C.

なお、正規化の方法は、上記の例に限られない。例えば、撮像画像データの輝度値の平均値を求め、該求めた平均値に基づいて、各撮像画像データの輝度値が同程度となるように補正を行なうことによって正規化を行ってもよい。また、露光時間以外にも、使用する撮像装置、照明強度、撮像感度、使用するフィルタ、及びアイリス等の撮像条件が異なっている場合にも、超解像処理に用いる全ての撮像画像データが、上記異なる撮像条件の1つの撮像条件にて撮像されたされたものとして処理できるように、各撮像画像データの各画素の輝度値を補正(正規化)する。   Note that the normalization method is not limited to the above example. For example, normalization may be performed by obtaining an average value of the luminance values of the captured image data and performing correction so that the luminance values of the respective captured image data are approximately the same based on the obtained average value. Also, in addition to the exposure time, when the imaging conditions such as the imaging device to be used, the illumination intensity, the imaging sensitivity, the filter to be used, and the iris are different, all the captured image data used for the super-resolution processing is The luminance value of each pixel of each captured image data is corrected (normalized) so that it can be processed as being captured under one of the different imaging conditions.

画像合成部44は、正規化処理部43が正規化した、撮像条件の異なる複数組の撮像画像セットを合成して合成撮像画像データを生成する。具体的には、画像合成部44は、各撮像画像セットに含まれるm枚の撮像画像データについて、撮像位置が対応するもの同士を合成し合成撮像画像データを生成する。これにより、m枚の合成撮像画像データからなる撮像画像セットを1セット得ることができる。   The image composition unit 44 synthesizes a plurality of captured image sets with different imaging conditions normalized by the normalization processing unit 43 to generate composite captured image data. Specifically, the image composition unit 44 synthesizes the m captured image data included in each captured image set with the corresponding image capturing positions to generate composite captured image data. Thereby, one set of captured image sets composed of m pieces of composite captured image data can be obtained.

合成撮像画像データは、複数の異なる撮像条件で撮像して得られた撮像画像データを反映しているので、合成撮像画像データを用いて超解像処理を行なうことにより、生成される高解像度画像データのダイナミックレンジを拡大させることができる。なお、合成撮像画像データの生成方法については後述する。   The composite captured image data reflects the captured image data obtained by imaging under a plurality of different imaging conditions, so that a high resolution image generated by performing super-resolution processing using the composite captured image data The dynamic range of data can be expanded. A method for generating composite captured image data will be described later.

差分画像生成部45は、撮像画像データと擬似低解像度画像データとの差分を差分画像データとして算出し、算出した差分画像データを画像更新部48に送る。なお、撮像画像セットが複数の場合(n≧2)には、差分画像生成部45は、画像合成部44が生成した合成撮像画像データと擬似低解像度画像データとの差分を差分画像データとして算出する。また、擬似低解像度画像データは、擬似低解像度画像生成部46が生成したものを用いる。   The difference image generation unit 45 calculates the difference between the captured image data and the pseudo low-resolution image data as difference image data, and sends the calculated difference image data to the image update unit 48. When there are a plurality of captured image sets (n ≧ 2), the difference image generation unit 45 calculates the difference between the combined captured image data generated by the image synthesis unit 44 and the pseudo low-resolution image data as difference image data. To do. The pseudo low resolution image data generated by the pseudo low resolution image generation unit 46 is used.

擬似低解像度画像生成部46は、高解像度画像保存部34に格納されている高解像度画像データを読み出し、読み出した高解像度画像データの解像度が撮像画像データと同じ解像度となるように低解像度化する。また、擬似低解像度画像生成部46は、高解像度画像データに対してPSFによる変換を行い、撮像画像データのそれぞれに位置合わせされた複数(m枚)の擬似低解像度画像データを生成する。擬似低解像度画像データは、差分画像生成部45に送られて、差分画像データの生成に用いられる。   The pseudo low resolution image generation unit 46 reads the high resolution image data stored in the high resolution image storage unit 34 and reduces the resolution so that the resolution of the read high resolution image data is the same as that of the captured image data. . Further, the pseudo low resolution image generation unit 46 performs conversion by PSF on the high resolution image data, and generates a plurality (m pieces) of pseudo low resolution image data aligned with each of the captured image data. The pseudo low-resolution image data is sent to the difference image generation unit 45 and used for generation of the difference image data.

領域抽出部47は、低解像度画像保存部33に格納された撮像画像データにおける超解像処理に不適な不適正露光領域を検出する。不適正露光領域とは、撮像装置20の有効なダイナミックレンジの範囲外の輝度値を有する領域であり、黒つぶれや白とびが発生している可能性が高い領域である。このような領域が含まれている撮像画像データを超解像処理に用いると、超解像処理の精度が低下したり、繰り返し演算に要する処理時間が長くなったりするという問題が生じる。   The region extraction unit 47 detects an inappropriate exposure region that is inappropriate for the super-resolution processing in the captured image data stored in the low-resolution image storage unit 33. The improper exposure region is a region having a luminance value outside the effective dynamic range of the imaging device 20, and is a region where blackout or whiteout is highly likely to occur. When captured image data including such a region is used for the super-resolution processing, there arises a problem that the accuracy of the super-resolution processing is reduced and the processing time required for the repetitive calculation is increased.

具体的には、領域抽出部47は、m×n枚の撮像画像データのそれぞれについて、輝度値が予め定めた正常範囲から外れている第1領域を抽出し、抽出した領域の各撮像画像データ上の位置を記憶する。また、ここでは、撮像画像データにおいて、上記抽出された第1領域以外の領域を第2領域と呼ぶ。すなわち、領域抽出部47が第1領域を抽出することにより、各撮像画像データは、正常範囲外の輝度値を有する第1領域と、正常範囲内の輝度値を有する第2領域とに分けられる。   Specifically, the area extraction unit 47 extracts, for each of m × n pieces of captured image data, a first area whose luminance value is outside a predetermined normal range, and each captured image data of the extracted area Remember the top position. Here, in the captured image data, an area other than the extracted first area is referred to as a second area. That is, when the region extraction unit 47 extracts the first region, each captured image data is divided into a first region having a luminance value outside the normal range and a second region having a luminance value within the normal range. .

なお、上記正常範囲は、適正露光とみなすことのできる輝度値の上限値と下限値とで規定される輝度値の範囲である。上限値を越えた輝度値を示す領域は、白とびなどのハレーションが発生していると考えられる領域であり、下限値より小さい輝度値を示す領域は、黒くつぶれた状態となっていると考えられる領域である。したがって、上記正常範囲内の輝度値を有する第2領域は、撮像装置20の有効なダイナミックレンジの範囲内での撮像によって得られた輝度値を有する領域ということになる。   Note that the normal range is a range of luminance values defined by an upper limit value and a lower limit value of luminance values that can be regarded as appropriate exposure. An area that shows a luminance value that exceeds the upper limit is an area where halation such as overexposure is considered to occur, and an area that shows a luminance value that is lower than the lower limit is considered to be in a blackened state. It is an area that is Therefore, the second region having the luminance value within the normal range is a region having the luminance value obtained by imaging within the effective dynamic range of the imaging device 20.

また、領域抽出は、画素単位で行ってもよいし、複数の画素を1ブロックとするブロック単位で行ってもよい。例えばx×y画素の領域(x、yは正数)を1ブロックとして撮像画像データを複数のブロックに分割し、各ブロックに含まれる画素の輝度値の平均値に基づいて各ブロックが第1領域に分類されるか否かを判断するようにしてもよい。   The region extraction may be performed in units of pixels, or may be performed in units of blocks in which a plurality of pixels are one block. For example, the captured image data is divided into a plurality of blocks by setting an area of x × y pixels (x and y are positive numbers) as one block, and each block is first based on an average value of luminance values of pixels included in each block. You may make it judge whether it is classified into an area | region.

そして、領域抽出部47が、上記抽出した領域を記憶する記憶方法は、各撮像画像データの全画素について、第1領域か第2領域かが示されているものであればよいが、以下のように記憶しておくことにより、後続の処理を高速化することが可能になる。   The storage method in which the region extraction unit 47 stores the extracted region is not limited as long as the first region or the second region is indicated for all the pixels of each captured image data. By storing in this way, it is possible to speed up subsequent processing.

すなわち、領域抽出部47は、m×n枚の撮像画像データと同じサイズのメモリ空間Zmnを設定する。そして、撮像画像データにおいて第1領域であると判断された画素に対応する上記メモリ空間Zmn上の画素位置には1をセットし、第2領域であると判断された画素に対応する上記メモリ空間Zmn上の画素位置には255をセットする。これにより、メモリ空間Zmnでは、白とびまたは黒つぶれしている画素の位置には1の値が格納され、ダイナミックレンジ内の画素の位置には255の値が格納される。 That is, the region extraction unit 47 sets a memory space Z mn having the same size as that of m × n pieces of captured image data. Then, 1 is set in the pixel position on the memory space Zmn corresponding to the pixel determined to be the first region in the captured image data, and the memory corresponding to the pixel determined to be the second region. 255 is set in the pixel position on the space Zmn . As a result, in the memory space Z mn , a value of 1 is stored at the position of the overexposed or blackened pixel, and a value of 255 is stored at the position of the pixel within the dynamic range.

なお、ここでは、輝度値が1〜255までの256階調であることを想定しているので、第2領域と判断された画素位置に255との値を適用し、第1領域と判断された画素位置に1との値を適用している。この処理は、第1領域と判断された画素の高解像度画像データに対する寄与を第2領域と判断された画素よりも小さくすることを目的とするものであるから、この目的が達成される範囲内で、設定する輝度値は適宜変更することができる。   Here, since it is assumed that the luminance value is 256 gradations from 1 to 255, the value of 255 is applied to the pixel position determined to be the second area, and the first area is determined. A value of 1 is applied to each pixel position. The purpose of this process is to make the contribution of the pixels determined to be the first area to the high-resolution image data smaller than the pixels determined to be the second area. Thus, the luminance value to be set can be changed as appropriate.

ここでは、領域抽出部47が上記のようにして生成したデータを抽出領域データZmnと呼ぶ。抽出領域データZmnは、画像更新部48にて差分画像データの重み付けに用いられると共に、画像合成部44にて画像合成に用いられる。 Here, the data generated by the region extraction unit 47 as described above is referred to as extraction region data Zmn . The extracted area data Z mn is used for weighting of the difference image data by the image update unit 48 and is used for image synthesis by the image synthesis unit 44.

すなわち、画像合成部44では、撮像位置が同じで露光時間が異なる撮像画像データを1つの画像データに統合するときに、抽出領域データZmnを参照することにより、合成撮像画像データに含まれる第1領域が少なくなるように統合を行なう。そして、複数組の撮像画像セットを用いる場合には、画像合成部44が合成撮像画像データを生成したときに、領域抽出部47は、抽出領域データZmnを、合成撮像画像データの各画素が第1領域に属するか第2領域に属するかを示す抽出領域データZに更新する。 In other words, the image composition unit 44 refers to the extracted region data Zmn when integrating the captured image data having the same imaging position and different exposure time into one image data, and is included in the composite captured image data. Integration is performed so that one area is reduced. When a plurality of sets of captured image sets are used, when the image composition unit 44 generates composite captured image data, the region extraction unit 47 uses the extracted region data Z mn for each pixel of the composite captured image data. updating the extracted region data Z m indicating whether belonging to the second region belongs to the first region.

具体的には、画像合成部44は、抽出領域データZmnを参照して、撮像位置が同じで露光時間が異なる撮像画像データの各画素が第1領域に属するか第2領域に属するかを判定する。そして、同一位置の画素において、第1領域に属する画素と第2領域に属する画素とが検出された場合には、画像合成部44は合成撮像画像データにおける上記位置の画素の輝度値として、第2領域に属する画素の輝度値を採用する。また、画像合成部44は、上記位置の画素値を第2領域として抽出領域データZを更新する。 Specifically, the image composition unit 44 refers to the extraction region data Zmn to determine whether each pixel of the captured image data having the same imaging position and different exposure time belongs to the first region or the second region. judge. When a pixel belonging to the first area and a pixel belonging to the second area are detected in the pixel at the same position, the image composition unit 44 uses the brightness value of the pixel at the position in the composite captured image data as the brightness value of the pixel at the position. The luminance values of the pixels belonging to the two areas are adopted. The image synthesizing unit 44 updates the extracted area data Z m pixel values of the position as the second region.

なお、同一位置の画素において、第2領域に属する画素が複数検出された場合には、例えば最も露光時間が長い画素の輝度値を採用すればよい。また、同一位置の画素において、第1領域に属する画素のみが検出された場合には、いずれか1つの画素の輝度値を採用する。したがって、例えば最も露光時間の長い撮像画像セットを基準とし、この撮像画像セットに含まれる画素のうち、第1領域に属する画素を、他の撮像画像セットの同じ位置の画素であって、第2領域に属する画素の輝度値と置き換えるようにすればよい。   When a plurality of pixels belonging to the second region are detected in the pixels at the same position, for example, the luminance value of the pixel having the longest exposure time may be employed. Further, when only pixels belonging to the first region are detected in the pixels at the same position, the luminance value of any one of the pixels is employed. Therefore, for example, with the captured image set having the longest exposure time as a reference, among the pixels included in the captured image set, the pixels belonging to the first region are pixels at the same position in the other captured image sets, and the second What is necessary is just to replace with the luminance value of the pixel which belongs to an area | region.

これにより、m×n枚の正規化後撮像画像データがm枚の合成撮像画像データに統合されると共に、m×n枚の正規化後撮像画像データに基づいて生成された抽出領域データZmnがm枚の合成撮像画像データに対応する抽出領域データZに更新される。なお、抽出領域データZでは抽出領域データZmnと同様に、第1領域の画素の位置には1の値が格納され、第2領域の画素の位置には255の値が格納される。 Thus, m × n post-normalized captured image data is integrated into m composite captured image data, and the extracted region data Z mn generated based on m × n post-normalized captured image data There is updated to extract region data Z m corresponding to m pieces of synthetic image data. Similarly to the extraction area data Z m In extracted area data Z mn, the position of the pixel in the first region is a value of 1 is stored, the position of the pixel of the second area is stored the value of 255.

このような合成処理により生成された合成撮像画像データには、複数の露光時間で撮像して得られた撮像画像データが反映されているので、撮像画像データと比べてダイナミックレンジが拡大されている。したがって、上記合成撮像画像データを用いて超解像処理を行なうことにより、撮像画像データを用いて超解像処理を行なう場合と比べて、ダイナミックレンジの広い高解像度画像データを生成することができる。   The composite captured image data generated by such composition processing reflects the captured image data obtained by capturing images at a plurality of exposure times, so the dynamic range is expanded compared to the captured image data. . Therefore, by performing the super-resolution processing using the composite captured image data, it is possible to generate high-resolution image data having a wide dynamic range compared to the case of performing the super-resolution processing using the captured image data. .

さらに、このような合成処理により生成された合成撮像画像データでは、可能であれば、第1領域の画素の輝度値が、他の撮像画像データにおいて位置が同じである第2領域の画素の輝度値に置き換えられている。したがって、上記合成撮像画像データを用いて超解像処理を行なうことにより、撮像画像データを用いて超解像処理を行なう場合と比べて、超解像処理に有用なデータの割合が高くなるので、超解像処理の精度を向上することができ、また超解像処理の演算時間も短縮することができる。   Furthermore, in the composite captured image data generated by such composition processing, if possible, the brightness value of the pixel in the first region is the brightness of the pixel in the second region where the position is the same in the other captured image data. Has been replaced by a value. Therefore, by performing super-resolution processing using the composite captured image data, the ratio of data useful for super-resolution processing is higher than when super-resolution processing is performed using captured image data. The accuracy of the super-resolution processing can be improved, and the calculation time of the super-resolution processing can be shortened.

画像更新部48は、領域抽出部47が生成した抽出領域データZに基づいて、差分画像生成部45が算出した差分画像データに対して、第1画像領域と第2画像領域に対応する重み付けを行い、重み付け差分画像データを生成し、当該重み付け差分画像データを用いて高解像度画像データの更新を行なう。画像更新部48が重み付けを行なうことにより、正常範囲外の輝度値を有する第1領域が超解像処理に与える影響が低減されるので、撮像画像データに白とびや黒つぶれが発生している場合であっても、高精度な超解像処理を行なうことができる。そして、画像更新部48は、更新後の高解像度画像データを高解像度画像保存部34に格納する。 Image update section 48, based on the extracted region data Z m the region extraction unit 47 is generated, on the difference image data difference image generation unit 45 is calculated, weighting corresponding to the first image region and a second image area The weighted difference image data is generated, and the high-resolution image data is updated using the weighted difference image data. The weighting by the image updating unit 48 reduces the influence of the first region having a luminance value outside the normal range on the super-resolution processing, so that overexposure or blackout occurs in the captured image data. Even in such a case, highly accurate super-resolution processing can be performed. Then, the image update unit 48 stores the updated high resolution image data in the high resolution image storage unit 34.

なお、重み付けは、超解像処理に対する第1画像領域の寄与が第2画像領域の寄与に対して小さくなるように行なわれるものであればよく、特に限定されない。ここでは、抽出領域データZにおいて、第1領域の画素の位置には1の値が格納され、第2領域の画素の位置には255の値が格納されるようになっている。そこで、抽出領域データZに1/255を乗じた値を重みとして、上記差分画像データに乗じる。 The weighting is not particularly limited as long as it is performed so that the contribution of the first image area to the super-resolution process is smaller than the contribution of the second image area. Here, in the extraction area data Z m, the position of the pixels of the first area stores a value of 1, the position of the pixel of the second area so that the value of 255 is stored. Therefore, as a weight value obtained by multiplying the 1/255 to extract region data Z m, multiplied by the difference image data.

これにより、差分画像データにおいて、合成画像データにて第1領域となっている領域の画素の輝度値が1/255となる。一方、差分画像データにおいて、合成画像データにて第2領域となっている領域の画素の輝度値について補正は行なわれない。したがって、上記構成によれば、合成画像データにて第1領域となっている領域の画素の寄与を、合成画像データにて第2領域となっている領域の画素の寄与に比べて十分に低くすることができる。   Thereby, in the difference image data, the luminance value of the pixel in the region which is the first region in the composite image data is 1/255. On the other hand, in the difference image data, the luminance value of the pixel in the region that is the second region in the composite image data is not corrected. Therefore, according to the above configuration, the contribution of the pixels in the first area in the composite image data is sufficiently lower than the contribution of the pixels in the second area in the composite image data. can do.

なお、ここでは、差分画像データに抽出領域データZを乗じることによって重み付けを行なう例について説明したが、抽出領域データZや抽出領域データZmnを用いずに重み付けを行なうこともできる。例えば、画像更新部48が、正規化後撮像画像データ、または撮像画像データの各画素位置の輝度値を参照して、差分画像データの各画素の輝度値が、第1領域の画素に基づいて算出されたものであるか第2領域の画素に基づいて算出されたものであるかの判定を行い、該判定結果に基づいて重みを付与するようにしてもよい。 Here, an example has been described for weighting by multiplying the extracted area data Z m in the difference image data, she is also without using the extracted region data Z m and extracted area data Z mn to perform weighting. For example, the image update unit 48 refers to the normalized captured image data or the luminance value of each pixel position of the captured image data, and the luminance value of each pixel of the difference image data is based on the pixels in the first region. It may be determined whether it is calculated or calculated based on the pixels in the second region, and a weight may be assigned based on the determination result.

また、ここでは、第1領域と第2領域との2つの領域に関して重み付けを行なう例を説明したが、3以上の領域に分割してもよい。例えば、撮像装置20の有効ダイナミックレンジ範囲において入射光量と出力が線形でない場合には、3以上の領域に分割し、各領域に応じた重みを付与することが好ましい。   Further, here, an example has been described in which weighting is performed for two regions, the first region and the second region, but it may be divided into three or more regions. For example, when the amount of incident light and the output are not linear in the effective dynamic range of the imaging device 20, it is preferable to divide into three or more regions and assign weights according to each region.

具体例を挙げれば、輝度値が0〜255までの256階調である場合には、輝度値が0〜2の範囲の重みを0とし、輝度値が3〜7の範囲及び、輝度値が248〜252の範囲の重みを第2領域の重みの1/4とし、輝度値が253〜255の範囲の重みを0とすればよい。このように、輝度値が有効ダイナミックレンジに近い領域ほど、超解像処理への寄与が大きくなるように、段階的に重み付けを行なうことにより、撮像画像データを正確に反映させた高精度な高解像度画像データを生成することができる。   As a specific example, when the luminance value is 256 gradations from 0 to 255, the weight in the range of the luminance value 0 to 2 is set to 0, the range of the luminance value 3 to 7 and the luminance value is The weight in the range of 248 to 252 may be ¼ of the weight of the second region, and the weight in the range of the luminance value from 253 to 255 may be zero. In this way, high-accuracy and high-precision reflection of captured image data is performed by performing weighting stepwise so that the region whose luminance value is closer to the effective dynamic range has a greater contribution to super-resolution processing. Resolution image data can be generated.

〔超解像処理部におけるダイナミックレンジ拡大超解像処理の流れ〕
次に、DR拡大超解像処理部35において実行される超解像処理について、図4に基づいて説明する。図4は、DR拡大超解像処理部35において実行される超解像処理の一例を示すフローチャートである。以下の説明において、m×n枚の撮像画像データymnが撮像装置20によって撮像され撮像条件保存部32に格納されているものとする。なお、ここでは、簡単のため、撮像条件として露光時間のみを変更する例について説明するが、露光時間以外の撮像条件も変更してもかまわない。さらに、ここでは複数組の撮像画像セットを用いて超解像処理を行なう例を説明するが、少なくとも1組の撮像画像セットがあれば超解像処理を行なうことができる。
[Flow of dynamic range expansion super-resolution processing in the super-resolution processor]
Next, the super-resolution processing executed in the DR expansion super-resolution processing unit 35 will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of super-resolution processing executed in the DR expansion super-resolution processing unit 35. In the following description, it is assumed that m × n pieces of captured image data y mn are captured by the imaging device 20 and stored in the imaging condition storage unit 32. Here, for the sake of simplicity, an example in which only the exposure time is changed as the imaging condition will be described. However, imaging conditions other than the exposure time may be changed. Furthermore, although an example in which super-resolution processing is performed using a plurality of sets of captured image sets will be described here, super-resolution processing can be performed if there is at least one captured image set.

まず、領域抽出部47及び正規化処理部43は、上記格納されたm×n枚の撮像画像データymnを取得すると共に、撮像条件保存部32からm×n枚の撮像画像データymnの撮像に用いられた撮像条件を読み出す(S201)。 First, the region extraction unit 47 and the normalization processing unit 43, acquires the stored m × n pieces of captured image data y mn, from the imaging condition storage section 32 of the m × n pieces of captured image data y mn The imaging conditions used for imaging are read (S201).

領域抽出部47は、撮像画像データymnを取得すると、m×n枚の撮像画像データymnのそれぞれから、撮像画像データymnの輝度値分布に基づいて、白とび領域や黒つぶれ領域等の不適正露光領域を特定し、これを第1領域として抽出する(S202)。そして、領域抽出部47は、m×n枚の正規化した撮像画像データの各画素が第1領域に属するか、第2領域に属するかを示す抽出領域データZmnを生成する。 Area extracting unit 47 acquires the captured image data y mn, from each of the m × n pieces of captured image data y mn, based on the luminance value distribution of the captured image data y mn, overexposure area or underexposure region like The improper exposure area is identified and extracted as the first area (S202). Then, the region extraction unit 47 generates extraction region data Z mn indicating whether each pixel of the m × n normalized captured image data belongs to the first region or the second region.

一方、正規化処理部43は、上記取得した撮像条件から、各撮像画像データymnの露光時間を取得し、該取得した露光時間に基づいて撮像画像データymnを正規化する(S203)。そして、正規化処理部43は、正規化によって生成した撮像画像データymnを画像合成部44に送る。 On the other hand, the normalization processing unit 43 acquires the exposure time of each captured image data y mn from the acquired imaging conditions, and normalizes the captured image data y mn based on the acquired exposure time (S203). Then, the normalization processing unit 43 sends the captured image data y mn generated by normalization to the image composition unit 44.

画像合成部44は、撮像画像データymnを受け取ると、各撮像画像セットにおいて、同じ撮像位置で撮像して得られた撮像画像データを合成してm枚1セットの合成撮像画像データyを生成し、該生成したm枚の合成撮像画像データyを差分画像生成部45に送る(S204)。また、画像合成部44は、領域抽出部47に指示して、m×n枚の撮像画像データymnに対応する抽出領域データZmnを、m枚の合成撮像画像データyに対応する抽出領域データZに更新させる。なお、撮像セット数が1である場合、S204の処理は省略可能である。 When the image composition unit 44 receives the captured image data y mn , in each captured image set, the image composition unit 44 combines the captured image data obtained by capturing images at the same image capturing position to obtain one set of m captured composite image data y m . generated, and sends the synthesized image data y m of m sheets thus generated in the difference image generation unit 45 (S204). The image synthesizing unit 44 instructs the region extraction unit 47, the extraction area data Z mn corresponding to m × n pieces of captured image data y mn, corresponding to m pieces of synthetic image data y m extraction and updates the region data Z m. When the number of imaging sets is 1, the process of S204 can be omitted.

ここで、画像処理システム1は、合成撮像画像データを用いて超解像処理を行なうが、合成撮像画像データを用いてイメージシフト処理を行なうようにしてもよい。合成撮像画像データを用いてイメージシフト処理を行なう場合には、撮像画像データを用いてイメージシフト処理を行なう場合と比べて、ダイナミックレンジの広い高解像度画像データを生成することができる。なお、イメージシフト処理は、合成撮像画像データの各画素の輝度値を、高解像度画像データの各画素にマッピングすることによって行なわれる。   Here, the image processing system 1 performs super-resolution processing using the composite captured image data, but may perform image shift processing using the composite captured image data. When image shift processing is performed using composite captured image data, high-resolution image data having a wide dynamic range can be generated compared to when image shift processing is performed using captured image data. Note that the image shift process is performed by mapping the luminance value of each pixel of the composite captured image data to each pixel of the high resolution image data.

画像合成部44が合成撮像画像データyの生成を終了した後、または撮像セット数が1である場合には、擬似低解像度画像生成部46は、高解像度画像保存部34に格納されている初期高解像度画像データhを取得する(S205)。 After the image synthesizing unit 44 has completed the generation of the synthesized image data y m, or if the imaging number of sets is 1, the pseudo low-resolution image generating unit 46 is stored in the high-resolution image storage unit 34 Initial high-resolution image data h is acquired (S205).

続いて、擬似低解像度画像生成部46は、上記取得した初期高解像度画像データhを、m枚の撮像画像データのそれぞれと位置合わせすると共に、光学的劣化要因やダウンサンプリング等の要因を考慮して低解像度化を行ない、擬似低解像度画像データを生成する(S206)。   Subsequently, the pseudo low resolution image generation unit 46 aligns the acquired initial high resolution image data h with each of the m pieces of captured image data, and considers factors such as optical degradation factors and downsampling. Then, the resolution is reduced, and pseudo low-resolution image data is generated (S206).

具体的には、擬似低解像度画像生成部46は、初期高解像度画像データhに数式(2)で示したBを乗じて、擬似低解像度画像データBhを生成する。なお、初期高解像度画像データhは1枚であるが、擬似低解像度画像データBhは、撮像画像データのそれぞれに位置合わせされているので、擬似低解像度画像データBhの枚数はm枚になる。そして、擬似低解像度画像生成部46は、上記生成した擬似低解像度画像データBhを差分画像生成部45に送る。 Specifically, the pseudo low-resolution image generation unit 46 multiplies the initial high-resolution image data h by B m expressed by Equation (2) to generate pseudo low-resolution image data B m h. Although the initial high resolution image data h is one, the pseudo low resolution image data B m h is aligned with each of the captured image data, so the number of the pseudo low resolution image data B m h is m. It becomes a sheet. Then, the pseudo low resolution image generation unit 46 sends the generated pseudo low resolution image data B m h to the difference image generation unit 45.

差分画像生成部45は、擬似低解像度画像データBhを受け取ると、受け取った擬似低解像度画像データBhから、画像合成部44が生成した合成撮像画像データyを引いて、m枚の差分画像データXを算出する(S207)。そして、差分画像生成部45は、該算出したm枚の差分画像データXを重み付け画像更新部48に送る。なお、撮像画像データが1セットのみである場合には、差分画像生成部45は、擬似低解像度画像データBhから撮像画像データyを引いて、m枚の差分画像データXを算出する。 When the differential image generation unit 45 receives the pseudo low-resolution image data B m h, the difference image generation unit 45 subtracts the composite captured image data y m generated by the image synthesis unit 44 from the received pseudo low-resolution image data B m h to obtain m images. It calculates the differential image data X m (S207). Then, the difference image generation unit 45 sends the differential image data X m of m Like the calculated the weighting image update section 48. When there is only one set of captured image data, the difference image generation unit 45 subtracts the captured image data y m from the pseudo low-resolution image data B m h to calculate m pieces of difference image data X m . To do.

画像更新部48、差分画像データXを受け取ると、領域抽出部47が生成した抽出領域データZに基づいて重み付けを行なう(S208)。具体的には、画像更新部48は、差分画像データXにαZを乗じることによって、差分画像データXの各画素の輝度値を補正した重み付け差分画像データXαZを生成する。なお、αは抽出領域データZに乗じる重みであり、αの値は必要に応じて適宜設定することができる。 Image update section 48 receives the differential image data X m, for weighting based on the extracted region data Z m the region extraction unit 47 is generated (S208). Specifically, the image updating unit 48, by multiplying the .alpha.z m the differential image data X m, to generate a weighted difference image data X m .alpha.z m obtained by correcting the luminance value of each pixel of the difference image data X m. Note that α is a weight to be multiplied by the extraction region data Z m , and the value of α can be appropriately set as necessary.

例えば、ここでは、抽出領域データZにおいて、第1領域の画素の輝度値を1とし、第2領域の画素の輝度値を255とすることを想定しているので、αの値を1/255に設定すればよい。これにより、重み付け差分画像データXαZにおける第1領域の画素の輝度値が全て1以下の値に補正される一方、第2領域の画素の輝度値は差分画像データXと同じになる。したがって、第1領域に属する画素の輝度値の寄与を第2領域の画素と比べて低くすることができ、これにより超解像処理の精度を向上させることができる。 For example, here, in the extraction area data Z m, the luminance values of the pixels of the first area and 1, since the luminance values of the pixels of the second area is assumed to be 255, the value of alpha 1 / It may be set to 255. As a result, the luminance values of the pixels in the first region in the weighted difference image data X m αZ m are all corrected to values of 1 or less, while the luminance values of the pixels in the second region are the same as the difference image data X m. . Therefore, the contribution of the luminance value of the pixels belonging to the first area can be made lower than that of the pixels in the second area, and thereby the accuracy of the super-resolution processing can be improved.

さらに画像更新部48は、重み付けを行なうことにより生成した重み付け差分画像データXαZを評価関数に代入して、評価値Eを算出する(S209)。なお、評価関数は、例えば上記従来の超解像処理と同様に、上記数式(3)を用いることができる。そして、画像更新部48は、上記算出した評価値Eと予め設定した閾値と比較する(S210)。なお、上記従来の超解像処理と同様に、上記閾値は、要求される高解像度化の精度に応じて適宜変更することができる。 Further, the image update unit 48 substitutes the weighted difference image data X m αZ m generated by weighting into the evaluation function, and calculates the evaluation value E (S209). As the evaluation function, for example, the mathematical formula (3) can be used as in the conventional super-resolution processing. Then, the image update unit 48 compares the calculated evaluation value E with a preset threshold value (S210). Note that, similarly to the conventional super-resolution processing, the threshold value can be appropriately changed according to the required accuracy of resolution enhancement.

評価値Eの値が上記閾値よりも小さい場合(S210においてYES)には、画像更新部48は、超解像処理を終了する。そして、このときに高解像度画像保存部34に格納されている高解像度画像データhが、超解像処理の結果となる高解像度画像データということになる。   If the evaluation value E is smaller than the threshold value (YES in S210), the image update unit 48 ends the super-resolution process. At this time, the high-resolution image data h stored in the high-resolution image storage unit 34 is the high-resolution image data that is the result of the super-resolution processing.

一方、評価値Eの値が上記閾値以上である場合(S210においてNO)には、画像更新部48は、評価値Eの値が小さくなるように、当該評価値Eの算出に用いた高解像度画像データhを更新する(S211)。画像更新部48は、例えば上記従来の超解像処理と同様に、上記数式(4)を用いることによって、高解像度画像データhを更新することができる。画像更新部48は、更新した高解像度画像データhを高解像度画像保存部34に格納する。   On the other hand, when the value of the evaluation value E is equal to or greater than the threshold value (NO in S210), the image update unit 48 uses the high resolution used for calculating the evaluation value E so that the evaluation value E becomes smaller. The image data h is updated (S211). The image update unit 48 can update the high-resolution image data h by using the above formula (4), for example, similarly to the conventional super-resolution processing. The image update unit 48 stores the updated high resolution image data h in the high resolution image storage unit 34.

その後、再びS206から210までの処理が繰り返される。そして、DR拡大超解像処理部35では、評価値Eの値が上記閾値よりも小さくなるまでS206から210までの処理が繰り返される。これにより、所望の倍率で高解像度化がなされた所望の精度の高解像度画像データhを得ることができる。   Thereafter, the processing from S206 to S210 is repeated again. Then, the DR expansion super-resolution processing unit 35 repeats the processes from S206 to S210 until the evaluation value E becomes smaller than the threshold value. As a result, it is possible to obtain high-resolution image data h having a desired accuracy and having a higher resolution at a desired magnification.

なお、上記のフローチャートは、本発明の超解像処理の一例を示すものであり、本発明は、この例に限定されない。例えば、超解像処理に用いる全ての撮像画像データを同じ撮像条件で撮像した場合には、S203の正規化処理は省略してもよい。   In addition, said flowchart shows an example of the super-resolution process of this invention, and this invention is not limited to this example. For example, when all the captured image data used for the super-resolution process are captured under the same imaging condition, the normalization process in S203 may be omitted.

また、上述のように、高解像度画像データhから擬似低解像度画像データBhを生成するときには、PSFの畳み込み処理が行なわれる。このPSFの畳み込み処理により、重み付けによって輝度値の値が十分小さい値に補正された画素の輝度値は、当該画素の周囲に位置する画素の輝度値の影響によって補間更新される。したがって、白とびや黒つぶれが発生した第1領域の画素の画素値についても、S206から210までの処理が繰り返されることによって撮像対象の形状及び色彩を反映させた値に近づいてゆく。 Further, as described above, when the pseudo low-resolution image data B m h is generated from the high-resolution image data h, a PSF convolution process is performed. By the PSF convolution process, the luminance value of the pixel whose luminance value is corrected to a sufficiently small value by weighting is interpolated and updated by the influence of the luminance value of the pixels located around the pixel. Therefore, the pixel values of the pixels in the first region where overexposure and underexposure occur also approach the values reflecting the shape and color of the imaging target by repeating the processes from S206 to S210.

すなわち、撮像画像データが1セットm枚のみのときに撮像画像データに第1領域が含まれている場合には、超解像画像処理に有効なデータが減少するが、このような場合においても、高解像画像データhは、全く更新されないわけではない。   That is, when the captured image data includes only the first set of m images and the first area is included in the captured image data, the data effective for super-resolution image processing is reduced. The high-resolution image data h is not necessarily not updated at all.

また、超解像処理に用いられる撮像画像セットに含まれる撮像画像データの各々が異なる撮像条件で撮像されていてもかまわない。もちろん、撮像画像データが1セットm枚のみの場合においても、撮像画像データの各撮像条件が異なっていてもかまわない。   In addition, each of the captured image data included in the captured image set used for the super-resolution processing may be captured under different imaging conditions. Of course, even when the number of captured image data is only one set m, the imaging conditions of the captured image data may be different.

〔複数の撮像画像セットを用いる場合の問題点とその解決手段〕
上記のように、複数の撮像画像セットを用いることにより、高解像度画像データのダイナミックレンジを拡大することができる。しかしながら、複数の露光時間で撮像を行なう場合には、露光時間の種類の数だけ、撮像時間が倍増するという問題がある。
[Problems and solutions for using multiple captured image sets]
As described above, by using a plurality of captured image sets, the dynamic range of high-resolution image data can be expanded. However, when imaging is performed with a plurality of exposure times, there is a problem that the imaging time is doubled by the number of types of exposure times.

例えば、前述の超解像処理において、3倍の解像度の高解像度画像データを得るには、9回の撮像を行なう必要がある。この場合に、露光時間を100ミリ秒に設定すると、900ミリ秒で撮像は終了する。しかしながら、露光時間を100ミリ秒、200ミリ秒、300ミリ秒の3通りに設定した場合には、撮像終了までに最短でも5400ミリ秒の時間を要する。   For example, in the above-described super-resolution processing, it is necessary to capture nine times in order to obtain high-resolution image data with three times the resolution. In this case, if the exposure time is set to 100 milliseconds, imaging is completed in 900 milliseconds. However, when the exposure time is set to three types of 100 milliseconds, 200 milliseconds, and 300 milliseconds, it takes a minimum of 5400 milliseconds to complete the imaging.

この問題を解消するべく、本実施形態では、撮像位置決定装置10を用いて撮像画像データの撮像位置を決定するようにしている。これにより、複数の露光時間で撮像を行ないつつ、撮像回数を減らすことができる。これにより、撮像時間の増加を抑えながら、ダイナミックレンジが拡大された高解像度画像データを生成することができる。以下では、撮像位置決定装置10の詳細について説明する。   In order to solve this problem, in this embodiment, the imaging position of the captured image data is determined using the imaging position determination device 10. Thereby, it is possible to reduce the number of times of imaging while performing imaging with a plurality of exposure times. Thereby, it is possible to generate high-resolution image data with an expanded dynamic range while suppressing an increase in imaging time. Below, the detail of the imaging position determination apparatus 10 is demonstrated.

〔撮像位置決定装置の詳細〕
図1は、撮像位置決定装置10の要部構成を示すブロック図である。図示のように、記憶部11は、撮像情報記憶部13と、組合せ別撮像位置記憶部14と、組合せ別重み記憶部15とを含む構成である。
[Details of imaging position determination device]
FIG. 1 is a block diagram illustrating a main configuration of the imaging position determination apparatus 10. As illustrated, the storage unit 11 includes an imaging information storage unit 13, a combination-specific imaging position storage unit 14, and a combination-specific weight storage unit 15.

撮像情報記憶部13には、撮像画像データを撮像する際の撮像条件と、当該撮像条件における撮像枚数とが対応付けられた撮像情報が予め記憶される。   The imaging information storage unit 13 stores in advance imaging information in which imaging conditions for capturing captured image data and the number of images to be captured under the imaging conditions are associated with each other.

ここで、図5を用いて、撮像情報記憶部13が記憶している撮像情報の具体例について説明する。図5は、撮像情報記憶部13が記憶している撮像情報の一例を示すデータテーブルである。同図に示すように、撮像情報は、撮像画像群によって特定される撮像情報の識別子を示す「撮像画像群番号」、撮像条件を示す「撮像条件/露光時間」、当該撮像条件で撮像する撮像枚数を示す「撮像枚数」、当該撮像条件で撮像する撮像画像データの識別子を示す「画像番号」、当該撮像条件の他の撮像条件に対する優先度を示す「優先度」の項目を含む。   Here, a specific example of the imaging information stored in the imaging information storage unit 13 will be described with reference to FIG. FIG. 5 is a data table showing an example of imaging information stored in the imaging information storage unit 13. As shown in the figure, the imaging information includes “captured image group number” indicating an identifier of the imaging information specified by the captured image group, “imaging condition / exposure time” indicating the imaging condition, and imaging performed under the imaging condition. It includes items of “number of captured images” indicating the number of images, “image number” indicating an identifier of captured image data captured under the imaging conditions, and “priority” indicating priority of the imaging conditions with respect to other imaging conditions.

なお、ここでは、撮像条件として露光時間のみを変えることを想定しているので、撮像情報には、「露光時間」を示す情報が含まれているが、露光時間以外の撮像条件を変える場合には、その撮像条件が撮像情報として撮像情報記憶部13に格納される。   Here, since it is assumed that only the exposure time is changed as the imaging condition, the imaging information includes information indicating “exposure time”. However, when the imaging condition other than the exposure time is changed. The imaging conditions are stored in the imaging information storage unit 13 as imaging information.

図5の撮像情報では、“撮像画像群G1”および“撮像画像群G2”の2つのレコードが含まれている。また、“撮像画像群G1”および“撮像画像群G2”のレコードでは、それぞれ、優先度として“1”および“2”が設定されている。   The imaging information in FIG. 5 includes two records of “captured image group G1” and “captured image group G2”. In the “captured image group G1” and “captured image group G2” records, “1” and “2” are set as priorities, respectively.

なお、優先度は、撮像位置を決めるときに用いられる。つまり、撮像位置決定装置10は、優先度が高い順に撮像画像群の撮像位置を決定する。また、撮像位置決定装置10は、優先度が高い撮像画像群に由来する画素が、高解像度画像データ上において均等に配列するようにする。本実施形態では、優先度は、1が最も優先度が高いことを意味し、2以上の優先度は、数が大きくなるにつれて、順に優先度が下がるものとする。   The priority is used when determining the imaging position. That is, the imaging position determination device 10 determines the imaging position of the captured image group in descending order of priority. In addition, the imaging position determination device 10 causes pixels derived from a group of captured images with high priority to be evenly arranged on the high resolution image data. In the present embodiment, the priority means that 1 is the highest priority, and the priority of 2 or more is assumed to decrease in order as the number increases.

ここでは、ハレーションによる白とびの影響を除外することを主眼としているので、白とびが発生し難い撮像条件で撮像された撮像画像群(露光時間の短い撮像画像群)の優先度を高くしている。これは、高解像度画像データにおいて、白とびが発生していない撮像画像データに由来する画素が均等に配列することによって、白とびが発生している撮像画像データに由来する画素の輝度値を適切に補間することが可能であるからである。なお、優先度は必要に応じて適宜設定することができる。   Here, the main purpose is to eliminate the influence of overexposure due to halation, so the priority of the captured image group (captured image group with a short exposure time) captured under an imaging condition in which overexposure hardly occurs is increased. Yes. This is because, in high-resolution image data, the pixels derived from the captured image data in which overexposure occurs are appropriately arranged by uniformly arranging the pixels derived from the captured image data in which overexposure does not occur. This is because interpolation is possible. The priority can be appropriately set as necessary.

組合せ別撮像位置記憶部14は、組合せ別撮像位置算出部(第1撮像位置設定手段)17および条件別撮像位置選択部(第2撮像位置設定手段)18が決定する撮像位置を記憶しておくものである。組合せ別撮像位置記憶部14は、撮像位置が決定するまでの一定期間の記憶を担うワーキングエリアであってもよいし、永続的に撮像位置を記憶しておくようなものであってもよい。   The combination-specific imaging position storage unit 14 stores the imaging positions determined by the combination-specific imaging position calculation unit (first imaging position setting unit) 17 and the condition-specific imaging position selection unit (second imaging position setting unit) 18. Is. The combination-specific imaging position storage unit 14 may be a working area that is responsible for storing a certain period until the imaging position is determined, or may be one that permanently stores the imaging position.

組合せ別重み記憶部15は、重み付け撮像位置決定部19が決定する撮像位置をより適切な位置に補正するために用いる重みを記憶するものである。重みの詳細については後述する。   The combination-specific weight storage unit 15 stores weights used to correct the imaging position determined by the weighted imaging position determination unit 19 to a more appropriate position. Details of the weight will be described later.

また、図示のように、撮像位置計算部12は、組合せ別撮像位置算出部17と、条件別撮像位置選択部18と、重み付け撮像位置決定部(重み付け撮像位置設定手段)19とを備えている。   As illustrated, the imaging position calculation unit 12 includes a combination-specific imaging position calculation unit 17, a condition-specific imaging position selection unit 18, and a weighted imaging position determination unit (weighted imaging position setting unit) 19. .

組合せ別撮像位置算出部17は、撮像情報記憶部13に格納されている各撮像画像群の撮像位置を決定する。そして、条件別撮像位置選択部18は、組合せ別撮像位置算出部17が算出した撮像位置に基づいて、各撮像条件に対応する撮像位置を決定する。   The combination-specific imaging position calculation unit 17 determines the imaging position of each captured image group stored in the imaging information storage unit 13. Then, the condition-specific imaging position selection unit 18 determines an imaging position corresponding to each imaging condition based on the imaging position calculated by the combination-specific imaging position calculation unit 17.

例えば、9つの撮像位置で撮像を行なう場合に、第1の撮像条件で撮像を行なう4つの撮像位置と、第2の撮像条件で撮像を行なう5つの撮像位置とを決定するときには、組合せ別撮像位置算出部17および条件別撮像位置選択部18は、以下のような手順で撮像位置を決定する。   For example, when imaging is performed at nine imaging positions, when determining four imaging positions at which imaging is performed under the first imaging condition and five imaging positions at which imaging is performed under the second imaging condition, combinational imaging is performed. The position calculation unit 17 and the condition-specific imaging position selection unit 18 determine the imaging position in the following procedure.

まず、組合せ別撮像位置算出部17は、撮像情報記憶部13に格納されている撮像画像群の中から最も優先度の高い撮像画像群を選択し、選択した撮像画像群の撮像位置を決定する。例えば、図5の例では、撮像画像群G1の優先度が最も高いので、組合せ別撮像位置算出部17は、撮像画像群G1に含まれる4枚の撮像画像について、その撮像位置を決定する。   First, the combination-specific imaging position calculation unit 17 selects a captured image group with the highest priority from the captured image group stored in the imaging information storage unit 13, and determines the imaging position of the selected captured image group. . For example, in the example of FIG. 5, since the priority of the captured image group G1 is the highest, the combined-capture imaging position calculation unit 17 determines the imaging positions of the four captured images included in the captured image group G1.

なお、詳細については後述するが、このときに、組合せ別撮像位置算出部17は、撮像位置がなるべく等間隔に分散する位置になるように撮像位置を決定する。撮像位置決定装置10の主な特徴点は、この撮像位置の決定方法にある。   Although details will be described later, at this time, the imaging position calculation unit 17 for each combination determines the imaging positions so that the imaging positions are dispersed as evenly as possible. The main feature point of the imaging position determination device 10 is in this imaging position determination method.

続いて、組合せ別撮像位置算出部17は、撮像情報記憶部13に格納されている撮像画像群の中から次に優先度の高い撮像画像群を選択し、選択した撮像画像群の撮像位置の候補を決定する。例えば、図5の例では、組合せ別撮像位置算出部17は、優先度が次に高い撮像画像群G2に含まれる9枚の撮像画像について、その撮像位置を決定する。   Subsequently, the combination-specific imaging position calculation unit 17 selects a captured image group having the next highest priority from among the captured image groups stored in the imaging information storage unit 13, and sets the imaging position of the selected captured image group. Determine candidates. For example, in the example of FIG. 5, the combination-specific imaging position calculation unit 17 determines the imaging positions of the nine captured images included in the captured image group G2 having the second highest priority.

このように、撮像情報記憶部13に格納されている全ての撮像画像群について、組合せ別撮像位置算出部17が撮像位置を決定すると、条件別撮像位置選択部18は、組合せ別撮像位置算出部17が決定した9つの撮像位置から、組合せ別撮像位置算出部17が決定した4つの撮像位置のそれぞれから最短距離に位置する4つの撮像位置を除いた5つの撮像位置を第2の撮像条件で撮像を行なう撮像位置として決定する。これにより、第1の撮像条件で撮像を行なう撮像位置と第2の撮像条件で撮像を行なう撮像位置とが決定される。   As described above, when the combination-specific imaging position calculation unit 17 determines the imaging position for all captured image groups stored in the imaging information storage unit 13, the condition-specific imaging position selection unit 18 selects the combination-specific imaging position calculation unit. The five imaging positions excluding the four imaging positions located at the shortest distance from each of the four imaging positions determined by the combination-specific imaging position calculation unit 17 from the nine imaging positions determined by 17 under the second imaging condition. It is determined as an imaging position for imaging. As a result, an imaging position where imaging is performed under the first imaging condition and an imaging position where imaging is performed under the second imaging condition are determined.

重み付け撮像位置決定部19は、組合せ別撮像位置算出部17が決定した撮像位置を補正する。例えば、図5の例では、重み付け撮像位置決定部19は、組合せ別撮像位置算出部17が決定した4つの撮像位置を、該4つの撮像位置と、9つの撮像位置から選択された上記4つの撮像位置(5つの撮像位置として選択されなかった撮像位置)のそれぞれから最短距離に位置する4つの撮像位置とを結ぶ線分上の予め設定された重みに応じた位置に補正する。この重みは、組合せ別重み記憶部15に予め格納されている。なお、この重みに基づく撮像位置の決定方法の詳細については後述する。   The weighted imaging position determination unit 19 corrects the imaging position determined by the combination-specific imaging position calculation unit 17. For example, in the example of FIG. 5, the weighted imaging position determination unit 19 selects the four imaging positions determined by the combination imaging position calculation unit 17 from the four imaging positions and the nine imaging positions. Correction is made to a position corresponding to a preset weight on a line segment connecting the four imaging positions located at the shortest distance from each of the imaging positions (imaging positions not selected as the five imaging positions). This weight is stored in advance in the weight storage unit 15 for each combination. The details of the method for determining the imaging position based on this weight will be described later.

〔撮像位置の分散についての考え方〕
ダイナミックレンジを拡大するためには、異なる撮像条件(露光条件)下で撮像した撮像画像データを用いることが必要である。しかし、撮像画像データの使用枚数が増えると、撮像に要する時間が増大してしまうので、撮像画像データの使用枚数は増加させないことが好ましい。
[Concept of dispersion of imaging positions]
In order to expand the dynamic range, it is necessary to use captured image data captured under different imaging conditions (exposure conditions). However, since the time required for imaging increases as the number of captured image data used increases, it is preferable not to increase the number of captured image data used.

ここで、例えば、図6のような高解像度画像データが生成されるような撮像位置で撮像を行なうことにより、撮像画像データの使用枚数を増加させずにダイナミックレンジを拡大することができる。   Here, for example, by performing imaging at an imaging position where high-resolution image data as shown in FIG. 6 is generated, the dynamic range can be expanded without increasing the number of used captured image data.

図6は、高解像度画像データにおいて、異なる撮像条件で撮像された撮像画像データに由来する画素の配置の一例を示す図であり、同図(a)は高解像度画像データの生成に用いられた撮像画像データにハレーション等が発生していない状態を示し、同図(b)は高解像度画像データの生成に用いられた撮像画像データのうち、露光時間が長い撮像画像データにハレーションが発生している状態を示している。   FIG. 6 is a diagram illustrating an example of an arrangement of pixels derived from captured image data captured under different imaging conditions in high resolution image data. FIG. 6A is used to generate high resolution image data. FIG. 11B shows a state in which no halation or the like has occurred in the captured image data, and FIG. 5B shows that in the captured image data used to generate the high-resolution image data, halation has occurred in the captured image data having a long exposure time. It shows the state.

なお、図6では、露光時間aで撮像された4枚の撮像画像データと露光時間bで撮像された5枚の撮像画像データとを用いて超解像処理を行ない、撮像画像データの3倍の解像度を有する高解像度画像データを生成した例を示している(a<b)。図18に基づいて説明したように、高解像度画像データの各画素は、撮像画像データの各画素に基づいて生成される。図6では、露光時間aで撮像された撮像画像データに由来する画素と、露光時間bで撮像された撮像画像データに由来する画素とを色分けして示している。   In FIG. 6, super-resolution processing is performed using four captured image data captured at the exposure time a and five captured image data captured at the exposure time b, and is three times the captured image data. An example of generating high-resolution image data having a resolution of (a <b) is shown. As described based on FIG. 18, each pixel of the high-resolution image data is generated based on each pixel of the captured image data. In FIG. 6, the pixels derived from the captured image data captured at the exposure time “a” and the pixels derived from the captured image data captured at the exposure time “b” are shown in different colors.

また、図18で説明したように、3倍に高解像度化する場合には、撮像画像データの1画素の1/3ピッチで撮像位置を8方向に移動させながら、各撮像位置にて1回ずつ撮像を行ない、このピッチが高解像度画像データの1画素分の幅となる。   Further, as described with reference to FIG. 18, when the resolution is increased to 3 times, the image pickup position is moved in eight directions at 1/3 pitch of one pixel of the picked-up image data, and once at each image pickup position. Images are taken one by one, and this pitch is the width of one pixel of the high resolution image data.

つまり、図6のような高解像度画像データを生成するために、画素T2を露光時間bで撮像した後、撮像位置を同図の右向きに撮像画像データの1画素の1/3ピッチ移動させて露光時間aで撮像が行なわれ、さらに撮像位置を同図の右向きに撮像画像データの1画素の1/3ピッチ移動させて露光時間bで撮像が行なわれたことになる。   That is, in order to generate the high-resolution image data as shown in FIG. 6, after the pixel T2 is imaged with the exposure time b, the imaging position is moved to the right in FIG. 6 by 1/3 pitch of one pixel of the imaged image data. Imaging is performed at the exposure time a, and further, the imaging position is moved to the right in the figure by 1/3 pitch of one pixel of the captured image data, and imaging is performed at the exposure time b.

このように、高解像度画像データの各画素は、該画素の元になる各撮像画像データに対応しており、高解像度画像データの各画素の位置は、該画素の元になる各撮像画像データの撮像位置に対応している。   In this way, each pixel of the high-resolution image data corresponds to each captured image data that is the source of the pixel, and the position of each pixel of the high-resolution image data is each captured image data that is the source of the pixel. It corresponds to the imaging position.

ここで、図6の例では、露光時間bで撮像された撮像画像データに由来する画素が、4つ集まっている箇所が存在する。このような箇所があったとしても、各撮像画像データが第1領域(白とび、黒つぶれ等が発生した領域)を含まず、第2領域(撮像対象の形状、色彩等が正常に反映された領域)のみを含む場合、特に問題は無い。   Here, in the example of FIG. 6, there are locations where four pixels derived from the captured image data captured at the exposure time b are gathered. Even if there is such a part, each captured image data does not include the first area (the area where overexposure, blackout occurs, etc.), and the second area (the shape, color, etc. of the imaging target is reflected normally) In particular, there is no problem when it includes only the (region).

ここで、高解像度画像データの生成に用いられる何れかの撮像画像データにおいて、第1領域が含まれる場合、その撮像画像データに対応する高解像画像データの画素において情報が欠落することになる。   Here, if any of the captured image data used for generating the high-resolution image data includes the first region, information is lost in the pixels of the high-resolution image data corresponding to the captured image data. .

例えば、露光時間bで撮像して得られた撮像画像データは、b>aであることから、露光時間aで撮像して得られた撮像画像データに白とびの領域が含まれていない場合であっても、露光時間bで撮像して得られた撮像画像データには、白とびの領域が含まれる可能性がある。   For example, since the captured image data obtained by imaging with the exposure time b is b> a, the captured image data obtained by imaging with the exposure time a does not include an overexposed region. Even in such a case, the captured image data obtained by imaging with the exposure time b may include an overexposed region.

特に、撮像条件の設定の仕方によっては、一方の撮像条件で撮像された撮像画像データに第1領域の画素が大量に発生することがある。例えば、図6の例ように、一方の露光時間が長い場合には、長い露光時間で撮像された撮像画像データの広い領域で白とびが発生することがある。   In particular, depending on how the imaging conditions are set, a large amount of pixels in the first region may occur in the captured image data captured under one imaging condition. For example, as in the example of FIG. 6, when one exposure time is long, overexposure may occur in a wide area of captured image data captured with a long exposure time.

図6の(b)は、露光時間aで撮像した撮像画像データは、すべて第2領域であり、露光時間bで撮像して得られた撮像画像データがすべて第1領域(白とび)である場合の高解像画像データについて示している。同図では「j(ジェイ)」の符号を付した領域は、白とびになっている領域を表している。これは、当該領域に対応する撮像画像データが、すべて第1領域(白とび)であったために、当該撮像画像データの情報が、高解像画像データの画素の生成になんら寄与していなかったことを示している。   In FIG. 6B, the captured image data captured at the exposure time a is all in the second area, and the captured image data acquired at the exposure time b is all the first area (out of focus). The high resolution image data in the case is shown. In the same figure, the area | region which attached | subjected the code | symbol "j (Jay)" represents the area | region which has become overexposed. This is because all the captured image data corresponding to the area is the first area (out-of-field), and thus the information of the captured image data does not contribute to the generation of the pixels of the high-resolution image data. It is shown that.

なお、撮像画像データの第1領域(白とび)の以外の、第2領域の部分を用いることによって、高解像度画像データの白とび部分の画素を推定することは可能である。しかしながら、この場合には、本来推定の基準になるべき撮像画像データの部分とは異なる部分、つまり第1領域に分類される画素と離れた位置にある第2領域に分類される画素に基づいて推定を行なうことになる。   In addition, it is possible to estimate the pixels of the overexposed portion of the high-resolution image data by using the portion of the second region other than the first region (overexposed) of the captured image data. However, in this case, it is based on a portion different from the portion of the captured image data that should originally be a reference for estimation, that is, a pixel classified in the second region at a position distant from the pixel classified in the first region. Estimation will be performed.

なぜならば、撮像画像データに白とびや黒つぶれの領域では、高解像画像データの生成に有効な画像情報が欠落しており、このような領域は、超解像処理になんら寄与しないからである。よって、このような場合、推定の精度が低下し、ひいては高解像画像データの品質の低下につながる。   This is because the image information effective for generating high-resolution image data is missing in the overexposed and underexposed areas in the captured image data, and such areas do not contribute to the super-resolution processing at all. is there. Therefore, in such a case, the accuracy of estimation is reduced, and as a result, the quality of high-resolution image data is reduced.

このような推定精度の低下は、撮像画像データが第1領域を含むことにより、有効な撮像画像データの画素に粗密が生じることにより起こるといえる。特に、図6(b)のように、一方の露光時間が長く、長い露光時間で撮像された撮像画像データの広い領域で白とびが発生した場合には、有効な撮像画像データの画素に粗密が生じることが著しい。   It can be said that such a decrease in estimation accuracy occurs when the captured image data includes the first region and the pixels of the effective captured image data become coarse and dense. In particular, as shown in FIG. 6B, when one of the exposure times is long and overexposure occurs in a wide area of the captured image data captured with a long exposure time, the pixels of the effective captured image data are coarsely and densely. It is remarkable that occurs.

従って、撮像画像データのある画素が第1領域に分類されるものであっても、その替わりに推定の基準になる第2領域に分類される画素が極端に離れないように撮像位置を定める必要がある。つまり、高解像度画像データにおいて、同じ撮像条件で撮像した撮像画像データに由来する画素が密集しないように、各撮像条件で撮像を行なうときの撮像位置を決定する必要があり、撮像位置の分散の度合いを考慮した撮像位置決定手法が必要になる。また、このような手法で決定した撮像位置を重み付け処理によって補正することによって、より好適な撮像位置が得られる。   Therefore, even if a pixel with captured image data is classified as the first region, it is necessary to determine the imaging position so that the pixel classified as the second region serving as a reference for estimation is not extremely separated instead. There is. In other words, in the high-resolution image data, it is necessary to determine the imaging position when imaging is performed under each imaging condition so that pixels derived from the captured image data captured under the same imaging condition are not concentrated. An imaging position determination method considering the degree is necessary. In addition, a more suitable imaging position can be obtained by correcting the imaging position determined by such a method by weighting processing.

〔撮像位置を分散する手法〕
以下では、撮像位置決定装置10が実行する、重み付けや、撮像位置の分散の度合いを考慮した撮像位置決定手法について説明していく。まず、図7から図9を用いて各撮像条件における撮像位置を分散する手法について説明する。撮像位置を分散するには、撮像位置の位置関係を把握することが重要である。
[Method to distribute imaging positions]
Hereinafter, an imaging position determination method executed by the imaging position determination apparatus 10 in consideration of weighting and the degree of dispersion of the imaging positions will be described. First, a method for distributing the imaging positions under each imaging condition will be described with reference to FIGS. In order to distribute the imaging positions, it is important to grasp the positional relationship between the imaging positions.

まず、図7を用いて撮像位置の位置関係を把握する手法について説明する。図7は、撮像位置の位置関係を把握する手法を示す説明図である。図7では、一例として4つの撮像位置の位置関係を示している。なお、図7において、Kは、基準となる撮像素子1つの撮像領域(基準画素領域)を示し、V 〜V は位置関係を把握する対象となる4つの撮像位置(撮像領域)の中心を示している。 First, a method for grasping the positional relationship between the imaging positions will be described with reference to FIG. FIG. 7 is an explanatory diagram illustrating a method for grasping the positional relationship between the imaging positions. In FIG. 7, the positional relationship of four imaging positions is shown as an example. In FIG. 7, K L indicates one imaging region (reference pixel region) serving as a reference, and V L 0 to V L 3 indicate four imaging positions (imaging regions) that are targets for grasping the positional relationship. ).

ここで、高解像度画像データの元になる撮像画像データを取得するための撮像位置は、撮像素子1つの幅を越えない範囲内、より詳細には、各撮像位置における撮像領域の中心に、高解像度画像データの1画素に相当する領域を配置したときに、該領域が基準画素領域内に含まれる範囲内で設定される。例えば、図18の例においても、P13〜P93は何れもT1の内部に含まれている。したがって、V 〜V もKの枠内となる。 Here, the imaging position for acquiring the captured image data that is the basis of the high-resolution image data is within a range that does not exceed the width of one imaging element, and more specifically, at the center of the imaging area at each imaging position. When an area corresponding to one pixel of the resolution image data is arranged, the area is set within a range included in the reference pixel area. For example, also in the example of FIG. 18, P13 to P93 are all included in T1. Therefore, V L 0 ~V L 3 also falls within the framework of the K L.

の枠内において、撮像位置を分散させるためには、V 〜V の相互の距離(両矢印が付されているV −V 、V −V 、V −V 、V −V 、V −V およびV −V の6通り)を求め、その最小値が最大になるような撮像位置を決定すればよいが、Kの枠内のみの位置関係を考慮した場合には、Kの枠内の撮像位置と、Kに隣接する撮像素子の撮像位置とが近接することがある。 In the context of the K L, in order to disperse the imaging position, V L 0 ~V L 3 mutual distance (V L both arrows are labeled 0 -V L 1, V L 0 -V L 2 , VL 0 -V L 3 , V L 1 -V L 2 , V L 1 -V L 3, and V L 2 -V L 3 ), and the imaging position where the minimum value is maximized may be determined, considering the positional relationship between the frame of the K L alone is sometimes an imaging position in the frame of the K L, and the imaging position of the imaging elements adjacent to the K L is close .

例えば、図6の高解像度画像データでは、1つの撮像素子に対応する3×3の9つの画素において、4つの短時間露光画素と5つの長時間露光画素とがそれぞれ分散して配置されている。しかしながら、図6の例では隣接する撮像素子における撮像位置が考慮されていないので、高解像度画像データの全体から見れば、撮像位置が均一に分散されていない箇所が生じている。   For example, in the high-resolution image data of FIG. 6, four short-time exposure pixels and five long-time exposure pixels are dispersedly arranged in nine 3 × 3 pixels corresponding to one image sensor. . However, in the example of FIG. 6, since the imaging positions of the adjacent imaging elements are not taken into consideration, there are places where the imaging positions are not uniformly distributed as viewed from the entire high-resolution image data.

そこで、撮像位置決定装置10では、隣接する撮像素子における撮像位置も考慮して、高解像度画像データの全体から見て撮像位置が均一に分散するように撮像位置を決定する。これにより、高解像度画像データに同じ撮像条件で撮像した撮像画像データに由来する画素が密集しないようにすることができ、撮像画像データの枚数を増やさずとも高精度な高解像度画像データを生成することができる。   In view of this, the imaging position determination apparatus 10 determines the imaging positions so that the imaging positions are evenly distributed as viewed from the whole of the high-resolution image data in consideration of the imaging positions of adjacent imaging elements. Thereby, it is possible to prevent pixels derived from captured image data captured under the same imaging conditions from being collected in the high-resolution image data, and to generate high-resolution image data with high accuracy without increasing the number of captured image data. be able to.

図7(b)では、Kに隣接する撮像素子Kの撮像位置V 〜V を示している。図示のように、隣接する撮像素子Kの撮像位置V 〜V を考慮すれば、V との距離を求めるべき撮像位置が4つ追加されることになる(両矢印が付されているV −V 、V −V 、V −V およびV −V の4通り)また、V 、V 、V についても同様であるから、合計で16箇所の距離を求める必要がある。 In FIG. 7 (b), it shows the imaging position V R 0 ~V R 3 of the image pickup device K R which is adjacent to the K L. As shown, in view of the image pickup position V R 0 ~V R 3 adjacent the image pickup device K R, so that the imaging position to determine the distance between the V L 1 is added four (two arrows V L 1 -V R 0 , V L 1 -V R 1 , V L 1 -V R 2, and V L 1 -V R 3 are attached), and V L 0 , V L 2 , V since same is true for L 3, it is necessary to calculate the distance of 16 points in total.

また、撮像素子Kの右方向に隣接する撮像素子は、撮像素子Kだけではないので、撮像素子Kの右方向以外の方向に隣接する撮像素子についても、撮像位置の位置関係を調べることになる。 The imaging elements adjacent to the right of the image pickup element K L, since not only the image pickup device K R, the even imaging elements adjacent in a direction other than the rightward direction of the image pickup element K L, determine the positional relationship between the imaging position It will be.

なお、全体で撮像素子Kの周囲8方向に撮像素子が隣接する8つの場合が考えられるが、対称性により、位置関係を調べるのは半分の4つの場合だけでよい。なぜならば、撮像素子Kの右に隣接する撮像素子Kの撮像位置の位置関係を調べることと、撮像素子Kの左に隣接する撮像素子の撮像位置の位置関係を調べることとは同じことだからである。 Although the imaging device around eight directions across the imaging element K L can be considered cases of eight adjacent, due to the symmetry, to examine the positional relationship may only when the four halves. Since same as the examining and checking the positional relationship between the imaging position of the imaging element K R which is adjacent to the right of the image pickup device K L, the positional relationship between the imaging position of the imaging element adjacent to the left of the image pickup element K L That is why.

以上のように、撮像素子Kの枠内の撮像位置は、該枠内の撮像位置間の距離の最小値を最大化し、また撮像素子Kの枠内の撮像位置と、撮像素子Kに隣接する撮像素子の枠内の各撮像位置との距離の最小値を最大化する、という条件に基づいて決定される。 As described above, the imaging position of the frame of the imaging element K L maximizes the minimum value of the distance between the imaging position in the frame, also the imaging position in the frame of the image pickup device K L, the imaging device K L Is determined based on the condition that the minimum value of the distance to each imaging position within the frame of the image sensor adjacent to the image sensor is maximized.

続いて、図8および9を用いて、これらの距離を具体的に求め、撮像位置を決定する手法を以下に説明する。以下で説明するのは、図6で示したような、露光時間aで4枚、露光時間bで5枚の撮像を行って得た計9枚の撮像画像データを用いて超解像処理を行なう場合についてである。   Next, a method for specifically obtaining these distances and determining the imaging position will be described below with reference to FIGS. In the following description, as shown in FIG. 6, super-resolution processing is performed using a total of nine captured image data obtained by capturing four images with an exposure time a and five images with an exposure time b. It is about the case of performing.

まず、図8を用いて、撮像素子の枠内における撮像位置間の距離の求め方について説明する。図8は、撮像素子の枠内に含まれる4つの撮像位置を2次元座標で表した説明図である。ここでは、V をx−y座標平面上の原点とする2次元座標系を導入して説明する。そして、上記2次元座標系において、撮像素子Kが占める領域を、撮像位置V を基準とする位置に平行移動したのが領域Rである。また、同図では、左右方向右向きをx軸の正の向きとし、左右方向左向きをy軸の正の向きとする。また、ここでは、簡単のため撮像素子Kは一辺の長さがhの正方形状であるとする。 First, a method for obtaining the distance between the imaging positions in the frame of the imaging device will be described with reference to FIG. FIG. 8 is an explanatory diagram showing the four imaging positions included in the frame of the imaging element in two-dimensional coordinates. Here, a description will be given by introducing a two-dimensional coordinate system in which V B 0 is the origin on the xy coordinate plane. Then, in the two-dimensional coordinate system, an area occupied by the image pickup device K B, was translated into position relative to the imaging position V B 0 is a region R B. Further, in the figure, the rightward direction in the left-right direction is the positive direction of the x-axis, and the leftward direction in the horizontal direction is the positive direction of the y-axis. Further, here, the image pickup element K B for simplicity is the length of one side is a square h.

ここで、撮像位置V 、V 、V 、V の2次元座標を、それぞれ、(0,0)、(x1,y1)、(x2,y2)および(x3,y3)とすると、撮像位置V 、V 、V 、V の相互の距離は、以下の数式(6−1)〜(6−6)によって表現できる。 Here, the two-dimensional coordinates of the imaging positions V B 0 , V B 1 , V B 2 , and V B 3 are respectively (0, 0), (x1, y1), (x2, y2), and (x3, y3). ), The mutual distances of the imaging positions V B 0 , V B 1 , V B 2 , V B 3 can be expressed by the following equations (6-1) to (6-6).

Figure 2010073035
Figure 2010073035

なお、上記数式におけるBは、撮像素子Kについての距離であることを示し、pおよびqは、撮像位置V 、V の間の距離であることを示している。 Incidentally, B in the above equation indicates that the distance of the imaging device K B, p and q indicates that the distance between the imaging position V B p, V B q.

次に、図9を用いて、撮像素子Kの枠内の撮像位置と、撮像素子Kに隣接する撮像素子の枠内の撮像位置との距離の求め方について説明する。図9は、撮像素子と、当該撮像素子に隣接する撮像素子との位置関係を2次元座標で表した説明図である。 Next, with reference to FIG. 9, the imaging position in the frame of the image sensor K B, the method of obtaining the distance between the imaging position of the frame of the imaging elements adjacent to the image pickup device K B will be described. FIG. 9 is an explanatory diagram showing the positional relationship between the image sensor and the image sensor adjacent to the image sensor in two-dimensional coordinates.

前述のとおり、求めるべき撮像位置間の距離は、ある撮像素子に対して左、左下、左上、下の4方向に隣接する撮像素子の撮像位置との間の距離である。同図では、撮像素子Kの左に撮像素子K、左下に撮像素子K、下に撮像素子K、下に撮像素子Kが位置しているものとし、領域R、領域R、領域Rは、撮像素子K〜Kに対応する領域である。 As described above, the distance between the imaging positions to be obtained is the distance between the imaging positions of the imaging elements adjacent to the left, lower left, upper left, and lower directions with respect to a certain imaging element. In the figure, it is assumed the image pickup element K 1 to the left of the image sensor K B, the image pickup element K 2 in the lower left, the imaging device K 3 below, the imaging device K 3 below are located, region R 1, region R 2, the region R 3 is an area corresponding to the image pickup device K 1 ~K 3.

図9(a)に示すように、領域Rには、撮像素子Kの撮像位置V 、V 、V 、V が含まれる。撮像位置V 、V 、V 、V は、それぞれ、撮像位置V 、V 、V 、V をx軸の負の方向にhだけ移動させたものであるので、撮像位置V 、V 、V 、V の2次元座標は、それぞれ、(−h,0)、(x1−h,y1)、(x2−h,y2)および(x3−h,y3)となる。 As illustrated in FIG. 9A, the region R 1 includes the imaging positions V 1 0 , V 1 1 , V 1 2 , and V 1 3 of the imaging device K 1 . The imaging positions V 1 0 , V 1 1 , V 1 2 , V 1 3 move the imaging positions V B 0 , V B 1 , V B 2 , V B 3 by h in the negative direction of the x axis, respectively. since those with two-dimensional coordinates of the imaging positions V 1 0, V 1 1, V 1 2, V 1 3 , respectively, (- h, 0), (x1-h, y1), (x2-h , Y2) and (x3-h, y3).

前述の例に倣って、領域Rに含まれる撮像位置V 、V 、V 、V と、領域Rに含まれる撮像位置V 、V 、V 、V との間の距離を、d pqと表記する。d pqの添え字の意味については、1は、領域Rと領域Rとに含まれる撮像位置についての距離であることを示し、pおよびqは、撮像位置V 、V の間の距離であることを示している。 Following the example described above, the imaging position V B 0 included in the region R B, V B 1, V B 2, V and B 3, the image pickup position V 1 0 included in the region R 1, V 1 1, V 1 The distance between 2 and V 1 3 is expressed as d 1 pq . Regarding the meaning of the subscript of d 1 pq , 1 indicates that it is the distance for the imaging positions included in the region R B and the region R 1, and p and q are the imaging positions V B p , V 1 q It indicates that the distance is between.

ここで、領域Rの撮像位置V 、V 、V 、V と、領域Rの撮像位置V 、V 、V 、V とを結ぶ線分は全部で16本あるが、16本の線分すべてについて距離を求めなくてもよい。次の理由により、その中の9本の線分について距離を求めれば足りる。すなわち、p=qの場合、d pq=hである。また、q=0の場合、d p0<d p0となる。したがって、このようなd p0は、考慮しなくてもよい。すると、求めるべき距離は以下の9つ数式(7−1)〜(7−9)で表されたものだけになる。このように、予め計算すべき対象を絞り込んでおくことで、撮像位置を決定するために撮像位置計算部12が実行する計算の量を減らすことができる。 Here, connecting the imaging position V B 0, V B 1, V B 2, V B 3 of area R B, and a region image pickup position V 1 0 of R 1, V 1 1, V 1 2, V 1 3 Although there are 16 line segments in total, it is not necessary to obtain distances for all 16 line segments. For the following reasons, it is sufficient to obtain distances for nine of the line segments. That is, when p = q, d 1 pq = h. Further, when q = 0, d B p0 <d 1 p0 . Therefore, such d 1 p0 need not be considered. Then, the distances to be obtained are only those expressed by the following nine formulas (7-1) to (7-9). Thus, by narrowing down the objects to be calculated in advance, the amount of calculation performed by the imaging position calculation unit 12 to determine the imaging position can be reduced.

Figure 2010073035
Figure 2010073035

同様に、図9の(b)に示す領域Rと領域Rの左下に隣接する領域Rとの間における撮像位置間の距離、図9の(c)に示す領域Rと領域Rの下に隣接する領域Rとの間における撮像位置間の距離、および、図9の(d)に示す領域Rと領域Rとの間における撮像位置間の距離を求めることができる。 Similarly, the distance between the imaging positions between the region R 2 adjacent to the lower left region R B and the region R B shown in (b) of FIG. 9, region R B and the region R shown in (c) of FIG. 9 The distance between the imaging positions between the area R 3 adjacent to B and the distance between the imaging positions between the area R 2 and the area R 3 shown in (d) of FIG. 9 can be obtained. .

このような演算を行なうことによって、6+(4×9)=42通りの距離が求まる。そして、42通りの距離の最小値が、最大になるような撮像位置を求めるには、次の数式(8)で表される評価式について非線形最適化処理を行なえばよい。この数式(8)は、k箇所の撮像位置、すなわち2k次元ベクトルの変数を持つ連続関数であるため、数値解法によって、その解を求めることができる。   By performing such an operation, 6+ (4 × 9) = 42 distances can be obtained. In order to obtain an imaging position where the minimum value of 42 types of distances is maximized, nonlinear optimization processing may be performed on the evaluation formula represented by the following formula (8). Since Equation (8) is a continuous function having k imaging positions, that is, 2k-dimensional vector variables, the solution can be obtained by a numerical solution.

Figure 2010073035
Figure 2010073035

以上により、高解像度画像データの全体から見て分散した撮像位置を求めることができる。なお、ここでは1つの撮像素子の枠内に含まれる4つの撮像位置を決定する例を示したが、同様の手法にて任意の数の撮像位置を決定することができる。例えば、図6の例において、露光時間bで撮像する5つの撮像位置を決める場合には、求めるべき距離の総数は228個になるが、この場合にも同じ計算方法が適用できる。   As described above, it is possible to obtain imaging positions dispersed as viewed from the entire high-resolution image data. Although an example in which four imaging positions included in the frame of one imaging element are shown is shown here, an arbitrary number of imaging positions can be determined by a similar method. For example, in the example of FIG. 6, when five imaging positions to be imaged at the exposure time b are determined, the total number of distances to be obtained is 228. In this case, the same calculation method can be applied.

以上において説明した撮像位置を分散する手法は、一般的に次のように表現できる。すなわち、1つの撮像素子の枠内でk回の撮像を行なう場合に、注目した撮像素子の枠内における各撮像位置間の距離d mnは、撮像位置の各々を、(x0、y0)=(0,0)、(x1、y1)、…、(xk、yk)とすると、撮像素子の枠内における撮像位置間の距離は、次の数式(9)で表現できる。 The method for distributing the imaging positions described above can be generally expressed as follows. That is, when k times of imaging are performed within the frame of one image sensor, the distance d B mn between the imaging positions within the frame of the image sensor of interest is expressed as (x0, y0) = Assuming that (0, 0), (x1, y1),..., (Xk, yk), the distance between the imaging positions within the frame of the imaging element can be expressed by the following formula (9).

Figure 2010073035
Figure 2010073035

なお、上記数式(9)において、m≠nであり、m、n={1、…、k}である。   In the above formula (9), m ≠ n, and m, n = {1,..., K}.

また、上記注目した撮像素子の枠内の撮像位置と、当該撮像素子に隣接する撮像素子の枠内に含まれる各撮像位置との相互の距離d mnは、次の数式(10)で表現できる。 Further, a mutual distance d i mn between the imaging position within the frame of the noted imaging element and each imaging position included in the frame of the imaging element adjacent to the imaging element is expressed by the following formula (10). it can.

Figure 2010073035
Figure 2010073035

そして、これらの距離d mnおよびd mnについて数式(8)で表される評価式を解くことにより、分散した撮像位置を決定することができる。 Then, by solving the evaluation formula for these distances d B mn and d i mn is expressed by Equation (8), it is possible to determine the distributed imaging position.

以上のように、撮像位置決定装置10は、撮像画像データの1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、撮像画像データの1画素に相当する形状の中心に位置する、高解像度画像データの1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように撮像位置を設定する。また、少なくとも1つの撮像条件で撮像する撮像画像データについては、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置を設定する。   As described above, the imaging position determination device 10 virtually captures captured image data when the reference imaging position in which the reference pixel areas having a shape corresponding to one pixel of the captured image data are arranged in a matrix is set. The imaging position is set so that a central region having a shape corresponding to one pixel of the high-resolution image data located at the center of the shape corresponding to one pixel is included in the reference pixel region. In addition, for captured image data captured under at least one imaging condition, an imaging position is set such that the central region is arranged at a uniform or substantially uniform position with respect to the entire reference pixel region arranged in a matrix. To do.

これにより、高解像度画像データ上において、同じ撮像条件で撮像した撮像画像データに基づいて生成される画素が均等に配置されるので、何れかの撮像条件で撮像した撮像画像データにハレーション等が生じた場合であっても、近隣の画素で補間処理を行なうことができるので、高解像度画像データの精度低下を防ぐことができる。   As a result, on the high resolution image data, the pixels generated based on the captured image data captured under the same imaging conditions are evenly arranged, so that halation or the like occurs in the captured image data captured under any of the imaging conditions. Even in this case, since interpolation processing can be performed on neighboring pixels, it is possible to prevent a reduction in accuracy of high-resolution image data.

〔撮像位置決定処理の流れ〕
次に、図10に示すフローチャートを参照しながら、撮像位置決定装置10が、重み付けや、撮像位置の分散を考慮して撮像位置を決定する場合の動作について説明する。図10は、撮像位置決定装置10が撮像位置を決定する処理である撮像位置決定処理の一例を示すフローチャートである。
[Flow of imaging position determination processing]
Next, an operation when the imaging position determination device 10 determines the imaging position in consideration of weighting and dispersion of the imaging positions will be described with reference to the flowchart shown in FIG. FIG. 10 is a flowchart illustrating an example of an imaging position determination process that is a process in which the imaging position determination device 10 determines an imaging position.

なお、ここでは、露光時間aで4枚、露光時間bで5枚の撮像を行って得た計9枚の撮像画像データを用いて超解像処理を行なう場合について説明する。すなわち、以下では、図5に示したレコードが、撮像情報記憶部13に記憶されているものとする。   Here, a case will be described in which super-resolution processing is performed by using a total of nine captured image data obtained by capturing four images with an exposure time a and five images with an exposure time b. That is, in the following, it is assumed that the record illustrated in FIG. 5 is stored in the imaging information storage unit 13.

まず、撮像位置決定装置10において、撮像位置決定処理が開始されると、撮像位置計算部12の組合せ別撮像位置算出部17は、撮像情報記憶部13に記憶されている撮像情報から、優先度が最も高い撮像画像群を特定し、特定した撮像画像群の撮像枚数を読み出す(S301)。図5の例では、優先度が最も高い撮像画像群G1の撮像枚数である「4」が読み出される。   First, when the imaging position determination process is started in the imaging position determination device 10, the combination-specific imaging position calculation unit 17 of the imaging position calculation unit 12 determines the priority from the imaging information stored in the imaging information storage unit 13. The captured image group having the highest value is identified, and the number of captured images of the identified captured image group is read (S301). In the example of FIG. 5, “4”, which is the number of captured images of the captured image group G1 having the highest priority, is read.

続いて、組合せ別撮像位置算出部17は、上記読み出した撮像枚数の撮像を行なうときの撮像位置が略均等になる撮像位置を計算する(S302)。この撮像位置の算出方法は、上記〔撮像位置を分散する手法〕で説明したとおりである。ここでは、各撮像素子の枠内において、4つの撮像位置が決定されるので、図11ような撮像位置が決定される。   Subsequently, the combination-specific imaging position calculation unit 17 calculates an imaging position at which the imaging positions when imaging the number of images read out are substantially equal (S302). The method for calculating the imaging position is as described above in [Method for distributing imaging positions]. Here, since four imaging positions are determined within the frame of each imaging element, the imaging positions as shown in FIG. 11 are determined.

図11は、9回の撮像を行なう場合に、9回のうち4回の撮像を行なう撮像位置が均等になるように決定した撮像位置を示す図である。なお、同図において、Kは撮像素子を示し、Pは撮像位置を高解像度画像データの画素で示したものである。したがって、P1の一辺の長さは、撮像素子Kの一辺の長さの1/3ということになる。図示のように、P1は、撮像素子Kを2×2の4分割して得られる各矩形の中央に位置しており、高解像度画像データの全面に均等に配置されている。 FIG. 11 is a diagram illustrating the imaging positions determined so that the imaging positions at which four of the nine imagings are performed are equal when nine imagings are performed. In the figure, K is shown an image pickup element, P a shows the imaging position in the pixels of the high resolution image data. Therefore, the length of one side of P1 is 1/3 of the length of one side of the image sensor K. As shown in the figure, P1 is located at the center of each rectangle obtained by dividing the image sensor K into 2 × 2 quadrants, and is uniformly arranged on the entire surface of the high resolution image data.

そして、組合せ別撮像位置算出部17は、算出した4つの撮像位置を組合せ別撮像位置記憶部14に記憶する。なお、上述のように、図5の例では露光時間の短い撮像画像群の優先度を高くしている。つまり、S301で読み出された撮像枚数は、露光時間aで撮像する撮像枚数を示している。以下では、S302で計算された露光時間aに対応する4つの撮像位置を、撮像位置群Pと呼ぶ。 Then, the combination-specific imaging position calculation unit 17 stores the calculated four imaging positions in the combination-specific imaging position storage unit 14. As described above, in the example of FIG. 5, the priority of the captured image group having a short exposure time is set high. That is, the number of captured images read in S301 indicates the number of captured images with the exposure time a. Hereinafter, the four imaging positions corresponding to the exposure time a calculated in S302, referred to as image pickup position group P a.

次に、組合せ別撮像位置算出部17は、撮像情報記憶部13に記憶されている撮像情報から、優先度が低い方の撮像画像群を特定し、特定した撮像画像群の撮像枚数を読み出す。図5の例では、撮像画像群G2の撮像枚数である「9」が読み出される。続いて、組合せ別撮像位置算出部17は、上記読み出した撮像枚数の撮像を行なうときの撮像位置が略均等になる撮像位置を計算する(S303)。ここでは、各撮像素子の枠内において、9つの撮像位置が決定されるので、図12のような撮像位置が決定される。   Next, the combination-specific imaging position calculation unit 17 identifies a captured image group having a lower priority from the imaging information stored in the imaging information storage unit 13 and reads the number of captured images of the identified captured image group. In the example of FIG. 5, “9”, which is the number of captured images of the captured image group G2, is read out. Subsequently, the combination-specific imaging position calculation unit 17 calculates an imaging position at which the imaging positions when imaging the number of images read out are substantially equal (S303). Here, since nine imaging positions are determined within the frame of each imaging element, the imaging positions as shown in FIG. 12 are determined.

図12は、9回の撮像を行なう撮像位置が均等になるように決定した撮像位置を示す図である。なお、同図において、Kは撮像素子を示し、Pabは上記決定された撮像位置に対応する高解像度画像データの画素を示している。図示のように、Pabは、撮像素子Kを3×3の9分割した位置となっており、高解像度画像データの全面に均等に配置されている。 FIG. 12 is a diagram illustrating the imaging positions determined so that the imaging positions at which nine imagings are performed are equal. In the figure, K represents an image sensor, and P ab represents a pixel of high-resolution image data corresponding to the determined imaging position. As shown in the figure, P ab is a position obtained by dividing the image sensor K by 9 of 3 × 3, and is uniformly arranged on the entire surface of the high resolution image data.

そして、組合せ別撮像位置算出部17は、算出した9つの撮像位置を組合せ別撮像位置記憶部14に記憶する。なお、上述のように、ここでは超解像処理に9枚の撮像画像データを用いることを想定している。つまり、S301で読み出された撮像枚数「9」は、露光時間aおよびbで撮像する撮像枚数を示している。以下では、S303で計算された露光時間aおよびbに対応する9つの撮像位置を、撮像位置群Pabと呼ぶ。 The combination-by-combination imaging position calculation unit 17 stores the calculated nine imaging positions in the combination-by-combination imaging position storage unit 14. As described above, here, it is assumed that nine pieces of captured image data are used for the super-resolution processing. That is, the number “9” of images picked up in S301 indicates the number of images picked up at the exposure times a and b. Hereinafter, the nine imaging positions corresponding to the exposure times a and b calculated in S303 are referred to as an imaging position group Pab .

S302において、露光時間aで撮像する4枚の撮像画像データの撮像位置は決定済みであるから、次に、条件別撮像位置選択部18は、露光時間bで撮像する5枚の撮像画像データの撮像位置を決定する(S304)。具体的には、条件別撮像位置選択部18は、組合せ別撮像位置記憶部14に記憶された9つの撮像位置の中から、5つの撮像位置が9つの撮像位置の中で略均等な配置となるように撮像位置を選択する。以下では、S304で選択された露光時間bに対応する5つの撮像位置を、撮像位置群Pと呼ぶ。 In S302, since the imaging positions of the four captured image data to be imaged at the exposure time a have been determined, the condition-specific imaging position selection unit 18 then selects the five captured image data to be imaged at the exposure time b. An imaging position is determined (S304). Specifically, the imaging position selection unit 18 by condition sets the five imaging positions among the nine imaging positions out of the nine imaging positions stored in the combination imaging position storage unit 14. The imaging position is selected so that Hereinafter, five imaging positions corresponding to the exposure time b selected in S304, referred to as image pickup position group P b.

例えば、図13のようにして撮像素子群Pの5つの撮像位置を決定することができる。図13は、9回の撮像を行なう撮像位置が均等になるように決定した撮像位置から選択した9つの撮像位置から選択された5つの撮像位置に対応する高解像度画像データの画素の配置を示す図である。 For example, it is possible to determine the five imaging position of the imaging element group P b as FIG. FIG. 13 shows the arrangement of pixels of high-resolution image data corresponding to five imaging positions selected from nine imaging positions selected from the imaging positions determined so that the imaging positions for performing nine imagings are equal. FIG.

なお、同図において、Kは撮像素子を示し、Pは上記選択された撮像位置に対応する高解像度画像データの画素を示している。条件別撮像位置選択部18は、図示のように、基準画素領域内に9つの中心領域をマトリクス状に配置したときの、9つの中心領域のそれぞれに対応する撮像位置から5つの撮像位置、すなわち、撮像位置群Pを選択して設定する。 In the figure, K is shown an image pickup element, P b represents the pixels of the high resolution image data corresponding to the selected imaging position. As shown in the drawing, the condition-specific imaging position selection unit 18 has five imaging positions from the imaging positions corresponding to each of the nine central areas when nine central areas are arranged in a matrix in the reference pixel area, that is, The imaging position group Pb is selected and set.

図示のように、条件別撮像位置選択部18よって設定されたPは、撮像素子Kを3×3の9分割して得られる矩形の中央、左上、左下、右上、および右下に位置している。また同図では、9つの撮像位置のうち、5つの撮像位置として選択されなかった4つの撮像位置に対応する高解像度画像データの画素をP’で示している。この画素P’に対応する撮像位置群を撮像位置群P’と呼ぶ。 As shown, by condition imaging position selecting unit 18 thus configured P b is the center of the rectangle obtained by 9 divide the image pickup element K 3 × 3, upper left, lower left, upper right, and located in the lower right ing. Further, in the drawing, pixels of high-resolution image data corresponding to four imaging positions that are not selected as five imaging positions among the nine imaging positions are indicated by P a ′. An imaging position group corresponding to the pixel P a ′ is referred to as an imaging position group P a ′.

なお、図10の例では、撮像位置群Pを決定した後に撮像位置群P’および撮像位置群Pを決定する例を示しているが、撮像位置群P’および撮像位置群Pを先に決定してもよいし、これらの撮像位置群を決定する処理を平行して行なうようにしてもよい。 In the example of FIG. 10, 'an example is shown for determining the and imaging position group P b, the imaging position group P a' imaging position group P a after determining the imaging position group P a and the image pickup position group P b may be determined first, or the processing for determining these imaging position groups may be performed in parallel.

以上のようにして、組合せ別撮像位置算出部17が露光時間aに対応する4つの撮像位置からなる撮像位置群Pを決定し、条件別撮像位置選択部18が露光時間bに対応する5つの撮像位置からなる撮像位置群Pおよび4つの撮像位置からなる撮像位置群P’を決定して、組合せ別撮像位置記憶部14に記憶すると、その旨が重み付け撮像位置決定部19に通知される。 As described above, the combination by the image pickup position calculating unit 17 determines the imaging position group P a of four imaging positions corresponding to the exposure time a, Conditional imaging position selection section 18 corresponds to the exposure time b 5 When an imaging position group P b consisting of four imaging positions and an imaging position group P a ′ consisting of four imaging positions are determined and stored in the combination-specific imaging position storage unit 14, the weighted imaging position determination unit 19 is notified accordingly. Is done.

通知を受けた重み付け撮像位置決定部19は、組合せ別撮像位置記憶部14に記憶されている撮像位置群Pと、P’とを読み出す。そして、重み付け撮像位置決定部19は、撮像位置群PとP’との、重み付け平均によって求めた4つの撮像位置を露光時間aに対応する最終的な撮像位置として決定する(S305)。 Weighted imaging position determining unit 19 receives the notification, the imaging position group P a stored in the combination by the image pickup position storage unit 14, reads the P a '. Then, the weighted imaging position determination unit 19 determines the four imaging positions obtained by the weighted average of the imaging position groups P a and P a ′ as final imaging positions corresponding to the exposure time a (S305).

具体的には、重み付け撮像位置決定部19は、S302で求めた露光時間aに対応する4つの撮像位置(撮像位置群P)のそれぞれと、撮像位置群P’に含まれる撮像位置のそれぞれとの距離(例えば、撮像位置の中心を示す2次元座標間の距離)を求め、撮像位置群Pに含まれる撮像位置のそれぞれについて、その撮像位置と最も近い位置の撮像位置群P’に含まれる撮像位置を特定する。 Specifically, the weighted imaging position determination unit 19 determines each of the four imaging positions (imaging position group P a ) corresponding to the exposure time a obtained in S302 and the imaging positions included in the imaging position group P a ′. the distance between the respective (e.g., the distance between the two-dimensional coordinates indicating the center of the image pickup position) seeking, for each imaging position included in the captured position group P a, the image pickup position group P a closest position and the captured position Specify the imaging position included in '.

つまり、ここでは撮像位置群Pに含まれる撮像位置と、撮像位置群P’に含まれる撮像位置とで、最近傍となる撮像位置のペアが特定される。この例では、撮像位置群PおよびP’は、それぞれ4つの撮像位置で構成されているので、4組のペアが特定される。なお、1つの撮像位置に対して、同じ距離の撮像位置が複数存在する場合には、同じ距離の撮像位置から1つの撮像位置を選択し、撮像位置群Pに含まれる各撮像位置と、撮像位置群P’に含まれる各撮像位置とが一対一となるペアを特定する。 That is, in this and the imaging position is included in the captured position group P a, at the imaging position included in the imaging position group P a ', a pair of imaging position recently become neighbor is identified. In this example, the imaging position groups P a and P a ′ are each composed of four imaging positions, so that four pairs are identified. Note that for one imaging position, when the imaging position of the same distance there are multiple, select one imaging position from the imaging position of the same distance, and each imaging position included in the imaging position group P a, A pair in which each imaging position included in the imaging position group P a ′ is on a one-to-one basis is specified.

そして、重み付け撮像位置決定部19は、上記特定した最近傍となる撮像位置のペアについて、組合せ別重み記憶部15に格納されている重みを用いて重み付けを行なうことによって、撮像位置群Pの各撮像位置を補正して、露光時間aに対応する4つの最終的な撮像位置を決定する。 Weighting imaging position determining unit 19, for a pair of image pickup positions to be nearest specified above, by performing weighting using the weights stored in combination by weight storage unit 15, the imaging position group P a Each imaging position is corrected, and four final imaging positions corresponding to the exposure time a are determined.

つまり、重み付け撮像位置決定部19は、撮像位置群Pの撮像位置と、撮像位置群P’の撮像位置の中で、上記撮像位置群Pの撮像位置と最近傍となる撮像位置とを結ぶ線分上に最終的な撮像位置を決定する。そして、この線分上の位置を決めるのが重みということになる。 In other words, the weighted imaging position determining unit 19 includes an imaging position of the imaging position group P a, in the imaging position of the imaging position group P a ', and the imaging position and recent the neighbor imaging position of the imaging position group P a The final imaging position is determined on the line segment connecting the two. The position on this line segment is determined by the weight.

ここで、撮像位置群Pは、隣接する撮像素子における撮像位置の分散も考慮して決められているので、撮像位置群Pを露光時間aに対応する撮像位置として決定した場合には、高解像度画像データにおいて、露光時間aで撮像された撮像画像データに由来する画素が均一に分布する(図11参照)。 The imaging position group P a, so are determined in consideration of dispersion of the imaging position in the adjacent image pickup device, when determining the imaging position group P a as an imaging position corresponding to the exposure time a, In the high-resolution image data, pixels derived from the captured image data captured at the exposure time a are uniformly distributed (see FIG. 11).

つまり、撮像位置群Pを適用した場合には、露光時間bで撮像された撮像画像データにハレーションが発生して白とび画素が生じたとしても、露光時間bよりも短い露光時間aで撮像された撮像画像データに由来する画素が均一に分布することから、高解像度画像データにおいて、白とび画素を近隣の画素で補間することができる。 In other words, the imaging of the imaging position group P a when applied to an exposure as halation in the captured image data imaged has occurred overexposed pixels occurs at time b, a short exposure time a than the exposure time b Since pixels derived from the captured image data are uniformly distributed, overexposed pixels can be interpolated with neighboring pixels in the high-resolution image data.

一方、撮像位置群Pは、図18で説明したような一般的な撮像位置である撮像位置群P’からずれているので、白とび等の発生を考慮しなければ、撮像位置群Pを露光時間aに対応する撮像位置として決定した場合には、撮像位置群P’を露光時間aに対応する撮像位置として決定した場合と比べて、高解像度画像データの精度が落ちることも考えられる。 On the other hand, the imaging position group P a is deviated from the imaging position group P a ′, which is a general imaging position as described with reference to FIG. When a is determined as the imaging position corresponding to the exposure time a, the accuracy of the high-resolution image data may be lower than when the imaging position group P a ′ is determined as the imaging position corresponding to the exposure time a. Conceivable.

そこで、重み付け撮像位置決定部19は、白とびや黒つぶれ画素の補間と、高解像度画像データの精度とのバランスを適切に設定するために、重み付けを行なって、撮像位置PとP’との間で最終的な撮像位置を決定する。つまり、白とびや黒つぶれ画素の補間を重視する場合には、撮像位置群Pの重みが大きく設定される。一方、白とびや黒つぶれ画素の補間の必要性が低い場合には、撮像位置群P’の重みが大きく設定される。 Therefore, weighting the imaging position determining unit 19, the interpolation of overexposure or underexposure pixels, in order to appropriately set the balance between the accuracy of high-resolution image data, by performing weighted imaging position P a and P a ' The final imaging position is determined between That is, when importance is attached interpolation overexposure or underexposure pixels, the weight of the imaging position group P a is set larger. On the other hand, when the need for interpolation of overexposed or underexposed pixels is low, the weight of the imaging position group P a ′ is set large.

重み付けを行なった後の最終的な撮像位置は、例えば図14に示すような態様となる。図14は、最終的に決定された撮像位置の一例を示す図である。同図のPは、露光時間aで撮像する撮像位置に対応する高解像度画像データの画素を示し、同図のPは、露光時間bで撮像する撮像位置に対応する高解像度画像データの画素を示している。 For example, the final imaging position after weighting is as shown in FIG. FIG. 14 is a diagram illustrating an example of the finally determined imaging position. P a in the figure shows the pixels of the high resolution image data corresponding to the imaging position to the imaging exposure time a, P b in the figure, the high-resolution image data corresponding to the imaging position to the imaging exposure time b A pixel is shown.

図14の例では、白とび画素の補間を重視する例を示しており、撮像位置群Pの重みが1、撮像位置群P’の重みが0に設定されている。この場合には、図示のように、撮像位置群P’は考慮されず、撮像位置群Pがそのまま露光時間aに対応する撮像位置として決定される。 In the example of FIG. 14 shows an example that emphasizes interpolation overexposed pixels, the weight of the imaging position group P a is 1, the weight of the imaging position group P a 'is set to 0. In this case, as illustrated, P a 'is the imaging position group is not considered, is determined as the imaging position imaging position group P a is directly corresponding to the exposure time a.

無論、重みの設定は、上記の例に限られない。例えば、撮像位置群Pの重みを0.5、撮像位置群P’の重みを0.5に設定してもよい。この場合には、撮像位置群Pと撮像位置群P’との中間地点が露光時間aに対応する撮像位置として決定される。つまり、重みは、重み付けの対象となる各撮像位置群の重みの総和が1になるように設定されていればよい。 Of course, the setting of the weight is not limited to the above example. For example, the weight of the imaging position group P a 0.5, the weight of the imaging position group P a 'may be set to 0.5. In this case, the middle point of the imaging position group P a and the imaging position group P a 'is determined as the image pickup position corresponding to the exposure time a. In other words, the weights only need to be set so that the sum of the weights of the respective imaging position groups to be weighted becomes 1.

なお、本実施形態では、撮像位置群Pの重みを1、撮像位置群P’の重みを0に固定することを想定しているが、重みは変更できるように構成することが好ましい。これにより、例えば生成した高解像度画像データの外観(エッジの出方、ボヤケ方等)を確認した後、その確認結果に応じて重みを変更することによって、最適な重みを決定し、より高精度な高解像度画像データを生成することも可能になる。 In the present embodiment, 1 the weight of the imaging position group P a, it is assumed that fixing the weight of the imaging position group P a '0, it is preferably configured to weight can be changed. As a result, for example, after confirming the appearance of the generated high-resolution image data (edge appearance, blurring, etc.), the optimum weight is determined by changing the weight according to the confirmation result. It is also possible to generate high-resolution image data.

以上の処理により、全ての撮像位置が決定されるので、重み付け撮像位置決定部19は、決定した撮像位置と、該撮像位置に置ける撮像条件(この例では露光時間がaかbかを示す情報)とを対応付けて撮像条件保存部32に格納する。そして、撮像条件保存部32に格納されている撮像条件に基づいて撮像制御部31が撮像装置20を駆動することによって、撮像位置決定装置10が決定した撮像位置で撮像が行なわれ、撮像画像データが取得される。   Since all the imaging positions are determined by the above processing, the weighted imaging position determining unit 19 determines the determined imaging position and the imaging condition that can be placed at the imaging position (in this example, information indicating whether the exposure time is a or b). Are associated with each other and stored in the imaging condition storage unit 32. Then, when the imaging control unit 31 drives the imaging device 20 based on the imaging conditions stored in the imaging condition storage unit 32, imaging is performed at the imaging position determined by the imaging position determination device 10, and captured image data Is acquired.

撮像条件は、例えば図15に示すようなデータ構造とすることもできる。図15は、撮像条件のデータ構造の一例を示す図である。図示のように、撮像条件には、撮像画像データの識別子である画像番号、撮像条件(この例では露光時間)、撮像位置を示す撮像X座標および撮像Y座標の項目が含まれている。   The imaging condition can be a data structure as shown in FIG. 15, for example. FIG. 15 is a diagram illustrating an example of a data structure of imaging conditions. As illustrated, the imaging conditions include items of an image number that is an identifier of the captured image data, an imaging condition (in this example, an exposure time), an imaging X coordinate that indicates an imaging position, and an imaging Y coordinate.

なお、図15の例では、撮像条件として具体的な数値が示されている。この数値は、撮像位置決定装置10が設定してもよいし、他の装置(例えば制御装置30)で設定してもよい。この数値を画像処理システム1のユーザが入力、設定、および変更することができるように構成することが好ましい。   In the example of FIG. 15, specific numerical values are shown as the imaging conditions. This numerical value may be set by the imaging position determination device 10 or may be set by another device (for example, the control device 30). The numerical value is preferably configured so that the user of the image processing system 1 can input, set, and change the numerical value.

画像処理システム1では、撮像制御部31が、このようなデータを用いて撮像装置20を駆動することによって、図14に示すような撮像位置で撮像が行なわれ、撮像画像データが取得される。そして、取得された撮像画像データを上述のダイナミックレンジ拡大超解像処理に供することにより、ダイナミックレンジの拡大された高解像度画像データを生成する。   In the image processing system 1, the imaging control unit 31 drives the imaging device 20 using such data, so that imaging is performed at an imaging position as illustrated in FIG. 14 and captured image data is acquired. Then, the obtained captured image data is subjected to the above-described dynamic range expansion super-resolution processing, thereby generating high-resolution image data with an expanded dynamic range.

〔超解像処理について〕
上述のダイナミックレンジ拡大超解像処理では、複数の撮像画像セットを用いる例について説明したが、撮像位置決定装置10は1組の撮像画像セットの撮像位置を決定するものである。したがって、撮像位置決定装置10が決定した撮像位置で撮像された撮像画像データを用いて超解像処理を行なう場合の処理は、上述した処理と部分的に異なったものとなる。ここでは、撮像位置決定装置10が決定した撮像位置で撮像された撮像画像データを用いて超解像処理を行なう場合の処理について、図3に基づいて説明する。
[About super-resolution processing]
In the above-described dynamic range expansion super-resolution processing, an example in which a plurality of captured image sets are used has been described. However, the imaging position determination device 10 determines the imaging positions of one set of captured image sets. Therefore, the processing in the case where the super-resolution processing is performed using the captured image data captured at the imaging position determined by the imaging position determination device 10 is partially different from the above-described processing. Here, a process in the case where the super-resolution processing is performed using the captured image data captured at the imaging position determined by the imaging position determination device 10 will be described with reference to FIG.

撮像位置決定装置10が撮像条件保存部32に撮像条件を格納し、この撮像条件に基づいて撮像された撮像画像データが低解像度画像保存部33に格納されると、正規化処理部43は、撮像条件保存部32に格納されている撮像条件に基づいて、低解像度画像保存部33に格納された撮像画像データの正規化を行なう。撮像位置決定装置10は、1枚の高解像度画像データを生成するために必要な1セットの撮像画像データの撮像に用いられる撮像位置を決定するので、ここではこの1セットの撮像画像データ間で正規化が行なわれる。   When the imaging position determination device 10 stores the imaging conditions in the imaging condition storage unit 32 and the captured image data captured based on the imaging conditions is stored in the low resolution image storage unit 33, the normalization processing unit 43 Based on the imaging conditions stored in the imaging condition storage unit 32, the captured image data stored in the low resolution image storage unit 33 is normalized. Since the imaging position determination apparatus 10 determines an imaging position used for imaging one set of captured image data necessary for generating one piece of high-resolution image data, here, between the one set of captured image data. Normalization is performed.

正規化が行なわれた後は、領域抽出部47によって領域抽出を行なって高解像度画像データを生成するようにしてもよいし、一般的な超解像処理と同様の手順で高解像度画像データを生成することも可能である。この場合には、擬似低解像度画像生成部46が、高解像度画像保存部34に格納されている高解像度画像データを低解像度化した擬似低解像度画像データと、上記正規化後の撮像画像データとの差分画像データが差分画像生成部45によって生成される。そして、この差分画像データを評価関数に代入して評価値を求め、評価値が小さくなるように高解像度画像データを更新する処理を繰り返すことにより、高解像度画像データを生成することができる。   After normalization, the region extraction unit 47 may perform region extraction to generate high-resolution image data, or the high-resolution image data may be generated in the same procedure as in general super-resolution processing. It is also possible to generate. In this case, the pseudo low-resolution image generation unit 46 performs pseudo-low-resolution image data obtained by reducing the resolution of the high-resolution image data stored in the high-resolution image storage unit 34, and the captured image data after the normalization. The difference image data is generated by the difference image generation unit 45. Then, the high resolution image data can be generated by substituting the difference image data into the evaluation function to obtain the evaluation value and repeating the process of updating the high resolution image data so that the evaluation value becomes small.

〔撮像条件が3通り以上の場合について〕
上記では、撮像条件が2通りの場合に撮像位置を決定する例ついて説明したが、撮像位置決定装置10は、撮像条件が3通り以上の場合にも撮像位置を決定することができる。ここでは、撮像条件が3通りの場合に撮像位置を決定する例について図16に基づいて説明する。図16は、撮像位置決定装置10において、撮像条件が3通りであるときに、撮像位置を決定する場合における処理の流れの一例を示すフローチャートである。
[About three or more imaging conditions]
In the above description, the example in which the imaging position is determined when there are two imaging conditions has been described. However, the imaging position determination device 10 can determine the imaging position even when there are three or more imaging conditions. Here, an example in which the imaging position is determined when there are three imaging conditions will be described with reference to FIG. FIG. 16 is a flowchart illustrating an example of a process flow when the imaging position determination apparatus 10 determines the imaging position when there are three imaging conditions.

ここでは、撮像情報記憶部13には、撮像情報として、“撮像画像群G11”、“撮像画像群G12”および“撮像画像群G13”が記憶されているものとする。また、 “撮像画像群G11”の「撮像枚数」には“A”枚が、「優先度」には“1”が設定されているものとする。そして、“撮像画像群G12”の「撮像枚数」には“A+B+C”枚が、「優先度」には“3”が設定されているものとし、“撮像画像群G13”の「撮像枚数」には“C”枚が、「優先度」には“2”が設定されているものとする。   Here, it is assumed that the captured image information storage unit 13 stores “captured image group G11”, “captured image group G12”, and “captured image group G13” as captured image information. Further, it is assumed that “A” images are set in the “number of imaged images” of the “imaged image group G11”, and “1” is set in the “priority”. Then, it is assumed that “A + B + C” is set in the “number of captured images” in the “captured image group G12”, “3” is set in the “priority”, and the “number of captured images” in the “captured image group G13” is set. Is “C” and “2” is set for “priority”.

また、撮像画像群G11は露光時間aで撮像を行ない、撮像画像群G12は露光時間bで撮像を行ない、撮像画像群G13は露光時間cで撮像を行なうものとする。露光時間の大小関係は、a<b<cである。   The captured image group G11 is captured at the exposure time a, the captured image group G12 is captured at the exposure time b, and the captured image group G13 is captured at the exposure time c. The relationship between the exposure times is a <b <c.

このように、撮像条件を3つにした場合には、撮像条件が2つの場合と比べてダイナミックレンジをより拡大することができる。すなわち、露光時間bで撮像された撮像画像データの一部領域が白とびしている場合には、より露光時間が短い露光時間aで撮像された撮像画像データを用いることによって白とび画素の輝度値を補間することができる。同様に、露光時間bで撮像された撮像画像データの一部領域が黒つぶれしている場合には、より露光時間が短い露光時間aで撮像された撮像画像データを用いることによって黒つぶれ画素の輝度値を補間することができる。   As described above, when the number of imaging conditions is three, the dynamic range can be further expanded as compared with the case where the number of imaging conditions is two. That is, when a part of the captured image data captured at the exposure time b is overexposed, the brightness of the overexposed pixel is obtained by using the captured image data captured at the exposure time a with a shorter exposure time. Values can be interpolated. Similarly, when a part of the imaged image data imaged at the exposure time b is blacked out, the image of the blackout pixel is obtained by using the imaged image data imaged at the exposure time a having a shorter exposure time. Luminance values can be interpolated.

まず、撮像位置決定装置10において、撮像位置決定処理が開始されると、撮像位置計算部12の組合せ別撮像位置算出部17は、撮像情報記憶部13に記憶されている撮像情報から、優先度が最も高い撮像画像群を特定し、特定した撮像画像群の撮像枚数を読み出す。この例では、優先度が最も高い撮像画像群G11の撮像枚数である“A”が読み出される。   First, when the imaging position determination process is started in the imaging position determination device 10, the combination-specific imaging position calculation unit 17 of the imaging position calculation unit 12 determines the priority from the imaging information stored in the imaging information storage unit 13. The captured image group having the highest value is identified, and the number of captured images of the identified captured image group is read. In this example, “A”, which is the number of captured images of the captured image group G11 having the highest priority, is read.

そして、組合せ別撮像位置算出部17は、上記読み出した撮像枚数の撮像を行なうときの撮像位置が分散する撮像位置を求める(S401)。この撮像位置の算出方法は、上記〔撮像位置を分散する手法〕で説明したとおりである。以下の説明では、S401で求めたA個の撮像位置を撮像位置群Pと呼ぶ。組合せ別撮像位置算出部17は、求めた撮像位置を組合せ別撮像位置記憶部14に記憶する。 Then, the combination-specific imaging position calculation unit 17 obtains imaging positions at which the imaging positions are dispersed when the above-described readout number of images is captured (S401). The method for calculating the imaging position is as described above in [Method for distributing imaging positions]. In the following description, it referred to A number of imaging position determined in step S401 and the imaging position group P a. The combination-specific imaging position calculation unit 17 stores the obtained imaging position in the combination-specific imaging position storage unit 14.

次に、組合せ別撮像位置算出部17は、撮像情報記憶部13に記憶されている撮像情報から、優先度が2番目に高い撮像画像群を特定し、特定した撮像画像群の撮像枚数を読み出す。この例では、撮像画像群G13の撮像枚数である“C”が読み出される。   Next, the combination-specific imaging position calculation unit 17 identifies a captured image group having the second highest priority from the imaging information stored in the imaging information storage unit 13, and reads the number of captured images of the identified captured image group. . In this example, “C”, which is the number of captured images of the captured image group G13, is read out.

そして、組合せ別撮像位置算出部17は、上記読み出した撮像枚数の撮像を行なうときの撮像位置が分散する撮像位置を計算する(S402)。この撮像位置の算出方法は、上記〔撮像位置を分散する手法〕で説明したとおりである。以下の説明では、S402で求めたC個の撮像位置を撮像位置群Pと呼ぶ。組合せ別撮像位置算出部17は、求めた撮像位置を組合せ別撮像位置記憶部14に記憶する。 Then, the combination-specific imaging position calculation unit 17 calculates the imaging positions at which the imaging positions are dispersed when the above-described read number of images is captured (S402). The method for calculating the imaging position is as described above in [Method for distributing imaging positions]. In the following description, the C imaging positions obtained in S402 are referred to as an imaging position group Pc . The combination-specific imaging position calculation unit 17 stores the obtained imaging position in the combination-specific imaging position storage unit 14.

さらに、組合せ別撮像位置算出部17は、撮像情報記憶部13に記憶されている撮像情報から、優先度が最も低い撮像画像群を特定し、特定した撮像画像群の撮像枚数を読み出す。この例では、撮像画像群G12の撮像枚数である“A+B+C”が読み出される。   Further, the combination-specific imaging position calculation unit 17 identifies the captured image group having the lowest priority from the imaging information stored in the imaging information storage unit 13 and reads the number of captured images of the identified captured image group. In this example, “A + B + C”, which is the number of captured images of the captured image group G12, is read.

そして、組合せ別撮像位置算出部17は、上記読み出した撮像枚数の撮像を行なうときの撮像位置が分散する撮像位置を計算する(S403)。この撮像位置の算出方法は、上記〔撮像位置を分散する手法〕で説明したとおりである。以下の説明では、S403で求めたA+B+C個の撮像位置を撮像位置群Pabcと呼ぶ。組合せ別撮像位置算出部17は、求めた撮像位置を組合せ別撮像位置記憶部14に記憶する。 Then, the combination-specific imaging position calculation unit 17 calculates the imaging positions at which the imaging positions are dispersed when performing the imaging of the read number of images (S403). The method for calculating the imaging position is as described above in [Method for distributing imaging positions]. In the following description, the A + B + C imaging positions obtained in S403 are referred to as an imaging position group Pabc . The combination-specific imaging position calculation unit 17 stores the obtained imaging position in the combination-specific imaging position storage unit 14.

以上のようにして、組合せ別撮像位置算出部17が撮像画像群G11〜13に対応する撮像位置群を求めると、条件別撮像位置選択部18は、上記撮像位置群Pabcから、撮像位置群Pに含まれる各撮像位置と距離が近いA個の撮像位置を選択してこれを撮像位置群P’とする。また、条件別撮像位置選択部18は、残りのB+C個の撮像位置を撮像位置群Pbcとする(S404)。 When the combination-specific imaging position calculation unit 17 obtains the imaging position group corresponding to the captured image groups G11 to G13 as described above, the condition-specific imaging position selection unit 18 acquires the imaging position group from the imaging position group P abc. each imaging position and distance contained in P a selects the a-number of the imaging position close this and imaging position group P a '. Further, the imaging position selection unit 18 by condition sets the remaining B + C imaging positions as the imaging position group P bc (S404).

続いて、条件別撮像位置選択部18は、上記求めた撮像位置群Pbcから、撮像位置群Pに含まれる各撮像位置と距離が近いC個の撮像位置を選択してこれを撮像位置群P’とする。また、条件別撮像位置選択部18は、残りのB+C個の撮像位置を撮像位置群Pとする(S404)。この撮像位置群Pに対しては重み付けが行なわれず、このまま露光時間bで撮像を行なう撮像位置として決定される。 Subsequently, the condition-specific imaging position selection unit 18 selects C imaging positions that are close to each imaging position included in the imaging position group P c from the obtained imaging position group P bc , and selects these imaging positions. Let it be a group P c ′. The condition-specific imaging position selecting unit 18, the rest of the B + C-number of the imaging position and the imaging position group P b (S404). This is not for the imaging position group P b is performed weighting is determined as the imaging position for imaging in this state exposure time b.

一方、露光時間aまたはcで撮像を行なう撮像位置については、重み付けによって最終的な撮像位置が決定される。すなわち、組合せ別撮像位置算出部17および条件別撮像位置選択部18は、撮像画像群P、P、P’、P’の各撮像位置を決定した後、その旨を重み付け撮像位置決定部19に伝達する。 On the other hand, the final imaging position is determined by weighting with respect to the imaging position where imaging is performed at the exposure time a or c. That is, the combination-specific imaging position calculation unit 17 and the condition-specific imaging position selection unit 18 determine the imaging positions of the captured image groups P a , P c , P a ′, and P c ′, and then weight the imaging positions. This is transmitted to the determination unit 19.

そして、伝達を受けた重み付け撮像位置決定部19は、撮像画像群PとP’とで重み付けを行なって露光時間aで撮像するA個の最終的な撮像位置を算出する。また、重み付け撮像位置決定部19は、撮像画像群PとP’とで重み付けを行なって露光時間cで撮像するC個の最終的な撮像位置を算出する(S406)。 Weighting imaging position determining unit 19 which receives the transmission calculates the A-number of the final imaging position for imaging by exposure time a by performing weighted out with captured images P a and P a '. Further, the weighted imaging position determination unit 19 performs weighting with the captured image groups P c and P c ′ and calculates C final imaging positions to be imaged at the exposure time c (S406).

以上の処理により、露光時間aで撮像するA個の撮像位置と、露光時間bで撮像するB個の撮像位置と、露光時間cで撮像するC個の撮像位置とが求められ、これらの撮像位置が撮像条件保存部32に格納されて、撮像位置決定処理は終了する。   With the above processing, A image pickup positions to be imaged at the exposure time a, B image pickup positions to be imaged at the exposure time b, and C image pickup positions to be imaged at the exposure time c are obtained. The position is stored in the imaging condition storage unit 32, and the imaging position determination process ends.

このように、撮像条件が3種類である場合も、撮像条件が2種類である場合と同様に、まず、優先度の高い撮像条件で撮像する撮像位置(図10の撮像位置群P、図16の撮像位置群P、P)が上記〔撮像位置を分散する手法〕で説明した方法によって求められる。 As described above, even when there are three types of imaging conditions, as in the case where there are two types of imaging conditions, first, the imaging positions for imaging under the imaging conditions with high priority (the imaging position group P a in FIG. 16 imaging position groups P a , P c ) are obtained by the method described in the above [Method for distributing imaging positions].

そして、優先度の低い撮像条件で撮像する撮像位置(図10および図16の撮像位置群P)は、通常の撮像位置(図12、図13参照)となる。また、この通常の撮像位置のうち、撮像位置として決定されなかったもの(図10の撮像位置群P’、図16の撮像位置群P’、P’)と、上記〔撮像位置を分散する手法〕で説明した方法によって求められた撮像位置(図10の撮像位置群P、図16の撮像位置群P、P)とでペアが形成される。そして、形成されたペア間で重み付けを行なうことによって、最終的な撮像位置が決定される。 The imaging position for imaging by the low priority imaging conditions (imaging position group P b in FIGS. 10 and 16) is a normal imaging position (see FIG. 12, FIG. 13). Also, among the normal imaging position, not to have been determined as an imaging position (imaging position group P a 'of FIG. 10, the imaging position group P a in FIG. 16', P c '), the [image pickup position image pickup position obtained by the method described in a distributed approach to] (imaging position group P a in FIG. 10, the imaging position group P a in FIG. 16, P c) pairs out to be formed. Then, the final imaging position is determined by performing weighting between the formed pairs.

なお、図10の例では、撮像位置群Pabの中から撮像位置群Pを決定し、決定されなかった撮像位置を撮像位置群P’としており、図16の例では、撮像位置群Pabcの中から撮像位置群Pに対応する位置のものを撮像位置群P’として決定し、さらに撮像位置群Pbcの中から撮像位置群Pに対応する位置のものを撮像位置群P’として決定している。そして、選択されなかった撮像位置を撮像位置群Pとしている。 In the example of FIG. 10, to determine the imaging position group P b from the imaging position group P ab, and the imaging position group P a 'the imaging position has not been determined, in the example of FIG. 16, the imaging position group those from the P abc the position corresponding to the imaging position group P a is determined as the imaging position group P a ', further imaging position as a position corresponding to the imaging position group P c from the imaging position group P bc It is determined as a group P c ′. Then, it is the imaging position group P b an imaging position that is not selected.

つまり、図10の例と図16の例とでは、優先度の低い撮像条件に対応する撮像位置の決定プロセスが逆転している。この処理では、図18や図12、図13に示すような一般的な撮像位置の中から、優先度の低い撮像条件に対応する撮像位置と、優先度の高い撮像条件に対応する撮像位置とが選択されればよいので、何れのプロセスを採用しても構わない。   That is, in the example of FIG. 10 and the example of FIG. 16, the determination process of the imaging position corresponding to the imaging condition with low priority is reversed. In this process, among general imaging positions as shown in FIGS. 18, 12, and 13, an imaging position corresponding to an imaging condition with a low priority, an imaging position corresponding to an imaging condition with a high priority, Any process may be adopted as long as it is selected.

〔その他の高解像度化処理への適用〕
上記では、撮像位置決定装置10によって決定された撮像位置で撮像した撮像画像データを用いて超解像処理を行なう例について説明したが、この撮像画像データは、超解像処理以外の高解像度化手法においても利用することが可能である。
[Application to other high resolution processing]
In the above, the example in which the super-resolution processing is performed using the captured image data captured at the imaging position determined by the imaging position determination device 10 has been described. However, the captured image data has a higher resolution than the super-resolution processing. It can also be used in the method.

例えば、補間による高解像度化の手法について適用することができる。補間によって撮像画像データを高解像度化する場合には、高解像画像データの各画素データを周囲の撮像画像データの画素データに基づいて生成する補間処理を行なう。   For example, it can be applied to a technique for increasing the resolution by interpolation. When the resolution of the captured image data is increased by interpolation, an interpolation process for generating each pixel data of the high resolution image data based on the pixel data of the surrounding captured image data is performed.

ここで、周囲の撮像画像データにおいて白とび領域等の有効な画像情報が欠落した領域が含まれる場合には、高解像度画像データの画素データが、離れた位置にある撮像画素データの画素から算出される。このような場合には、補間処理の精度が低下してしまう。   Here, when the surrounding captured image data includes a region where valid image information such as a whiteout region is missing, the pixel data of the high-resolution image data is calculated from the pixels of the captured pixel data at a distant position. Is done. In such a case, the accuracy of the interpolation process decreases.

これに対し、以上に説明した撮像位置決定方法を用いて、撮像位置が分散するように撮像位置を決定して得た撮像画像データを用いる場合には、補間処理の対象となる画素がほぼ均一に分散するので、補間処理の精度の低下を防ぐことができる。なお、この場合には、複数の露光時間で撮像を行なって得た撮像画像データを用いるので、撮像画像データの輝度値を正規化した後で補間処理が行なわれる。   On the other hand, when using the captured image data obtained by determining the imaging positions so that the imaging positions are dispersed using the imaging position determination method described above, the pixels to be interpolated are substantially uniform. Therefore, it is possible to prevent a decrease in the accuracy of the interpolation process. In this case, since captured image data obtained by performing imaging with a plurality of exposure times is used, interpolation processing is performed after the luminance value of the captured image data is normalized.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

〔ソフトウェアで構成する場合の例〕
最後に、撮像位置決定装置10の各ブロック、特に組合せ別撮像位置算出部17、条件別撮像位置選択部18および重み付け撮像位置決定部19は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Example of software configuration]
Finally, each block of the imaging position determination device 10, particularly the combination-specific imaging position calculation unit 17, the condition-specific imaging position selection unit 18, and the weighted imaging position determination unit 19 may be configured by hardware logic. Thus, it may be realized by software using a CPU.

すなわち、撮像位置決定装置10は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである撮像位置決定装置10の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記撮像位置決定装置10に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the imaging position determination device 10 includes a central processing unit (CPU) that executes instructions of a control program that realizes each function, a read only memory (ROM) that stores the program, and a random access memory (RAM) that expands the program. ), A storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the imaging position determination apparatus 10 which is software that realizes the above-described functions is recorded in a computer-readable manner Can also be achieved by reading the program code recorded on the recording medium and executing it by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、撮像位置決定装置10を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the imaging position determination device 10 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明によれば、撮像回数を増加させることなく、効率的に高解像画像データのダイナミックレンジを拡大することができる。このため、高解像度化処理を行なう画像処理システムに広く適用できる。   According to the present invention, the dynamic range of high-resolution image data can be efficiently expanded without increasing the number of times of imaging. Therefore, it can be widely applied to image processing systems that perform high resolution processing.

本発明の実施の形態を示すものであり、撮像位置決定装置の要部構成を示すブロック図である。1, showing an embodiment of the present invention, is a block diagram illustrating a main configuration of an imaging position determination device. FIG. 上記撮像位置決定装置を含む画像処理システムの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the image processing system containing the said imaging position determination apparatus. 上記画像処理システムに含まれるDR拡大超解像処理部の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of DR expansion super-resolution process part contained in the said image processing system. 上記DR拡大超解像処理部において実行される超解像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the super-resolution process performed in the said DR expansion super-resolution process part. 上記撮像位置決定装置の撮像情報記憶部が記憶している撮像情報の一例を示すデータテーブルである。It is a data table which shows an example of the imaging information which the imaging information storage part of the said imaging position determination apparatus has memorize | stored. 高解像度画像データにおいて、異なる撮像条件で撮像された撮像画像データに由来する画素の配置の一例を示す図であり、同図(a)は高解像度画像データの生成に用いられた撮像画像データにハレーション等が発生していない状態を示し、同図(b)は高解像度画像データの生成に用いられた撮像画像データのうち、露光時間が長い撮像画像データにハレーションが発生している状態を示している。FIG. 6 is a diagram illustrating an example of an arrangement of pixels derived from captured image data captured under different imaging conditions in high-resolution image data. FIG. (A) illustrates captured image data used to generate high-resolution image data. FIG. 5B shows a state in which halation is occurring in captured image data having a long exposure time among captured image data used for generating high-resolution image data. ing. 撮像位置の位置関係を把握する手法を示す説明図である。It is explanatory drawing which shows the method of grasping | ascertaining the positional relationship of an imaging position. 撮像素子の枠内に含まれる4つの撮像位置を2次元座標で表した説明図である。It is explanatory drawing which represented the four imaging positions contained in the frame of an image sensor with the two-dimensional coordinate. 撮像素子と、当該撮像素子に隣接する撮像素子との位置関係を2次元座標で表した説明図である。It is explanatory drawing which represented the positional relationship of an image sensor and the image sensor adjacent to the said image sensor with the two-dimensional coordinate. 上記撮像位置決定装置が撮像位置を決定する処理である撮像位置決定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the imaging position determination process which is a process in which the said imaging position determination apparatus determines an imaging position. 9回の撮像を行なう場合に、9回のうち4回の撮像を行なう撮像位置が均等になるように決定した撮像位置を示す図である。It is a figure which shows the imaging position determined so that the imaging position which performs 4 times imaging among 9 times might be equal, when performing 9 times imaging. 9回の撮像を行なう撮像位置が均等になるように決定した撮像位置を示す図である。It is a figure which shows the imaging position determined so that the imaging position which performs 9 times of imagings may become equal. 9回の撮像を行なう撮像位置が均等になるように決定した撮像位置から選択した9つの撮像位置から選択された5つの撮像位置に対応する高解像度画像データの画素の配置を示す図である。It is a figure which shows arrangement | positioning of the pixel of the high-resolution image data corresponding to five imaging positions selected from nine imaging positions selected from the imaging position determined so that the imaging position which performs 9 times of imagings becomes equal. 上記撮像位置決定装置によって最終的に決定された撮像位置の一例を示す図である。It is a figure which shows an example of the imaging position finally determined by the said imaging position determination apparatus. 上記撮像位置決定装置によって生成される撮像条件のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the imaging condition produced | generated by the said imaging position determination apparatus. 上記撮像位置決定装置において、撮像条件が3通りの場合に撮像位置を決定する場合における処理の流れの一例を示すフローチャートである。In the said imaging position determination apparatus, it is a flowchart which shows an example of the flow of a process in the case of determining an imaging position when there are three imaging conditions. 従来の超解像処理方法の一例を示すフローチャートである。It is a flowchart which shows an example of the conventional super-resolution processing method. 超解像処理に用いる撮像画像データの撮像方法を示す模式図である。It is a schematic diagram which shows the imaging method of the captured image data used for a super-resolution process.

符号の説明Explanation of symbols

1 画像処理システム(画像生成装置)
10 撮像位置決定装置(撮像位置決定手段)
17 組合せ別撮像位置決定部(第1撮像位置設定手段)
18 条件別撮像位置選択部(第2撮像位置設定手段)
19 重み付け撮像位置決定部(重み付け撮像位置設定手段)
35 ダイナミックレンジ拡大超解像処理部(高解像度画像生成手段)
1 Image processing system (image generator)
10. Imaging position determination device (imaging position determination means)
17 Combination-specific imaging position determination unit (first imaging position setting means)
18 Conditional imaging position selection unit (second imaging position setting means)
19 Weighted imaging position determination unit (weighted imaging position setting means)
35 Dynamic range expansion super-resolution processor (high-resolution image generation means)

Claims (10)

同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置であって、
上記複数の低解像度画像の撮像位置を設定する撮像位置決定手段と、
上記撮像位置決定手段が設定した撮像位置で撮像された上記複数の低解像度画像を取得して上記高解像度画像を生成する高解像度画像生成手段とを備え、
上記撮像位置決定手段は、
上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、
上記低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように、上記複数の低解像度画像の撮像位置を設定し、かつ
上記複数種類のうち、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置を設定する第1撮像位置設定手段を備えていることを特徴とする画像生成装置。
An image generation device that generates a single high-resolution image with an increased resolution from a plurality of low-resolution images that are captured under one of a plurality of types of imaging conditions while varying the imaging position of the same imaging target,
Imaging position determining means for setting imaging positions of the plurality of low resolution images;
High-resolution image generation means for acquiring the plurality of low-resolution images captured at the imaging position set by the imaging position determination means and generating the high-resolution image,
The imaging position determining means is
When a reference imaging position where reference pixel regions having a shape corresponding to one pixel of the low resolution image are arranged in a matrix is virtually set,
The plurality of low resolutions so that a central region having a shape corresponding to one pixel of the high resolution image located at the center of the shape corresponding to one pixel of the low resolution image is included in the reference pixel region. For a low resolution image that is set with an image pickup position and is picked up with at least one of the above-mentioned types of image pickup conditions, the central region is uniform with respect to the entire reference pixel region arranged in a matrix. Alternatively, an image generation apparatus comprising first imaging position setting means for setting a first imaging position that is an imaging position arranged at a substantially uniform position.
上記第1撮像位置設定手段は、マトリクス状に配列された上記基準画素領域の1つに含まれる、上記中心領域間の距離を算出すると共に、当該基準画素領域に含まれる中心領域と、当該基準画素領域に隣接する基準画素領域に含まれる各中心領域との距離を算出し、算出した距離の最小値が最大となるように上記第1撮像位置を設定することを特徴とする請求項1に記載の画像生成装置。   The first imaging position setting means calculates a distance between the center areas included in one of the reference pixel areas arranged in a matrix, and includes a center area included in the reference pixel area, and the reference The distance from each center area included in a reference pixel area adjacent to the pixel area is calculated, and the first imaging position is set so that the minimum value of the calculated distance is maximized. The image generating apparatus described. 上記第1撮像位置以外の撮像位置を、上記基準画素領域内に総撮像回数に等しい数の中心領域をマトリクス状に配置したときの、各中心領域のそれぞれに対応する第2撮像位置から選択して設定する第2撮像位置設定手段を備えていることを特徴とする請求項1または2に記載の画像生成装置。   An imaging position other than the first imaging position is selected from the second imaging positions corresponding to each of the central areas when the same number of central areas as the total number of imaging are arranged in a matrix in the reference pixel area. The image generating apparatus according to claim 1, further comprising a second imaging position setting unit that sets the second imaging position. 上記第2撮像位置のうち上記第2撮像位置設定手段によって選択されなかった撮像位置から、上記第1撮像位置と最短距離にある撮像位置を選択し、該選択した撮像位置と、上記第1撮像位置とを重み付け平均して該第1撮像位置を補正する重み付け撮像位置設定手段を備えていることを特徴とする請求項3に記載の画像生成装置。   Of the second imaging positions, an imaging position that is the shortest distance from the first imaging position is selected from the imaging positions not selected by the second imaging position setting means, and the selected imaging position and the first imaging position are selected. The image generating apparatus according to claim 3, further comprising weighted imaging position setting means that corrects the first imaging position by weighted averaging the position. 上記撮像条件は、露光時間、絞り、光学フィルタ、および撮像感度の少なくとも1つであることを特徴とする請求項1から4の何れか1項に記載の画像生成装置。   5. The image generation apparatus according to claim 1, wherein the imaging condition is at least one of an exposure time, an aperture, an optical filter, and imaging sensitivity. 上記撮像条件は、上記撮像対象の明度、反射率、および上記撮像対象に照射される照明の強度の少なくとも一つに応じて設定されていることを特徴とする請求項1から5の何れか1項に記載の画像生成装置。   6. The image pickup condition according to claim 1, wherein the image pickup condition is set according to at least one of brightness, reflectance, and intensity of illumination irradiated on the image pickup target. The image generation apparatus according to item. 同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置であって、
上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、
上記複数の低解像度画像は、該低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように撮像されたものであると共に、
上記複数種類のうちの1つの撮像条件で撮像する低解像度画像は、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置されるように撮像されたものであることを特徴とする画像生成装置。
An image generation device that generates a single high-resolution image with an increased resolution from a plurality of low-resolution images that are captured under one of a plurality of types of imaging conditions while varying the imaging position of the same imaging target,
When a reference imaging position where reference pixel regions having a shape corresponding to one pixel of the low resolution image are arranged in a matrix is virtually set,
The plurality of low-resolution images includes a central region having a shape corresponding to one pixel of the high-resolution image located in the center of the shape corresponding to one pixel of the low-resolution image in the reference pixel region. As well as being imaged,
The low-resolution image captured under one of the plurality of types of imaging conditions is such that the central region is arranged at a uniform or substantially uniform position with respect to the entire reference pixel region arranged in a matrix. An image generation apparatus characterized by being captured.
同一の撮像対象を、撮像位置を異ならせながら、複数種類の撮像条件のいずれかで撮像した複数の低解像度画像から、解像度を上げた1つの高解像度画像を生成する画像生成装置の画像生成方法であって、
上記複数の低解像度画像の撮像位置を設定する撮像位置設定ステップと、
上記撮像位置設定ステップで設定された撮像位置で撮像された上記複数の低解像度画像を取得して上記高解像度画像を生成する高解像度画像生成ステップとを含み、
上記撮像位置設定ステップは、
上記低解像度画像の1画素に相当する形状を有する基準画素領域がマトリクス状に配列された基準撮像位置を仮想的に設定した場合に、
上記低解像度画像の1画素に相当する形状の中心に位置する、上記高解像度画像の1画素に相当する形状を有する中心領域が、上記基準画素領域内に含まれるように、上記複数の低解像度画像の撮像位置を設定し、かつ
上記複数種類のうち、少なくとも1つの撮像条件で撮像する低解像度画像については、マトリクス状に配列された上記基準画素領域の全体に対して、上記中心領域が均一またはほぼ均一な位置に配置される撮像位置である第1撮像位置を設定する第1撮像位置設定ステップを含むことを特徴とする画像生成方法。
An image generation method for an image generation apparatus that generates a single high-resolution image with an increased resolution from a plurality of low-resolution images obtained by imaging the same imaging target under any of a plurality of types of imaging conditions while varying the imaging position. Because
An imaging position setting step for setting imaging positions of the plurality of low-resolution images;
A high-resolution image generation step of acquiring the plurality of low-resolution images captured at the imaging position set in the imaging position setting step and generating the high-resolution image,
The imaging position setting step includes
When a reference imaging position where reference pixel regions having a shape corresponding to one pixel of the low resolution image are arranged in a matrix is virtually set,
The plurality of low resolutions so that a central region having a shape corresponding to one pixel of the high resolution image located at the center of the shape corresponding to one pixel of the low resolution image is included in the reference pixel region. For a low resolution image that is set with an image pickup position and is picked up with at least one of the above-mentioned types of image pickup conditions, the central region is uniform with respect to the entire reference pixel region arranged in a matrix. Alternatively, an image generation method comprising a first imaging position setting step of setting a first imaging position that is an imaging position arranged at a substantially uniform position.
請求項1から6の何れか1項に記載の画像生成装置を動作させる画像生成プログラムであって、コンピュータを上記各手段として機能させるための画像生成プログラム。   An image generation program for operating the image generation apparatus according to any one of claims 1 to 6, wherein the image generation program causes a computer to function as each unit. 請求項9に記載の画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the image generation program according to claim 9 is recorded.
JP2008241338A 2008-09-19 2008-09-19 Image generating apparatus, image generating method, image generating program, and computer-readable recording medium recording the program Active JP5042954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008241338A JP5042954B2 (en) 2008-09-19 2008-09-19 Image generating apparatus, image generating method, image generating program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008241338A JP5042954B2 (en) 2008-09-19 2008-09-19 Image generating apparatus, image generating method, image generating program, and computer-readable recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2010073035A true JP2010073035A (en) 2010-04-02
JP5042954B2 JP5042954B2 (en) 2012-10-03

Family

ID=42204730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008241338A Active JP5042954B2 (en) 2008-09-19 2008-09-19 Image generating apparatus, image generating method, image generating program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP5042954B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8941749B2 (en) 2011-05-09 2015-01-27 Canon Kabushiki Kaisha Image processing apparatus and method for image synthesis
WO2018159002A1 (en) * 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 Imaging system and imaging method
JPWO2017170723A1 (en) * 2016-03-31 2019-02-14 株式会社ニコン Imaging apparatus, image processing apparatus, and electronic apparatus
US10812721B2 (en) 2017-03-22 2020-10-20 Panasonic Intellectual Property Management Co., Ltd. Imaging element driving device, method for manufacturing imaging element driving device, and imaging device

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2749849B2 (en) * 1988-12-27 1998-05-13 キヤノン株式会社 Imaging device
JPH10126663A (en) * 1996-10-14 1998-05-15 Ricoh Co Ltd Image input device and image input system
JPH10243408A (en) * 1996-12-27 1998-09-11 Sharp Corp Image pickup device
JP3190220B2 (en) * 1994-12-20 2001-07-23 シャープ株式会社 Imaging device
JP3200276B2 (en) * 1994-02-28 2001-08-20 キヤノン株式会社 Imaging device
JP3382359B2 (en) * 1994-07-22 2003-03-04 キヤノン株式会社 Imaging device
JP3530696B2 (en) * 1996-12-27 2004-05-24 キヤノン株式会社 Imaging device
JP2005020761A (en) * 2003-06-27 2005-01-20 Sungjin C & C Co Ltd Method of restoring and reconstructing super-resolution image from low-resolution image subjected to data compression
JP2006041604A (en) * 2004-07-22 2006-02-09 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP3837575B2 (en) * 2004-10-29 2006-10-25 国立大学法人東京工業大学 Speeding up of super-resolution processing
JP2006345147A (en) * 2005-06-08 2006-12-21 Nikon Corp Electronic camera with generating function for pixel-shifted image and imaging method
JP2007019641A (en) * 2005-07-05 2007-01-25 Tokyo Institute Of Technology Signal reading method of solid-state imaging device, and image signal processing method thereof
JP2007049228A (en) * 2005-08-05 2007-02-22 Canon Inc Image processing apparatus and method thereof
JP3983343B2 (en) * 1997-05-23 2007-09-26 株式会社リコー Imaging device
JP2007272334A (en) * 2006-03-30 2007-10-18 Toshiba Corp Image magnification device and image magnification method for generating high-resolution image, and storage medium recording image magnification program therefor
JP2008016918A (en) * 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd Image processor, image processing system, and image processing method
JP2008091979A (en) * 2006-09-29 2008-04-17 Hitachi Ltd Image quality improving device, method thereof, and image display device
JP2008124827A (en) * 2006-11-13 2008-05-29 Casio Comput Co Ltd Photographing control device, photographing control method, and program
JP2008219188A (en) * 2007-02-28 2008-09-18 Sharp Corp Image processing apparatus, image processing method, control program of image processing apparatus and computer-readable recording medium with the program recorded thereon

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2749849B2 (en) * 1988-12-27 1998-05-13 キヤノン株式会社 Imaging device
JP3200276B2 (en) * 1994-02-28 2001-08-20 キヤノン株式会社 Imaging device
JP3382359B2 (en) * 1994-07-22 2003-03-04 キヤノン株式会社 Imaging device
JP3190220B2 (en) * 1994-12-20 2001-07-23 シャープ株式会社 Imaging device
JPH10126663A (en) * 1996-10-14 1998-05-15 Ricoh Co Ltd Image input device and image input system
JPH10243408A (en) * 1996-12-27 1998-09-11 Sharp Corp Image pickup device
JP3530696B2 (en) * 1996-12-27 2004-05-24 キヤノン株式会社 Imaging device
JP3983343B2 (en) * 1997-05-23 2007-09-26 株式会社リコー Imaging device
JP2005020761A (en) * 2003-06-27 2005-01-20 Sungjin C & C Co Ltd Method of restoring and reconstructing super-resolution image from low-resolution image subjected to data compression
JP2006041604A (en) * 2004-07-22 2006-02-09 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP3837575B2 (en) * 2004-10-29 2006-10-25 国立大学法人東京工業大学 Speeding up of super-resolution processing
JP2006345147A (en) * 2005-06-08 2006-12-21 Nikon Corp Electronic camera with generating function for pixel-shifted image and imaging method
JP2007019641A (en) * 2005-07-05 2007-01-25 Tokyo Institute Of Technology Signal reading method of solid-state imaging device, and image signal processing method thereof
JP2007049228A (en) * 2005-08-05 2007-02-22 Canon Inc Image processing apparatus and method thereof
JP2007272334A (en) * 2006-03-30 2007-10-18 Toshiba Corp Image magnification device and image magnification method for generating high-resolution image, and storage medium recording image magnification program therefor
JP2008016918A (en) * 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd Image processor, image processing system, and image processing method
JP2008091979A (en) * 2006-09-29 2008-04-17 Hitachi Ltd Image quality improving device, method thereof, and image display device
JP2008124827A (en) * 2006-11-13 2008-05-29 Casio Comput Co Ltd Photographing control device, photographing control method, and program
JP2008219188A (en) * 2007-02-28 2008-09-18 Sharp Corp Image processing apparatus, image processing method, control program of image processing apparatus and computer-readable recording medium with the program recorded thereon

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8941749B2 (en) 2011-05-09 2015-01-27 Canon Kabushiki Kaisha Image processing apparatus and method for image synthesis
JPWO2017170723A1 (en) * 2016-03-31 2019-02-14 株式会社ニコン Imaging apparatus, image processing apparatus, and electronic apparatus
US11483467B2 (en) 2016-03-31 2022-10-25 Nikon Corporation Imaging device, image processing device, and electronic apparatus
WO2018159002A1 (en) * 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 Imaging system and imaging method
CN109792495A (en) * 2017-02-28 2019-05-21 松下知识产权经营株式会社 Camera system and image capture method
JPWO2018159002A1 (en) * 2017-02-28 2019-12-26 パナソニックIpマネジメント株式会社 Imaging system and imaging method
US10903264B2 (en) 2017-02-28 2021-01-26 Panasonic Intellectual Property Management Co., Ltd. Imaging system and imaging method
US11177313B2 (en) 2017-02-28 2021-11-16 Panasonic Intellectual Property Management Co., Ltd. Imaging system and imaging method
CN109792495B (en) * 2017-02-28 2022-04-01 松下知识产权经营株式会社 Image pickup system and image pickup method
US10812721B2 (en) 2017-03-22 2020-10-20 Panasonic Intellectual Property Management Co., Ltd. Imaging element driving device, method for manufacturing imaging element driving device, and imaging device
EP3926396A2 (en) 2017-03-22 2021-12-22 Panasonic Intellectual Property Management Co., Ltd. Imaging element driving device, method for manufacturing imaging element driving device, and imaging device

Also Published As

Publication number Publication date
JP5042954B2 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
JP4355744B2 (en) Image processing device
JP5408053B2 (en) Image processing apparatus and image processing method
JP5909540B2 (en) Image processing display device
WO2011145297A1 (en) Image pickup device, image processing device, image processing method, and image processing program
US8659672B2 (en) Image processing apparatus and image pickup apparatus using same
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP5672796B2 (en) Image processing apparatus and image processing method
US20140015954A1 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP6906947B2 (en) Image processing equipment, imaging equipment, image processing methods and computer programs
JP2011004353A (en) Image processing apparatus, and image processing method
JP2005252626A (en) Image pickup device and image processing method
JP4494505B1 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium
JP2012249070A (en) Imaging apparatus and imaging method
JP5042954B2 (en) Image generating apparatus, image generating method, image generating program, and computer-readable recording medium recording the program
JP5184574B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2013162347A (en) Image processor, image processing method, program, and device
JP2012003455A (en) Image processing apparatus, imaging device and image processing program
WO2019124289A1 (en) Device, control method, and storage medium
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP2012003454A (en) Image processing apparatus, imaging device and image processing program
JP2017103756A (en) Image data processing apparatus and method
JP2009171599A (en) Imaging controller, imaging processor, control method of imaging controller, imaging controller controlling program, and computer readable recording medium recording program thereof
JP6245847B2 (en) Image processing apparatus and image processing method
JP2018067868A (en) Imaging apparatus
JP7025237B2 (en) Image processing equipment and its control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120711

R150 Certificate of patent or registration of utility model

Ref document number: 5042954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3