WO2005122554A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2005122554A1
WO2005122554A1 PCT/JP2005/011004 JP2005011004W WO2005122554A1 WO 2005122554 A1 WO2005122554 A1 WO 2005122554A1 JP 2005011004 W JP2005011004 W JP 2005011004W WO 2005122554 A1 WO2005122554 A1 WO 2005122554A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging device
frames
motion estimation
reading
Prior art date
Application number
PCT/JP2005/011004
Other languages
English (en)
French (fr)
Inventor
Nobuyuki Watanabe
Tomoyuki Nakamura
Takahiro Yano
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to US11/628,909 priority Critical patent/US7868923B2/en
Publication of WO2005122554A1 publication Critical patent/WO2005122554A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/447Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by preserving the colour pattern with or without loss of information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Definitions

  • the present invention relates to an imaging apparatus that generates a high-resolution image using an image input unit having a small number of pixels. Background technology
  • an imaging apparatus is an imaging apparatus for electronically obtaining an image of a subject
  • Optical imaging means for forming an image of a subject on an imaging device; an imaging device capable of outputting an image signal of a predetermined area; an area setting unit for setting an output area from the imaging device; Means for selecting a reading rule of the imaging device according to the size of the area set by the section, and means for generating a high-resolution image from image signals of a plurality of frames output from the imaging device. It is characterized by having.
  • the invention of (1) corresponds to the embodiment shown in FIG.
  • the optical system 101 corresponds to “optical imaging means for imaging an image of a subject on an imaging device”.
  • the “imaging device capable of outputting an image signal of a predetermined area” corresponds to the imager 102.
  • the “area setting unit for setting the output area from the imaging device” corresponds to the magnification specifying unit 103.
  • the read control unit 104 corresponds to “means for selecting the readout rule of the imaging device according to the size of the area set by the area setting unit”.
  • the “means for generating a high-resolution image from the image signals of a plurality of frames output from the imaging device” corresponds to the high-resolution image estimating unit 108.
  • the invention of (2) is characterized in that the invention has means for making the reading rule of the imaging device different for each frame.
  • the invention of (3) corresponds to the embodiment of FIG.
  • the “means for making the readout rule of the imaging device different for each frame” is “the readout control unit 104 changes the readout rule in a cycle of two frames of ODD (odd number) and EVEN (even number)”. Applicable. According to this configuration, it is possible to make the image information different for each frame, and to complement the information missing from each other.
  • the means for generating a high-resolution image from the image signals of the plurality of frames comprises: means for estimating a motion between the plurality of frames; Means for estimating a high-resolution image signal using the image signals of a plurality of frames subjected to the correction, and having means for selecting the same readout rule when performing motion estimation between the plurality of frames.
  • the invention of (4) corresponds to the embodiment of FIGS.
  • the “means for estimating motion between a plurality of frames” corresponds to the motion estimation unit 107.
  • the “means for estimating a high-resolution image signal by using image signals of a plurality of frames on which motion estimation has been performed” corresponds to the high-resolution image estimation calculation unit 108.
  • motion estimation section 107 selects a frame according to the same read rule and estimates the motion. According to the invention of (4), motion estimation according to the characteristics of the image signal can be performed.
  • the invention of (4) is characterized in that, when performing the motion estimation between the plurality of frames, the motion estimation is performed by selecting the frames having the same readout rule. And means for performing motion estimation calculation between frames to be performed.
  • the invention of (5) corresponds to the embodiment of FIGS. As shown in FIG. 9, when performing motion estimation between the plurality of frames, the motion estimation unit 107 selects a frame having the same readout rule and performs motion estimation. In addition, motion estimation between consecutive frames is performed. According to the invention of (5), the form of motion estimation can be diversified.
  • the invention of (2) or (3) is characterized in that the readout rule of the imaging device is thinned-out readout for separately reading out pixels.
  • the invention of (6) corresponds to the embodiment of FIG.
  • the readout rule of the imaging device is thinning-out readout for separately reading out pixels” corresponds to the skip processing in FIG. 2. By performing such thinning-out reading, the number of crops can be kept constant even when reading out an area larger than the number of pixels to be output.
  • the invention of (6) is characterized in that, after performing the thinning-out reading of the imaging device, there is provided means for performing distortion correction processing by the thinning-out reading.
  • the invention of (7) corresponds to the embodiment of FIG.
  • the “means for performing the correction processing of the distortion by the thinning-out reading after performing the thinning-out reading of the imaging device” corresponds to the distortion correction processing unit 113.
  • the distortion correction processing is the same. It is characterized in that it is a pixel operation processing within a frame.
  • the invention of (8) corresponds to the embodiment of FIGS. 11 and 12. “The distortion correction processing is a pixel calculation processing in the same frame” corresponds to the correction processing by the linear interpolation parameters kl and k2 in FIG. According to this configuration, the distortion correction processing is simplified.
  • the size of the imaging region is electronically changed without changing the number of clocks in one frame, and the super-resolution processing is performed on the captured region.
  • FIG. 1 is a configuration diagram of the first embodiment.
  • FIG. 2 is an explanatory diagram showing an example of thinning-out reading.
  • Figure 3 is a flowchart of the motion estimation algorithm.
  • FIG. 4 is a conceptual diagram showing the estimation of the optimal similarity in the motion estimation.
  • Figure 5 is a flowchart for high-resolution image estimation.
  • FIG. 6 is a configuration diagram showing the configuration of the super-resolution processing.
  • FIG. 7 is a conceptual diagram of motion estimation for thinning-out reading.
  • FIG. 8 is a conceptual diagram of motion estimation of a continuous frame.
  • Figure 9 is a conceptual diagram of motion estimation for continuous frames.
  • Figure 10 is a conceptual diagram that estimates the motion of continuous frames after intra-frame interpolation (distortion correction).
  • FIG. 11 is a conceptual diagram of the distortion correction processing.
  • FIG. 12 is a configuration diagram showing a filter configuration of the distortion correction processing.
  • FIG. 13 is a configuration diagram of an embodiment including a distortion correction processing unit.
  • FIG. 2 is a configuration diagram of the first embodiment.
  • an optical system 101 forms an optical image on a imager 102.
  • the read control unit 104 selects a read rule of the imager according to the magnification specified by the magnification specification unit 103.
  • the reading rule indicates a reading start position on the imager and a rule of thinning-out reading, as described later.
  • the imager 102 converts the optical image of the specified area into an electric signal according to the readout rule.
  • the read image signals are stored in n image memories 105-1 to 105-n.
  • n is the number of images required for performing the super-resolution processing.
  • the super-resolution processing includes a motion estimation 107 and a high-resolution image estimating unit 108 for estimating image data of a high-resolution pixel array.
  • the selector 106 selects a reference image for performing motion estimation and an image to be subjected to motion estimation.
  • FIG. 2 is an explanatory diagram showing an example of thinning-out reading, which is a reading rule selected by the reading control unit 104.
  • a reading rule selected by the reading control unit 104 an area that is 4/3 times as large as the number of output pixels in the X direction and 4/3 times as large as the y direction is read.
  • the read control unit in Fig. 1-104 has a function to make the read rules different for each frame.
  • the read rule is changed in a two-frame cycle of ODD (odd) and EVEN (even).
  • the first row is an array of RG RG '
  • the second row is an array of GBGB'
  • the third row is an array of RG RG ','
  • the fourth row is GBGB.
  • ⁇ ⁇ ⁇ Array and is repeated.
  • the first column has an array of RGRG ','
  • the second column has an array of GBGB '
  • the third column has an array of RGRGRG
  • the fourth column has a GBGB ' ⁇ The array of 'is repeated.
  • read indicates the position where the pixel is being read
  • skip thin oblique line
  • No read clock is generated at the skip position.
  • the read / skip pattern is It is changed according to the magnification by the designation unit 103. Therefore, by performing such reading, the angle of view of reading can be changed by the reading control function of the imager while keeping the number of clocks of one frame constant.
  • FIG. 3 is a flowchart showing the motion estimation algorithm.
  • S 1 Read one image as a reference for motion estimation.
  • S2 Deforms the reference image in multiple motions.
  • S3 Reads one reference image for motion estimation with the reference image.
  • S4 Calculate a similarity value between an image sequence obtained by deforming a plurality of reference images and a reference image.
  • S5 A discrete similarity map is created using the relationship between the parameters of the deformation motion and the calculated similarity value.
  • S 6 By searching the extremum of the similarity map by complementing the discrete similarity map created in S 5, the extremum of the similarity map is obtained.
  • the deformed motion having the extremum is the estimated motion.
  • Methods for searching for extremums in the similarity map include parabolic fitting and spline interpolation.
  • S7 Determine whether motion estimation has been performed for all reference images.
  • S8 If motion estimation has not been performed for all the reference images, the frame number of the reference image is incremented by one and the process returns to S3, where the next image is read and the processing is continued. Motion estimation is performed for all target reference images, and the process ends.
  • FIG. 4 is a conceptual diagram showing the estimation of the optimal similarity in the motion estimation performed by the motion estimation unit 107 described in FIG.
  • the one-dimensional optimal similarity is shown for simplicity, but the two-dimensional optimal similarity is estimated by the same method.
  • Fig. 4 shows an example in which motion estimation is performed by para- fitting using the three points of black circles.
  • the vertical axis represents the similarity
  • the horizontal axis represents the deformation motion parameters. The smaller the value on the vertical axis is, the higher the similarity is, and the gray circle with the minimum value on the vertical axis is the extreme value of the similarity. Become.
  • FIG. 5 is a flowchart showing the algorithm of the embodiment of the high-resolution image estimation processing.
  • S11 A plurality of ⁇ low-resolution images are read for use in high-resolution image estimation (n1).
  • S12 An initial high-resolution image is created by assuming any one of the multiple low-resolution images as a target frame and performing interpolation processing. This step can be optionally omitted.
  • S13 Clarify the positional relationship between the images by using the motion between the target frame and the images of the other frames, which is obtained in advance by some motion estimation method.
  • S14 Calculate the point spread function (PSF) considering the optical transfer function (0TF) and the imaging characteristics such as the CCD aperture. PSF uses, for example, a Gauss function.
  • S 15 Based on the information of S 13 and S 14, minimize the evaluation function f (z). However, f (z) has the form shown in equation (1).
  • y is a low-resolution image
  • z is a high-resolution image
  • A is an image conversion matrix representing an imaging system including motion between images, PSF, and the like.
  • g (z) contains constraints such as smoothness of images and color correlation. 1 is the weighting factor. For example, the steepest descent method is used to minimize the evaluation function.
  • S16 When f (z) obtained in S15 is minimized, the processing ends and a high-resolution image z is obtained.
  • S17 If f (z) is not yet minimized, update the high-resolution image z and return to S15.
  • FIG. 6 is a configuration diagram showing a configuration of super-resolution processing when the algorithm is performed.
  • the high-resolution image estimation calculation unit 108 includes an interpolation enlargement unit 6, a convolution integration unit 62, a PSF data holding unit 63, an image comparison unit 64, a multiplication unit 65, a combination addition unit 66, and an accumulation addition unit 67.
  • Update image generator 68, Image storage It comprises a section 69, an iterative operation determination section 610, and an iterative determination value holding section 611.
  • an arbitrary reference image data is given to the interpolation enlargement unit 61, and the interpolation enlargement unit 61
  • This image is interpolated and enlarged.
  • the interpolation enlargement method used here for example, general bilinear interpolation or bicubic interpolation can be used.
  • the interpolated and enlarged image is supplied to a convolution integrator 62 and is convolved with the PSF data supplied from a PSF data holding unit 63.
  • the PSF data here is given in consideration of the motion of each frame.
  • the interpolated and enlarged image data is simultaneously sent to the image storage unit 69, where it is stored.
  • the convolved image data is sent to the image comparison unit 64, and the captured image is given from the imaging unit at an appropriate coordinate position based on the motion for each frame obtained by the motion estimation unit 107.
  • Is compared to The compared residual is sent to the multiplication unit 65, and is multiplied by the value of each pixel of the PSF data provided from the PSF data holding unit 63.
  • the result of this calculation is sent to the combining and adding unit 66, and is placed at the corresponding coordinate position.
  • the image data from the multiplying unit 65 are shifted in the coordinate position little by little while having an overlap. Therefore, the overlapped portion is added.
  • the image data is sent to the accumulation adding section 67.
  • the accumulation adder 67 accumulates the data sequentially transmitted until the processing for the number of frames is completed, and sequentially adds the image data for each frame in accordance with the estimated motion.
  • the added image data is sent to the updated image generation unit 68.
  • the image data stored in the image storage unit 69 is given to the update image generation unit 68 at the same time, and the two image data are weighted and added to generate the update image data.
  • the generated updated image data is provided to the iterative operation determination unit 610, Based on the repetition judgment value given from the constant value holding unit 611, it is determined whether or not to repeat the operation. When the operation is repeated, the data is sent to the convolution integrator 62 to repeat the above-described series of processing, and when not repeated, the generated image data is output.
  • the image output from the iterative operation determination unit 610 after performing the above series of processing has a higher resolution than the captured image. Also, since the PSF data held in the PSF data holding unit 63 needs to be calculated at an appropriate coordinate position during convolution, the motion estimation unit 107 calculates the motion of each frame. Is to be given.
  • Motion estimation is performed between frames that perform the same readout rule, and interpolation of motion estimation between consecutive frames is not performed.
  • Motion estimation is performed between frames that perform the same readout rule, and motion estimation interpolation is performed between consecutive frames.
  • reading is performed by ODD and EVEN with the same reading rule, and a motion is estimated between these frames.
  • the image signal is obtained in the reading method as shown in Fig. 2, then stored in image memory, and the motion estimation is performed in consideration of the skipped position.
  • the motion estimation is performed in consideration of the case where the image of the object is skipped between the two frames and the case where the skipped position appears in the previous frame. Add constraints.
  • FIG. 7 is a conceptual diagram of motion estimation for thinning-out reading.
  • the estimation of the high-resolution image is performed only by the respective frame sequences of 0DD and EVEN.
  • FIG. 8 is a conceptual diagram of motion estimation of a continuous frame.
  • the estimation of the motion of the continuous frame may be, for example, an interpolation process by an averaging process. For example, motion a of 1 frame and 1 + 2 frame, and motion a 'of 1 + 1 and 1 + 3 are obtained as vectors, respectively, and 1/2 frame is 1 / a of a. Subtract a motion of size 2 and use this as a candidate motion value between 1 + 1 and 1 +2. The average of this and the half motion of a 'is calculated, and the average value processing is used as the estimated value of the motion of the continuous frame.
  • FIG. 9 is a conceptual diagram of motion estimation of a continuous frame. As shown in FIG. 9, in the case of (3), interpolation processing is performed in each frame from image signal data of continuous frames, and data between the frames is made to correspond. Thus, the process of correcting the image distortion caused by the thinning-out reading with respect to the reading rule of the example shown in FIG. 2 will be referred to as a distortion correction process.
  • FIG. 10 is a conceptual diagram of performing motion estimation of a continuous frame after the intra-frame interpolation (distortion correction) processing.
  • the distortion correction processing is performed for each of the i-th frame and the i + 1-th frame, and then the motion data interpolation processing unit estimates the motion of the continuous frame. That is, the example of FIG. 10 shows an embodiment including a distortion correction process.
  • FIG. 11 is a conceptual diagram of the distortion correction processing. The details of the distortion correction processing will be described with reference to FIG. In the example in Fig. 11, among the eight pixels in the horizontal direction R0 to G7 of the RG line in the Bayer array, two equally spaced pixels R-G-R-G are read from the image data that is read out while skipping two pixels G3 and R6. Raw array of ...
  • FIG. 2 shows a conceptual diagram of a process to be performed.
  • the outline of the processing is as follows: (1) Calculate the estimated value of the missing pixel data from the read pixel data and use it as 8 pixel data. (2) Perform reduction processing to generate 6 pixel data from 8 pixels. .
  • a two-stage process of interpolation and reduction may be used as shown in Fig. 11 (a), but a single process as shown in Fig. 11 (b).
  • a method using interpolation processing may be used. This can be expressed by a linear transformation as shown in Eq. (3) below.
  • the reduction processing primary interpolation as described below or tertiary interpolation may be used.
  • Equation (2) shows the method of filling in missing pixels with linear interpolation and using linear interpolation as a size change in a matrix format.
  • FIG. 12 is a configuration diagram showing a filter configuration of the distortion correction processing. As shown in FIG. 12, the configuration for executing this operation is pipeline processing.
  • a shift register 901 is a 6-tap FIFO, and is configured to shift for each pixel.
  • iO-i5 represents a shift register into which pixel data is stored, and sl and s2 represent selector signals.
  • 31.32 contains four values: -1, 0, 1, 2. There is no limitation on the value range, and it is sufficient if there are four values.
  • dl and d2 are the outputs of the selectors 902 and 903, kl and k2 are the parameters of linear interpolation, and the output value of the adder 904 is kl ⁇ dl + k2 ⁇ d2.
  • Table 1 shows a logic table when the operation is performed for each pixel pixel with the configuration of Fig. 12.
  • the correlation between the RGB channels is used.
  • An interpolation method using the relation can be used.
  • the estimated value of the luminance level of the missing pixel is given by equation (4) or (5).
  • Lambda after the spaced readouts, such as, + 3 + +1 nono Figure 2, (4), or
  • FIG. 13 is a configuration diagram showing a configuration of an embodiment including the above-described distortion correction means. (Distortion correction processing section 113).
  • the image data subjected to the distortion correction processing is held in the image memories 105-1 to 105-n. After that, motion estimation between frames is performed as described above, and an estimated high-resolution image is obtained by the high-resolution image estimation calculation unit 108 having the configuration shown in FIG. Industrial applicability
  • the size of the imaging region is electronically changed without changing the number of clocks in one frame, and further, the super-resolution is applied to the captured region.
  • An imaging device that performs image processing can be provided.

Abstract

光学系(101)はイメ−ジャ(102)に光学像を結像し、読み出し制御部(104)は倍率指定部(103)によって指定した倍率に応じて、イメ−ジャの読み出し規則を選択する。イメ−ジャ(102)は読み出し規則に従って、指定の領域の光学像を電気信号に変換する。読み出された画像信号は、n個の画像メモリ(105−1)から(105−n)に格納される。ここでnは超解像処理を行うのに必要な画像の枚数である。超解像処理はモ−ションの推定部(107)と、高解像度の画素配列の画像デ−タを推定する高解像度画像推定部(108)により構成されている。セレクタ(106)はモ−ション推定を行う基準の画像と、モ−ション推定の対象の画像を選択する。

Description

明 細 書
撮像装置 技 術 分 野
本発明は、 画素数の少ない画像入力手段を利用して高解像度の画像 を生成する撮像装置に関するものである。 背 景 技 術
ビデオカメラなどの撮像装置を使用する際に、 画素数の少ない画像デ 一夕を用いて高解像度の画像を生成する方法が種々提案されている。 その一例と して、 例えば特開平 1 0— 6 9 5 3 7号公報などで提案さ れているように、 超解像技術を用いて、 位置ずれを持った複数フ レー ムの低解像度画像を用いて高解像度の画像を生成する方法がある。 超 解像処理は、 サブピクセルレベルでの位置ずれのある画像を複数枚撮 影し、 これらの画像の劣化要因などをキャ ンセルした上で合成して、 1枚の高精細な画像を形成する手法である。
ところで、 ビデオ撮影のように 1 フ レームのクロック数に制限があ り、 撮像デバイスの画素数が出力する画像の画素数よりも多くなるよ うな撮像システムを用いる場合がある。 このような撮像システムを用 いる場合に、 有効な超解像処理を行うためには、 撮像デバイスの一部 分のみのデータを読み出し、 その領域に対して超解像処理を行う必要 がある。 しかしながらこの場合には、 超解像処理を行う画角の変更は 光学的な像倍率の変更を必要とする。
画素数の少ない画像データを用いて高解像度の画像を生成する際に、 特許文献 1 に開示されている手法では、 前記のように超解像処理を行 う画角の変更は光学的な像倍率の変更をしなければならず、 処理が煩 雑になるという問題があつた。 本発明は、 上記問題に鑑みてなされたものであり、 フ レームのクロ ック数が変動することなく、 電子的に撮像領域の大きさを変更し、 さ らに、 取り込んだ領域に対して、 超解像処理を行う構成と した撮像装 置の提供を目的とする。 発 明 の 開 示
( 1 ) . 上記目的を達成するために、 本発明の撮像装置は、 被写体 の像を電子的に得る撮像装置において、
被写体の像を撮像デバイスに結像する光学的結像手段と、 所定領域 の画像信号を出力することができる撮像デバイスと、 前記撮像デバイ スからの出力領域を設定する領域設定部と、 領域設定部で設定した領 域の大きさに応じて前記撮像デバイスの読み出し規則を選択する手段 と、 前記撮像デバイスから出力される複数のフ レームの画像信号から 高解像度な画像を生成する手段とを備えた事を特徴とする。
( 1 ) の発明は、 図 1 に示された実施形態が対応する。 「被写体の 像を撮像デバイ スに結像する光学的結像手段」 は、 光学系 101が該当す る。 「所定領域の画像信号を出力することができる撮像デバイス」 は、 イメージャ 102が該当する。 「前記撮像デバイスからの出力領域を設定 する領域設定部」 は、 倍率指定部 103が該当する。 「領域設定部で設定 した領域の大きさに応じて前記撮像デバイスの読み出し規則を選択す る手段」 は、 読み出し制御部 104が該当する。 「撮像デバイスから出力 される複数のフ レームの画像信号から高解像度な画像を生成する手 段」 は、 高解像度画像推定部 108が該当する。 ( 1 ) の発明の構成によ れば、 電子的に撮像領域の大きさを変更し、 さらに、 取り込んだ領域 に対して超解像処理を行うことができる。
( 2 ) . また、 前記 ( 1 ) の発明は、 前記撮像デバイ スの読み出し 規則は、 前記出力領域の大きさによらず画素の読み出しの総ク ロ ッ ク 数が一定である事を特徴とする。 (2 ) の発明は、 図 2の実施形態が 対応する。 「前記撮像デバイスの読み出し規則は、 前記出力領域の大 きさによ らず画素の読み出しの総クロ ッ ク数が一定である事」 は、 「 read/sk i pのパターンは倍率指定部 103による倍率に対応して変更さ れる」 処理が該当する。 この構成によれば、 1 フ レームのク ロ ッ ク数 を一定に保持しながら、 イ メージャの読み出し制御の機能で読み出し の領域の広さを変更できる。
( 3 ) . また、 前記 (2 ) の発明は、 前記撮像デバイスの読み出し 規則を、 フ レーム毎に異ならせる手段を有するこ とを特徴とする。
( 3 ) の発明は、 図 2の実施形態が対応する。 「前記撮像デバイスの 読み出し規則をフ レーム毎に異ならせる手段」 は、 「読み出し制御部 104により、 ODD (奇数) . EVEN (偶数) の 2フ レームの周期で読み出し の規則を変更する処理」 が該当する。 この構成によれば、 フ レーム毎 に画像情報を異ならせ、 互いに欠落している情報を補完することがで ぎる。
( 4 ) . また、 前記 (3 ) の発明は、 前記複数のフ レームの画像信 号から高解像度な画像を生成する手段が、 複数フ レーム間のモーショ ンを推定する手段と、 モーショ ン推定がなされた複数フ レームの画像 信号を用いて高解像度画像信号を推定する手段よりなり、 前記複数フ レーム間のモーショ ン推定を行うときに、 互いに同一の読み出し規則 を選択する手段を有することを特徴とする。
( 4 ) の発明は、 図 1、 図 8の実施形態が対応する。 「複数フ レー ム間のモーシ ョ ンを推定する手段」 は、 モーシ ョ ン推定部 107が該当す る。 また、 「モーシ ョ ン推定がなされた複数フ レームの画像信号を用 いて高解像度画像信号を推定する手段」 は、 高解像度画像推定演算部 108が該当する。 モーシ ョ ン推定部 107は、 図 8に示されているように、 同一の読み出し規則によるフ レームを選択してモーショ ンを推定する。 (4) の発明によれば、 画像信号の特性に応じたモーシ ョ ン推定を行 うことができる。
(5) · また、 前記 (4) の発明は、 前記複数フ レーム間のモーシ ヨ ン推定を行うときに、 同一の読み出し規則のフ レームを選択してモ ーシヨ ン推定を行い、 さらに、 連続するフ レーム間のモーシ ョ ン推定 演算を行う手段を有することを特徴とする。 (5) の発明は、 図 1、 図 9の実施形態が対応する。 モーシ ョ ン推定部 107は、 図 9に示されて いるように、 前記複数フ レーム間のモーシ ョ ン推定を行うときに、 同 一の読み出し規則のフ レームを選択してモーショ ン推定を行い、 さら に、 連続するフ レーム間のモーシ ョ ン推定演算を行う。 (5) の発明 によれば、 モーション推定の形態を多様化することができる。
(6) . また、 前記 (2) 、 または (3) の発明は、 前記撮像デバ イ スの読み出し規則が、 画素を離間的に読み出す間引き読み出しであ ることを特徴とする。 (6) の発明は、 図 2の実施形態が対応する。
「前記撮像デバイスの読み出し規則が画素を離間的に読み出す間引き 読み出しであること」 は、 図 2の skip処理が該当する。 このような間 引き読み出しを行うことにより、 出力する画素数よりも広い領域の読 み出しをした場合でもク口ック数を一定にすることができる。
(7) . また、 前記 (6) の発明は、 前記撮像デバイスの間引き読 み出しを行った後、 間引き読み出しによる歪みの補正処理を行う手段 を有することを特徴とする。 (7) の発明は、 図 1 3の実施形態が対 応する。 「前記撮像デバイスの間引き読み出しを行った後、 間引き読 み出しによる歪みの補正処理を行う手段」 は、 歪み補正処理部 113が該 当する。 この構成により、 間引き読み出しを行った画像の歪みを補正 し、 更に前記 (3) のようにフ レーム毎に異なる読み出し規則を使用 している場合でも、 連続するフ レーム間でモーション推定ができる。
(8) . また、 前記 (7) の発明は、 前記歪みの補正処理が同一フ レーム内の画素演算処理であることを特徴とする。 (8 ) の発明は、 図 1 1 、 図 1 2の実施形態が対応する。 「前記歪みの補正処理が同一 フ レーム内の画素演算処理であること」 は、 図 1 2の線形補間パラメ 一夕 k l、 k2による補正処理が該当する。 この構成によれば、 歪みの補 正処理が簡略化される。
本発明の撮像装置においては、 1 フ レームのク ロ ッ ク数が変動する ことなく、 電子的に撮像領域の大きさを変更し、 さらに、 取り込んだ 領域に対して、 超解像処理を行うことができる。 図面の簡単な説明
図 1は第 1の実施形態例の構成図である。
図 2は間引き読み出しの例を示す説明図である。
図 3はモーシ ョ ン推定アルゴリ ズムのフローチヤ一トである。
図 4はモーション推定の最適類似度の推定を示す概念図である。
図 5は高解像度画像推定のフローチヤートである。
図 6は超解像処理の構成を示す構成図である。
図 7は間引き読み出しに対するモーション推定の概念図である。 図 8は連続フレームのモーション推定の概念図である。
図 9は連続フ レームのモ一ション推定の概念図である。
図 1 0はフ レーム内補間 (歪み補正) 処理後に連続フ レームのモー シ ヨ ン推定を行う概念図である。
図 1 1 は歪み補正処理の概念図である。
図 1 2は歪み補正処理のフィルタ構成を示す構成図である。
図 1 3は歪み補正処理部を含む実施形態の構成図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について図を参照して説明する。 図 1 は 第 1 の実施形態例の構成図である。 図 1 において、 光学系 101はィメー ジャ 102に光学像を結像する。 倍率指定部 103によって指定した倍率に 応じて、 読み出し制御部 104はィメージャの読み出し規則を選択する。 読み出し規則とは、 後述するように、 イメージャ上での読み出しの開 始位置と間引き読み出しの規則を表す。 イメージャ 102は読み出し規則 に従って、 指定の領域の光学像を電気信号に変換する。
読み出された画像信号は、 n個の画像メモリ 105-1から 105- nに格納 される。 ここで nは超解像処理を行うのに必要な画像の枚数である。 超 解像処理はモーショ ンの推定 107と、 高解像度の画素配列の画像データ を推定する高解像度画像推定部 108によ り構成されている。 セ レクタ 106はモーション推定を行う基準の画像と、 モーショ ン推定の対象の画 像を選択する。
図 2は、 読み出し制御部 104で選択される読み出し規則である、 間引 き読み出しの例を示す説明図である。 この例では、 出力する画素数に 対して X方向に 4/3倍、 y方向の 4/3倍の広さの領域の読み出しを行って いる。 図 1-104の読み出し制御部では、 フ レーム毎に読み出しの規則を 異ならせる機能を有する。 図 2では、 ODD (奇数) .EVEN (偶数) の 2 フ レームの周期で読み出しの規則を変更している。
ODDおよびの EVENの横方向画素は、 1行目が RG RG ' · · の配列、 2行目が G B G B ' · · の配列、 3行目が RG R G ' · ' の配列、 4 行目が G B G B · · · の配列、 と繰り返されている。 また、 縦方向の 画素は、 1列目が R GR G ' · ' の配列、 2列目が G B G B ' · ' の 配列、 3列目が RG RG · · · の配列、 4列目が G B G B ' · ' の配 列、 と繰り返されている。
図 2で readは画素の読み出しを行っている位置を示し、 skip (太い 斜線) は読み出しを行っていない位置を示している。 skipの位置では 読み出しのクロックは発生していない。 read/skipのパターンは、 倍率 指定部 103による倍率に対応して変更される。 従って、 このような読み 出しを行うことで、 1 フ レームのクロック数を一定に保持しながら、 イメージャの読み出し制御の機能で読み出しの画角が変更できる。
図 3は、 モーショ ン推定のアルゴリズムを示すフローチヤ一 トであ る。 以下、 図 3のアルゴリズムの流れにそって説明する。 S 1 : モー シヨ ン推定の基準となる画像を 1枚読み込む。 S 2 : 基準画像を複数の モーシ ョ ンで変形させる。 S 3 : 基準画像との間のモーショ ン推定を 行う参照画像を 1枚読み込む。 S 4 : 基準画像を複数変形させた画像列 と、 参照画像の間の類似度値を算出する。 S 5 : 変形モーシヨ ンのパ ラメータと算出した類似度値との関係を用いて、 離散的な類似度マツ プを作成する。
S 6 : S 5で作成した離散的な類似度マップを補完することで、 類 似度マップの極値を探索し、 類似度マップの極値を求める。 極値を持 つ変形モーショ ンが、 推定したモーシ ョ ンとなる。 類似度マップの極 値の探索法には、 パラボラフ ィ ッティ ング、 スプライ ン補間法等があ る。 S 7 : 全ての参照画像においてモーシ ョ ン推定を行っているかど うかを判定する。 S 8 : 全ての参照画像においてモーショ ン推定を行 つていない場合には、 参照画像のフ レーム番号を 1 つあげて S 3の処 理へ戻り、 次の画像を読み込み処理を継続する。 対象となる全ての参 照画像においてモーシ ョ ン推定を行い、 処理を終了する。
図 4は、 図 1で説明したモーション推定部 107で行うモーショ ン推定 の最適類似度の推定を示す概念図である。 図では簡単のため、 一次元 の最適類似度を示しているが、 二次元の最適類似度も同様の手法で推 定される。 図 4においては、 黒丸の 3点を用いてモーシ ョ ン推定をパ ラボラフィ ッティ ングで行った例を示している。 縦軸は類似度を表し、 横軸は変形モーシヨ ンパラメータを示している。 縦軸の値が小さいほ ど類似度が高く、 縦軸の値が最小値となる灰色の丸は類似度の極値と なる。
図 5は、 高解像度画像推定処理の実施形態のアルゴリズムを示すフ 口一チャー トである。 S 1 1 : 高解像度画像推定に用いるため複数枚 の低解像度画像 π枚を読み込む(n 1 )。 S 1 2 : 複数枚の低解像度画像 の中の任意の一枚をターゲッ ト フ レームと仮定し、 補完処理を行うこ とで初期の高解像度画像を作成する。 このステップは場合により省略 することができる。 S 1 3 : あらかじめ何らかのモーショ ン推定法で 求められた、 ターゲッ トフ レームとその他のフ レームの画像間のモー シヨ ンにより、 画像間の位置関係を明らかにする。 S 1 4 : 光学伝達 関数(0TF)、 CCDアパーチャ等の撮像特性を考慮した点広がり関数(PSF) を求める。 PSFは例えば Gauss関数を用いる。 S 1 5 : S 1 3、 S 1 4、 の情報を元に、 評価関数 f (z)の最小化を行う。 ただし、 f (z)は ( 1 ) 式めような形となる。
Figure imgf000010_0001
こ こで yは低解像度画像、 zは高解像度画像、 Aは画像間モーシ ョ ン、 PSF等を含めた撮像システムをあらわす画像変換行列である。 g (z)は画 像の滑らかさや色相関を考慮した拘束項等が入る。 1 は重み係数であ る。 評価関数の最小化には、 例えば最急降下法を用いる。 S 1 6 : S 1 5で求めた f (z)が最小化された場合、 処理を終了し高解像度画像 zを 得る。 S 1 7 : f (z)がまだ最小化されていない場合には、 高解像度画 像 zをアップデート して S 1 5に戻る。
図 6は、 前記アルゴリズムを実施する際の超解像処理の構成を示す 構成図である。 図 6において、 高解像度画像推定演算部 108は、 補間拡 大部 6し 畳込み積分部 62、 PSFデータ保持部 63、 画像比較部 64、 乗算部 65、 貼り合せ加算部 66、 蓄積加算部 67、 更新画像生成部 68、 画像蓄積 部 69、 反復演算判定部 610、 反復判定値保持部 61 1から構成される。 最初に、 画像メモリ 105- 1〜 105- nに記録された複数フ レーム分の画 像データのうち、 基準となる任意の 1枚の画像データを補間拡大部 61に 与え、 補間拡大部 61でこの画像の補間拡大を行う。 こ こで用いられる 補間拡大の手法と しては、 例えば一般的なバイ リニァ補間やバイキュ 一ビック補間などが挙げられる。 補間拡大された画像は、 畳込み積分 部 62に与えられ、 PSFデータ保持部 63より与えられる PSFデータと畳込 み積分される。 こ こでの PSFデータは、 各フ レームのモーシ ョ ンも考慮 して与えられる。 補間拡大された画像データは同時に画像蓄積部 69に 送られ、 ここに蓄積される。
畳込み演算された画像データは画像比較部 64に送られ、 モーシ ョ ン 推定部 107で求められた各フ レーム毎のモーシ ョ ンを元に、 適切な座標 位置で撮像部より与えられる撮影画像と比較される。 比較された残差 は乗算部 65に送られ、 PSFデータ保持部 63より与えられる PSFデータの 各画素毎の値に掛け合わされる。 この演算結果は貼り合せ加算部 66に 送られ、 それぞれ対応する座標位置に置かれる。 こ こで、 乗算部 65か らの画像データは、 重なりを持ちながら少しずつ座標位置がずれて行 く ことになるので重なる部分については加算していく。 撮影画像 1枚分 のデータの貼り合せ加算が終ると、 画像データは蓄積加算部 67に送ら れる。
蓄積加算部 67では、 フ レーム数分の処理が終るまで順次送られてく るデータを蓄積し、 推定されたモーシヨ ンに合わせて各フ レーム分の 画像データを順次加算していく。 加算された画像データは、 更新画像 生成部 68に送られる。 更新画像生成部 68には、 これと同時に画像蓄積 部 69に蓄積されていた画像データが与えられ、 この 2つの画像データに 重みをつけて加算して更新画像データを生成する。
生成された更新画像データは反復演算判定部 610に与えられ、 反復判 定値保持部 61 1から与えられる反復判定値を元に、 演算を反復するか否 かを判断する。 演算を反復する場合には、 データを畳込み積分部 62に 送り前記の一連の処理を繰り返し、 反復しない場合は生成された画像 データを出力する。 上記一連の処理を行い反復演算判定部 610から出力 される画像は、 撮影画像より も高解像度なものとなっている。 また、 前記 PSFデータ保持部 63で保持される PSFデータには、 畳込み積分の際 に適切な座標位置での計算が必要となるので、 モ一ション推定部 107よ り各フ レーム毎のモーションが与えられるようになつている。
図 2の様な間引き読み出しを行った画像に対して、 モーシ ョ ン推定 を行うには、 以下の 3つ実施形態がある。 ( 1 ) 同じ読み出し規則を 行うフ レーム間でモーショ ンの推定を行い、 連続するフ レーム間での モーシ ョ ン推定の補間を行わない。 ( 2 ) 同じ読み出し規則を行うフ レーム間でモーショ ンの推定を行い、 連続するフ レーム間でのモーシ ヨ ン推定の補間を行う。 (3 ) 各フ レーム内で欠落している画素デー タの推定を行い、 連続するフ レーム間でのモーションの推定を行う。
( 1 ) , ( 2 ) の手法では、 図 2に示すように、 ODD, EVENでそれぞれ 同じ読み出し規則で読み出しており、 これらのフ レーム間で、 モ一シ ヨ ンの推定を行う。 モーシ ョ ン推定を行う場合に、 図 2の様な読み出 し方で、 画像信号を得た後に、 画像メ モ リ に蓄え、 読み飛ばした位置 を考慮してモーシ ョ ン推定を行う。 すなわち、 2 フ レームの間で被写 体の像が読み飛ばした位置にかかる場合や、 前のフ レームでは読み飛 ばした位置にあるものが、 出現する場合を考慮してモーショ ンの推定 に拘束条件を付ける。
図 7は、 間引き読み出しに対するモーショ ン推定の概念図である。 図 7に示されているように、 ( 1 ) の場合、 0DD、 EVENのそれぞれのフ レーム列だけで、 高解像度画像の推定を行う。 図 8は、 連続フ レーム のモーシ ョ ン推定の概念図である。 図 8 に示されているよ う に、 ( 2 ) の場合、 ODD, EVENのそれぞれでモーシ ョ ンの推定を行った後に、 連続するフ レームのモーシ ョ ンの推定を行う。 連続フ レームのモーシ ヨ ンの推定は、 例えば平均化処理による補間処理でも良い。 例えば Iフ レームと 1 +2フ レームのモーシ ョ ン a、 1 + 1 , 1 +3のモーシ ョ ン a 'がそれぞ れベク トルと して求まり、 1 +2フ レームから aの 1 /2の大きさのモーショ ンを差し引き、 これを 1 + 1と 1 +2の間のモーショ ンの候補値とする。 こ れと a 'の 1 /2のモーショ ンとの加算平均をとり、 平均値処理による連続 フ レームのモーションの推定値とする。
図 9は、 連続フ レームのモーシ ョ ン推定の概念図である。 図 9に示 すように、 (3 ) の場合、 連続するフ レームの画像信号データからそ れそれのフ レーム内での補間処理を行い、 フ レーム間のデータを対応 させる。 このように、 図 2に示した例の読み出し規則に対して、 間引 き読み出しによって生じた画像の歪みを補正する処理を歪み補正処理 と称することにする。
図 1 0は、 フ レーム内補間 (歪み補正) 処理後に連続フ レームのモ —シヨ ン推定を行う概念図である。 図 1 0では、 i フ レームと i + 1 フ レームのそれぞれについて歪み補正処理を行い、 その後モーショ ン データ補間処理部で連続フ レームのモーシ ョ ン推定を行っている。 す なわち、 図 1 0の例では、 歪み補正処理を含む実施の形態を示してい る。
図 1 1 は、 歪み補正処理の概念図である。 図 1 1 により歪み補正処 理の詳細について説明する。 図 1 1 の例では、 Bayer配列の R-Gライ ン の水平方向 R0〜G7の 8画素のうち、 G3および R6の 2画素を飛び越して 読み出した画像データから、 等間隔の R- G- R- G…の配列を生
成する処理の概念図を示している。 処理の概要は、 (1 )読み出した画素 データから欠落している画素のデータの推定値を算出し 8画素のデー タとして、 (2) 8画素から 6画素のデータを生成する縮小処理を行う。 このと き、 欠落した画素の値を推定する方法と しては、 図 1 1 ( a ) のように補間 · 縮小の 2段階処理でも良いが、 図 1 1 ( b ) の ように 1回の補間処理を用いる方式でも良い。 これは後述の (3) 式 のような線形変換で表せる。 一方縮小処理と しては、 以下に述べるよ うな 1次補間でも良いし、 3次補間を用いても良い。 また、 3次補間 の場合も図 1 1 (b) や後述の (3) 式と同様に、 1回の線形変換に 簡略化できる。 間引き読み出し、 歪み補正処理において、 8画素中 6 画素を読み出しでいれば 75%の縮小処理になる。 あるいは、 10画素中 8 画素で有れば 80%、 12画素中 10画素であれば 83%となる。
以下に、 欠落した画素を線形補間で埋めて、 サイズ変更と して線形 補間を用いる方法を行列形式で表したものを (2) 式に示す。
Figure imgf000014_0002
Figure imgf000014_0001
(2) 式の右辺の 2項目の操作は、
R(i),G(i + l),R(i+2),R(i+4),G(i+5),G(i+7),R(i+8) · · ·
のようにサンプリングした画像データを補間して、
R(i),G(i + l),R(i+2),G— (i+3),R(i+4).G(i+5),R— (i+8),G(i+7) · · · を生成し、 右辺 1項目の操作は線形補間により 8画素を 6画素に変換 する操作を示している。
これらの操作を合成すると (3) 式のような線形変換になる。
Figure imgf000015_0001
図 1 2は、 歪み補正処理のフ ィルタ構成を示す構成図である。 図 1 2に示すように、 この操作を実行する構成はパイプライ ン処理と して いる。 図 1 2において、 シフ ト レジスタ 901は 6タツプの FIFOになつて おり、 1画素毎にシフ トするように構成されている。 iO- i5は画素デー 夕が入るシフ ト レジスタを表し、 sl,s2はセレクタの信号を表している。
31.32には-1,0, 1,2の4種の値が入る。 値の範囲に限定は無く 4種の値 で有れば良い。 d l,d2はセレクタ 902、 903の出力、 kl,k2は線形補間の パラメータで、 加算器 904の出力値は kl · dl + k2 · d2となる。 図 1 2の 構成で、 1画素ク口ック毎に演算を行うときの論理表を表 1に示す。
JP2005/011004
(表 1 )
Figure imgf000016_0003
表 1 の論理表は、 行方向に 1 画素クロックの状態を示しており、 画 素データが C1 く = C2 <= C3の様にシフ 卜 している。
また、 欠落した画素の輝度レベルの推定においては、 前述したよう な同一チヤ ンネルの 1次補間あるいは、 同一チヤ ンネルの 3次補間、 sine関数等の線形補間以外にも、 R G Bチャ ンネル間の相関関係 を用いた補間方法を用いることが出来る。
欠落した画素の輝度レベルの推定値は、 (4) 式、 あるいは (5) 式で与えられる。
Figure imgf000016_0001
Figure imgf000016_0002
Λ,·+3 + +1ノノ 図 2のような離間的な読み出しを行った後に、 (4) 式、 あるいは
14
差替え用紙 (規則 26) ( 5 ) 式により欠落画素の推定を行うことで、 読み出し方式が異なる 隣接フ レーム間でのモーシ ョ ン推定が出来る。
図 1 3は、 上述した歪み補正手段. (歪補正処理部 1 13) を備えた実施 形態の構成を示す構成図である。 歪み補正処理がなされた画像データ は、 画像メモリ 105- 1〜1 05- nに保持される。 その後、 前述のようにフ レーム間のモーシ ョ ン推定が行われ、 図 6に示した構成の高解像度画 像推定演算部 108により、 推定高解像度画像を得る。 産業上の利用可能性
以上説明したように、 本発明によれば、 1 フ レームのクロック数の 変動をせずに、 電子的に撮像領域の大きさを変更し、 さらに、 取り込 んだ領域に対して、 超解像処理を行う撮像装置を提供することができ る。

Claims

請 求 の 範 囲
1 . 被写体の像を電子的に得る撮像装置において、
被写体の像を撮像デバイスに結像する光学的結像手段と、 所定領域 の画像信号を出力することができる撮像デバイスと、 前記撮像デバイ スからの出力領域を設定する領域設定部と、 領域設定部で設定した領 域の大きさに応じて前記撮像デバイスの読み出し規則を選択する手段 と、 前記撮像デバイスから出力される複数のフ レームの画像信号から 高解像度な画像を生成する手段とを備えた事を特徴とする撮像装置。
2 . 前記撮像デバイスの読み出し規則は、 前記出力領域の大きさに よらず画素の読み出しの総クロック数が一定である事を特徴とする請 求項 1 に記載の撮像装置。
3 . 前記撮像デバイスの読み出し規則を、 フ レーム毎に異ならせる 手段を有することを特徴とする請求項 2に記載の撮像装置。
4 . 前記複数のフ レームの画像信号から高解像度な画像を生成する 手段が、 複数フ レーム間のモーシ ョ ンを推定する手段と、 モーシ ョ ン 推定がなされた複数フ レームの画像信号を用いて高解像度画像信号を 推定する手段よりなり、 前記複数フ レーム間のモーシ ョ ン推定を行う ときに、 互いに同一の読み出し規則を選択する手段を有することを特 徴とする請求項 3に記載の撮像装置。
5 . 前記複数フ レーム間のモーシ ョ ン推定を行うときに、 同一の読 み出し規則のフ レームを選択してモーショ ン推定を行い、 さらに、 連 続するフ レーム間のモーショ ン推定演算を行う手段を有することを特 徴とする請求項 4に記載の撮像装置。
6 . 前記撮像デバイスの読み出し規則が、 画素を離間的に読み出す 間引き読み出しであることを特徴とする請求項 2ないし請求項 5のい ずれかに記載の撮像装置。
7 . 前記撮像デバイスの間引き読み出しを行った後、 間引き読み出 しによる歪みの補正処理を行う手段を有することを特徴とする請求項
6に記載の撮像装置。
8 . 前記歪みの補正処理が同一フ レーム内の画素演算処理であるこ とを特徴とする請求項 7に記載の撮像装置。
PCT/JP2005/011004 2004-06-10 2005-06-09 撮像装置 WO2005122554A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/628,909 US7868923B2 (en) 2004-06-10 2005-06-09 Imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-172094 2004-06-10
JP2004172094A JP4184319B2 (ja) 2004-06-10 2004-06-10 撮像装置

Publications (1)

Publication Number Publication Date
WO2005122554A1 true WO2005122554A1 (ja) 2005-12-22

Family

ID=35503495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/011004 WO2005122554A1 (ja) 2004-06-10 2005-06-09 撮像装置

Country Status (3)

Country Link
US (1) US7868923B2 (ja)
JP (1) JP4184319B2 (ja)
WO (1) WO2005122554A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101483712A (zh) * 2008-01-10 2009-07-15 佳能株式会社 固态成像装置、成像系统和固态成像装置的驱动方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698924B2 (en) 2007-03-05 2014-04-15 DigitalOptics Corporation Europe Limited Tone mapping for low-light video frame enhancement
US8417055B2 (en) 2007-03-05 2013-04-09 DigitalOptics Corporation Europe Limited Image processing method and apparatus
US8264576B2 (en) 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
IES20070229A2 (en) * 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US9307212B2 (en) 2007-03-05 2016-04-05 Fotonation Limited Tone mapping for low-light video frame enhancement
JP5263753B2 (ja) * 2007-11-19 2013-08-14 株式会社ザクティ 超解像処理装置及び方法並びに撮像装置
JP4508279B2 (ja) 2008-07-17 2010-07-21 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US8654205B2 (en) * 2009-12-17 2014-02-18 Nikon Corporation Medium storing image processing program and imaging apparatus
RU2431889C1 (ru) * 2010-08-06 2011-10-20 Дмитрий Валерьевич Шмунк Способ суперразрешения изображений и нелинейный цифровой фильтр для его осуществления
US20120320182A1 (en) * 2011-06-17 2012-12-20 Richard Hubbard Electro optical image-magnifying device
US9304089B2 (en) * 2013-04-05 2016-04-05 Mitutoyo Corporation System and method for obtaining images with offset utilized for enhanced edge resolution
US9570106B2 (en) 2014-12-02 2017-02-14 Sony Corporation Sensor configuration switching for adaptation of video capturing frame rate

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04172778A (ja) * 1990-11-06 1992-06-19 Nippon Telegr & Teleph Corp <Ntt> 高解像度画像合成処理方式
JPH04196775A (ja) * 1990-11-27 1992-07-16 Matsushita Electric Ind Co Ltd 静止画形成装置
JPH07131692A (ja) * 1993-11-05 1995-05-19 Sharp Corp 静止画像撮像装置
JP2000041186A (ja) * 1998-07-22 2000-02-08 Minolta Co Ltd デジタルカメラおよびその制御方法
JP2002112096A (ja) * 2000-09-29 2002-04-12 Sony Corp カメラ装置及びカメラ機能調整方法
JP2002369083A (ja) * 2001-06-07 2002-12-20 Olympus Optical Co Ltd 撮像装置
JP2003338988A (ja) * 2002-05-22 2003-11-28 Olympus Optical Co Ltd 撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
JPH10164326A (ja) * 1996-11-28 1998-06-19 Minolta Co Ltd 画像取り込み装置
US6330344B1 (en) * 1997-02-14 2001-12-11 Sony Corporation Image processing device and method employing motion detection to generate improved quality image from low resolution image
JP3695119B2 (ja) * 1998-03-05 2005-09-14 株式会社日立製作所 画像合成装置、及び画像合成方法を実現するプログラムを記録した記録媒体
US6906751B1 (en) 1998-07-22 2005-06-14 Minolta Co., Ltd. Digital camera and control method thereof
US6285804B1 (en) * 1998-12-21 2001-09-04 Sharp Laboratories Of America, Inc. Resolution improvement from multiple images of a scene containing motion at fractional pixel values
US8040385B2 (en) 2002-12-02 2011-10-18 Olympus Corporation Image pickup apparatus
US7352919B2 (en) * 2004-04-28 2008-04-01 Seiko Epson Corporation Method and system of generating a high-resolution image from a set of low-resolution images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04172778A (ja) * 1990-11-06 1992-06-19 Nippon Telegr & Teleph Corp <Ntt> 高解像度画像合成処理方式
JPH04196775A (ja) * 1990-11-27 1992-07-16 Matsushita Electric Ind Co Ltd 静止画形成装置
JPH07131692A (ja) * 1993-11-05 1995-05-19 Sharp Corp 静止画像撮像装置
JP2000041186A (ja) * 1998-07-22 2000-02-08 Minolta Co Ltd デジタルカメラおよびその制御方法
JP2002112096A (ja) * 2000-09-29 2002-04-12 Sony Corp カメラ装置及びカメラ機能調整方法
JP2002369083A (ja) * 2001-06-07 2002-12-20 Olympus Optical Co Ltd 撮像装置
JP2003338988A (ja) * 2002-05-22 2003-11-28 Olympus Optical Co Ltd 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101483712A (zh) * 2008-01-10 2009-07-15 佳能株式会社 固态成像装置、成像系统和固态成像装置的驱动方法
CN101483712B (zh) * 2008-01-10 2012-10-24 佳能株式会社 固态成像装置、成像系统和固态成像装置的驱动方法

Also Published As

Publication number Publication date
US20070268388A1 (en) 2007-11-22
US7868923B2 (en) 2011-01-11
JP2005352721A (ja) 2005-12-22
JP4184319B2 (ja) 2008-11-19

Similar Documents

Publication Publication Date Title
WO2005122554A1 (ja) 撮像装置
JP4879261B2 (ja) 撮像装置、高解像度化処理方法、高解像度化処理プログラム、及び記録媒体
US7948543B2 (en) Imaging apparatus provided with image scaling function and image data thinning-out readout function
JP5341010B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP4555775B2 (ja) 撮像装置
US8698906B2 (en) Image processing device, imaging device, information storage medium, and image processing method
US8040385B2 (en) Image pickup apparatus
US20090033792A1 (en) Image Processing Apparatus And Method, And Electronic Appliance
EP2579206A1 (en) Image processing device, image capturing device, program and image processing method
US8085320B1 (en) Early radial distortion correction
JP4361991B2 (ja) 画像処理装置
JP4445870B2 (ja) 撮像装置
JP6274744B2 (ja) 画像処理装置および画像処理方法
JP3868446B2 (ja) 撮像装置
JP2006325276A (ja) 撮像装置
JP2013126123A (ja) 画像処理装置、撮像装置及び画像処理方法
JP5397250B2 (ja) 画像処理装置および画像処理方法
JP2006262382A (ja) 画像処理装置
JP3935528B2 (ja) カラー画像処理装置
JP2012142676A (ja) 撮像装置及び画像生成方法
JP2006054583A (ja) 撮像装置
JP2002330283A (ja) 解像度変換方法および解像度変換装置
JP2013125999A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2024013652A (ja) 画像処理方法、画像処理装置、プログラム
JP2012119852A (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 11628909

Country of ref document: US

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 11628909

Country of ref document: US