WO2010027102A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2010027102A1
WO2010027102A1 PCT/JP2009/065878 JP2009065878W WO2010027102A1 WO 2010027102 A1 WO2010027102 A1 WO 2010027102A1 JP 2009065878 W JP2009065878 W JP 2009065878W WO 2010027102 A1 WO2010027102 A1 WO 2010027102A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
distance
restoration
restored
processing
Prior art date
Application number
PCT/JP2009/065878
Other languages
English (en)
French (fr)
Inventor
渡辺郁夫
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to CN2009801347558A priority Critical patent/CN102144244B/zh
Priority to US12/684,453 priority patent/US8369576B2/en
Publication of WO2010027102A1 publication Critical patent/WO2010027102A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Definitions

  • the present invention relates to an image processing apparatus that restores a deteriorated image.
  • an unknown original image is gradually estimated from a deteriorated image in an iterative process.
  • a pseudo blur image g (n) created by convolution of the point spread function (h PSF ) representing the blur assumed in the restored image f (n) immediately before shown in Expression (1), and obtained by photographing.
  • the norm of the blurred image g (difference sum of squares for each pixel) is calculated, and this is defined as f (n + 1) . That is, the image restoration is completed when e (n) in Equation (2) is calculated and minimized.
  • c is a normalization constant and ⁇ is a spatial frequency.
  • H AUX is all ⁇ , Any material satisfying 0 ⁇
  • is a norm, and indicates a sum of squared differences or a sum of absolute differences for each pixel.
  • Japanese Patent Application Laid-Open No. 2006-242746 discloses an improved algorithm of a typical Richardson-Lucy method using Bayesian estimation for estimating an original image.
  • Japanese Patent Application Laid-Open No. 2006-195856 describes 15 types of non-patent documents related to super-resolution processing.
  • a technique for measuring distance to a subject and acquiring distance information for each pixel is also known.
  • Japanese Patent Laid-Open No. 11-257951 discloses a method for improving distance measurement accuracy at a long distance by combining a technique called a stereo method for measuring a distance to a subject with a telescope.
  • the optimum degradation restoration times of a plurality of subjects in the image are usually different in the process of the iterative restoration unit due to the difference in the degree of defocusing of each subject. That is, as shown in FIG. 9, the evaluation function for convergence determination, for example, the convolution of the image before and after processing, the restored image, and the point spread function (h PSF ) representing the blur and the norm of the blur image have a plurality of minimum values. There was a problem that I did not know which was correct. On the other hand, Japanese Patent Application Laid-Open No. 05-205048 discloses a technique for performing restoration of optimal deterioration for each pixel and restoring all pixels by freezing the processing of the restoration completion pixel.
  • this method is based on estimation to the last, and there is no denying the possibility of mixing errors in the part where ringing noise and real images are mixed.
  • An object of the present invention is to provide an image processing apparatus capable of eliminating the erroneous determination of the convergence determination of the super-resolution processing and improving the accuracy of the super-resolution processing.
  • the present invention is an image processing apparatus that restores a deteriorated image, a unit that measures a distance to a subject, an image restoration unit that restores an image of the subject by iterative calculation, and an end for determining whether the image restoration process is finished A determination unit, wherein the termination determination unit performs the termination determination only for a specific distance layer based on the distance information measured by the measurement unit or for each distance layer based on the distance information.
  • FIG. 1 is a block diagram showing a first embodiment of an image processing apparatus according to the present invention.
  • FIG. 2 is a flowchart illustrating the photographing process according to the first embodiment of this invention.
  • FIG. 3 is a diagram illustrating an example of a distance image.
  • FIG. 4 is a flowchart illustrating image processing according to the first embodiment of this invention.
  • FIG. 5 is a diagram illustrating an example of a partial image obtained by separating a captured image based on distance information.
  • FIG. 6 is a flowchart for explaining image processing according to the second embodiment of the present invention.
  • 7A, 7B, and 7C are diagrams illustrating a norm at the time of image restoration for each distance information.
  • FIG. 8 is a flowchart showing processing in the PC according to the third embodiment of the present invention.
  • FIG. 9 is a diagram illustrating the norm of the full screen.
  • FIG. 1 is a block diagram showing a configuration of a first embodiment of an image processing apparatus according to the present invention.
  • the first embodiment shows an example in which resolution restoration processing is performed on a subject belonging to a specific distance layer.
  • reference numeral 1 denotes a photographing unit and 2 denotes a distance measuring unit.
  • the distance measurement unit 2 shows an example using the binocular stereo method.
  • An imaging lens 120, a diaphragm 121, and an imaging device 122 such as a CCD are arranged in the imaging unit 1.
  • Reference numeral 123 denotes an ADC (AD converter) that AD-converts an image pickup signal from the image pickup device 122
  • 124 denotes a camera processing unit that performs filter processing
  • 130 denotes a memory controller
  • 131 denotes a memory such as an SDRAM.
  • Reference numeral 132 denotes an image reduction unit
  • 133 denotes a PSF table
  • 134 denotes a degraded image restoration unit
  • 135 denotes an image processing effect determination unit
  • 140 denotes a codec
  • 141 denotes a flash memory interface
  • 142 denotes a flash memory.
  • 143 is a display interface
  • 144 is a display unit such as a liquid crystal
  • 98 is a cross pad
  • 99 is a shutter
  • 100 is a system controller for controlling the entire system.
  • imaging lenses 104R and 104L are arranged.
  • Apertures 105R and 105L, imaging devices (CCD, etc.) 106R and 106L, and ADCs (AD converters) 107R and 107L are arranged corresponding to the imaging lenses.
  • Reference numeral 108 denotes a distance determination unit that determines the distance to the subject
  • reference numeral 109 denotes a distance image creation unit.
  • the ADC 123 and the ADCs 107R and 107L have an AGC function.
  • FIG. 1 An example of the subject is shown in the lower left of FIG. 1 (the subject is shown in an overhead view).
  • the photographing processing operation of this embodiment will be described with reference to FIGS.
  • FIG. 2 is a flowchart showing the photographing process of the present embodiment.
  • FIG. 3 shows an example of a distance image by the distance image creation unit 109. 1. At the time of shooting preparation First, when the shutter 99 is half-pressed (S101 in FIG.
  • the system controller 100 prepares for shooting, and AE (auto-exposure) and AF (auto-focus) of the shooting unit 1 and the distance measuring unit 2 (S102).
  • the AE process controls the aperture 121, the apertures 105L and 105R, the ADC 107L and 107R, and the AGC in the ADC 123 so that the brightness of the central portion where an important subject is located is a predetermined value that is neither overexposed nor underexposed.
  • the imaging lenses 104R and 104L and the imaging lens 120 are adjusted by the hill-climbing method so that the high-frequency component of the ADC output at the center increases.
  • the distance measuring unit 2 uses the binocular stereo method as described above. Generally, the distance measuring unit 2 uses a small-diameter lens and a small-diameter and monochrome CCD with respect to the photographing unit 1 so that the depth of field is deep and the sensitivity is high. 2.
  • the shooting unit 1 performs an imaging process, and the distance measurement unit 2 measures a distance image (S104).
  • the output of the ADC 123 is converted from the Bayer array image to the RGB image by the filter processing in the camera processing unit 124 and written into the memory 131 via the memory controller 130 (S105).
  • the output of each pixel of the ADC 107 ⁇ / b> R and ADC 107 ⁇ / b> L is input to the distance determining unit 108.
  • the left and right pixels of each pixel are shifted in the left-right direction to calculate 1 norm (difference absolute value sum), and the distance of the layer to which the pixel belongs is calculated from the shift amount when the minimum value is obtained.
  • the distance image creating unit 109 creates the distance image as shown in FIG. 3 by calculating it for each pixel, and writes it in the memory 131 via the memory controller 130 in the same manner as the captured image (S105).
  • the distance information is recorded as a distance image represented by bitmap information of about 8 bits. In the distance image shown in FIG.
  • the near view is black
  • the middle distance is gray (represented in the middle of black and white)
  • the distant view is white.
  • distance information indicating boundaries between the foreground layer, the middle distance layer, and the far view layer is set in advance (near view layer: 0-5 m, medium distance layer: 5-20 m, distant view layer). : 20 m-).
  • Information indicating this boundary may be determined based on a histogram of distance information. For example, non-uniformity caused by a difference in image restoration processing for each layer can be minimized by using a distance with low frequency as a layer boundary.
  • the number of distance layers is not limited to three, that is, the near view layer, the middle distance layer, and the distant view layer, and the number of layers may be a natural number N (N ⁇ 2). Since the depth of field varies depending on the size of the pupil (aperture), it is necessary to adjust the number of layers according to the depth of field. For example, when the aperture is opened with a large-diameter lens, the depth of field becomes shallow, so a larger number of layers is required. In addition, it is preferable to divide the foreground finely so that the reciprocal of the distance is substantially constant. As shown in the lower left of FIG.
  • the read image of several megapixels is first reduced and displayed by the image reduction unit 132 on the display unit 144 of a small VGA. If the subject image is carefully checked while reducing the reduction degree, the AF position may be focused on the background intermediate distance subject 102 instead of the desired subject (foreground subject) 103.
  • the spot ranging method is focused on the center, and the so-called pinning phenomenon after the hollow is likely to occur.
  • the rear pin state cannot be confirmed by just looking on a small monitor screen immediately after shooting. 4).
  • FIG. 4 is a flowchart showing image restoration processing of the present embodiment.
  • FIG. 5 shows an example of a partial image obtained by separating a captured image based on distance information.
  • the operation at the time of image restoration according to this embodiment will be described with reference to FIGS. 4.1
  • Pre-image restoration processing Image restoration processing is performed. At that time, image restoration processing is performed by iterative calculation of the degraded image.
  • the system controller 100 starts restoration processing of the currently displayed image. In this example, it is assumed that one of the persons in the foreground is instructed.
  • the system controller 100 determines that the area to be restored from the distance image in which the designated pixel exists is a near view, and uses the degraded image gN (n) pixel for the convergence determination.
  • gN (n) is a set of pixels corresponding to the near view (Near) in the distance image shown in black in FIG. 3, and is the Near image shown in FIG.
  • a point spread function hN PSF of gN (n) at the time of imaging is obtained from the imaging parameters and the PSF table 133 ( S201 in FIG. 4).
  • the degraded image restoration unit 134 performs one-step image restoration processing (S202), writes it again to another area of the memory 130 via the memory controller 130, and writes this to a new restoration-in-progress image.
  • f (n + 1) The image restoration process uses, for example, the case where the Iranie-Pelegg method is used, and uses the equation (1) described in the background art.
  • the calculation formula in that case is shown in FIG. hN PSF is a point spread function.
  • the normalization constant c and h AUX are as described in the background art.
  • ⁇ gN (n) -gN (0) ⁇ is calculated and held.
  • gN is a pseudo-blurred image gN (n) photographed by convolution of the image fN (n) after the image restoration processing and the point spread function hN PSF of the pixel in the area determined as the near view near of the black portion in FIG. It is the norm with the blurred image gN (0) obtained at times.
  • the operator can use the cross pad 98 to compress again by the codec 140, to overwrite the previous blurred image by erasing the entire blurred image, or to replace only the near-field (Near) portion of the blurred image with the optimal restored image f. You may decide by instructing.
  • only the pixels in the designated distance layer are used for the convergence determination function when performing super-resolution processing. That is, since the distance layer is created from the distance information and the end of the super-resolution process is determined only for a specific distance layer, the number of minimum values for convergence evaluation is one.
  • FIG. 6 is a flowchart showing image restoration processing according to the present embodiment.
  • the present embodiment is an example of performing resolution restoration processing of subjects belonging to all the distance layers, in this case, the near distance (N), the intermediate distance (M), and the far distance (F).
  • the image restoration process in each distance layer is basically the same as in the first embodiment.
  • the configuration of this embodiment is the same as that shown in FIG. In addition, 1. 1. Operation during shooting preparation 2. Operation during shooting; Since the operation for checking the image after shooting is the same as that in the first embodiment, the description thereof is omitted. 4).
  • Image Restoration 4.1 Image Restoration Pre-Processing
  • the system controller 100 starts restoration processing of the current display image.
  • the system controller 100 determines that the region to be restored from the distance image is divided into three layers of a near view (N), an intermediate distance (M), and a distant view (F), and the degradation images gN, gM, and gF are used for convergence determination. These pixels are used. Further, the system controller 100 obtains the assumed point spread function, in this embodiment, hN PSF , hM PSF , and hF PSF from the PSF table 133 from the parameters at the time of imaging and the distance information present in the captured image (S301).
  • the system controller 100 converts the halfway image (fN (n) , fM (n) , fF (n) ) in the memory 131 via the memory controller 130 to the degraded image restoration unit 134. 1 step of image restoration processing.
  • the expression (1) is used for the image restoration processing of the near view image, the intermediate distance image, and the distant view image, as in the first embodiment.
  • foreground image restoration processing is performed for the foreground image in S302
  • intermediate image restoration processing is performed for the intermediate distance image in S305
  • foreground image restoration processing is performed for the foreground image in S308.
  • the expression (1) is used for the image restoration processing of the foreground image in S302, the intermediate distance image in S305, and the distant view image in S308.
  • FIG. 6 shows the formula for each of the image restoration processing, hN PSF, hM PSF, the hF PSF is a point spread function, as described above.
  • the foreground image convergence determination (end determination) is performed in S303
  • the intermediate distance image end determination is performed in S306,
  • the far view image end determination is performed in S309.
  • the convergence determination process in S303, S306, and S309 will be described in detail.
  • the system controller 100 calculates ⁇ gN (n + 1) -gN (0) ⁇ , ⁇ gM (n + 1) -gM (0) ⁇ , and ⁇ gF (n + 1) -gF (0) ⁇ and holds them.
  • ⁇ GN (n + 1) -gN (0) ⁇ will be described. That is, the pseudo-blurred image gN (n + 1) created by convolution of the image after the image restoration processing of the layer determined to be the near view near in FIG. 3 and the blur function hN PSF of the corresponding distance and the blur image g (0 ) obtained at the time of shooting. ) And the norm calculated from the region gN (0) . ⁇ GM (n + 1) ⁇ gM (0) ⁇ will be described. That is, the pseudo-blurred image gM (n + 1) created by convolution of the image after the image restoration processing of the layer determined to be the intermediate distance Middle in FIG.
  • the optimum restored image is held as fN (n) with n at this time (S304).
  • a foreground image restoration process is performed, and a convergence determination is performed in S303.
  • 7A, 7B, and 7C show norms at the time of image restoration for each distance information (Far, Middle, Near).
  • the number of minimum values for convergence evaluation is one, and a plurality of minimum values indicating the determination result does not occur. 5).
  • fF (n) held in S310 for the far-field portion shown in FIG. ) (Each n is different) (S311).
  • the system controller 100 reads the restored image f from the memory 131 via the memory controller 130 and writes it to the flash memory 142 via the flash memory controller 141 (S311).
  • the operator may decide whether to compress again with the codec 140 or to overwrite and erase the previous blurred image by instructing with the cross pad 98.
  • the number of minimum values for convergence evaluation is one, and a plurality of minimum values indicating determination results are generated. There is nothing to do. Accordingly, no erroneous determination is made and accurate image restoration processing can be performed.
  • an example of performing resolution restoration processing of a subject belonging to three distance layers has been shown, but the present invention is not limited to this, and processing is performed for each of the distance layers that are less than or greater than this. Also good.
  • FIG. 8 is a flowchart showing the processing of this embodiment.
  • 1. Operation during shooting preparation 2. Operation during shooting; Since the operation for checking the image after shooting is a process on the camera side, it is the same as in the first embodiment.
  • the user attaches the flash memory to the PC and activates the degraded image restoration processing application on the PC.
  • the deteriorated image restoration processing application reads the captured image, the distance image, and the camera parameter from the flash memory, and writes each image on the recording medium of the PC (S401).
  • the user confirms the image on the screen, and inputs the desired condition of the degraded image restoration process for the specific area in the first embodiment or the degraded image restoration process for the entire area in the second embodiment, and restores the image.
  • a method is designated (S402).
  • the degraded image restoration processing application performs processing using the algorithm described in the first or second embodiment according to the designation (S403). At that time, in the second embodiment, the images are restored with respect to the three distance layers, but the present invention is not limited to this.
  • the PC When the image restoration is completed in S404, the PC presents the restored image after the completion of processing to the user. If the restored image is OK (S405), the user writes the image on the recording medium of the PC (S406). For example, the deteriorated image of the entire area has been restored, but if the background is desired to be blurred, it is determined as NG. If the determination is NG, the process of restoring the deteriorated image of the specific area is instructed again, and the repair condition is changed to perform the deteriorated image restoration process. After the processing is completed, the image is confirmed and written on the recording medium of the PC.
  • the process returns to S402 to specify that the image is restored under the desired conditions as described above, and the image restoration conditions are changed.
  • the background may be left as a degraded image
  • the image restoration process may be specified for images of other persons.
  • the present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

 超解像処理の収束判定の誤判定をなくし、超解像処理の精度を向上させることが可能な画像処理装置を 提供する。 被写体との距離を計測する距離計測部2と、被写体の画像を反復計算によって復元する劣化画像復元部134と、画像復元処理の終了判定を行う終了判定手段とを具備する。そして、画像復元処理の終了判定を行う場合には、距離計測部2によって計測された距離情報に基づく特定の距離レイヤのみ又は距離 情報に基づく距離レイヤ毎に終了判定を行う。

Description

画像処理装置
 本発明は、劣化画像を復元する画像処理装置に関するものである。
 従来、デジタルカメラ等の撮像装置で撮像した場合、後で見るとピンぼけ等により劣化画像となることがある。このような場合、超解像処理により劣化画像を復元する試みがなされており、超解像のアルゴリズムが種々考えられている。例えば、Improving Resolution by Image Registration CVGIP:GRAPHICAL MODELS AND IMAGE PROCESSING Vol.53,No.3,pp.231−239,May 1991には、イラニー・ペレッグ法と呼ばれる代表的な方法が開示され、複数のボケ画像からの復元を行う方法が提案されている。
 イラニー・ペレッグ法の画像復元処理には式(1)が用いられる。本方式では、繰り返し処理において劣化画像から未知の元画像を徐々に推定していく。その際、式(1)に示す直前の復元画像f(n)に想定したボケを表す点広がり関数(hPSF)をコンボリューションして作成した疑似ボケ画像g(n)と、撮影で得られたボケ画像gのノルム(画素毎の差分2乗和)を計算し、これをf(n+1)とする。即ち、式(2)のe(n)を計算し最小となった場合を画像復元完了とする。
 f(n+1)=f(n)+(g−g(n))×hAUX/c=f(n)+(g−f(n)×hPSF)×hAUX/c …式(1)
但し、cは正規化定数、ωは空間周波数である。また、hAUXは全てのωで、
0<|1−HPSF(ω)・HAUX(ω)/c|<1を満たすものなら良く、一般的にはHPSFが使われる。Hはhのフーリエ変換である。
 e(n)=‖g(n)−g(0)‖ …式(2)
但し、‖ ‖はノルムであり、画素毎の差分2乗和か差分絶対値和を示す。
 また、特開2006−242746号公報には元画像の推定にベイズ推定を用いた代表的なリチャードソン・ルーシ法を改良したアルゴリズムが開示されている。特開2006−195856号公報には、超解像処理に関する15種の非特許文献が記載されている。
 一方、被写体との距離を測定し、画素毎の距離情報を取得する技術も知られている。例えば、特開平11−257951号公報にはステレオ法と呼ばれる被写体までの距離を測定する技術に望遠鏡を組み合わせて遠距離での距離計測精度を向上させる方法が開示されている。
 劣化画像復元処理を行う場合、各被写体のピンぼけ度合いの違いから、反復復元部の処理で画像内の複数の被写体の最適劣化復元回数が異なるのが普通である。即ち、図9に示すように収束判定用の評価関数、例えば、処理前後の画像や復元画像とボケを表す点広がり関数(hPSF)とのコンボリューションとボケ画像のノルムが複数の極小値を取り、どれが正解か分からないという問題があった。
 これに対し、特開平05−205048号公報には、画素毎に最適劣化復元判定を行い、復元完了画素の処理は凍結することで全ての画素の復元を行う技術が開示されている。この方法では、復元画像の各画素の近傍領域に対して隣接画素の差分を取るフィルタリングを施すことにより、当該近傍領域におけるノイズ(=高域強調フィルタによるリンギング)を推定し、推定されたノイズの分散を求める。そして、画素値の分散とノイズの分散の差分が所定値より小さくなった画素については収束したと判定する。しかしながら、本方式はあくまで推定に基づいた方法であり、リンギングノイズと実画像とが混在した部分の誤差の混入の可能性は否めない。
 本発明の目的は、超解像処理の収束判定の誤判定をなくし、超解像処理の精度を向上させることが可能な画像処理装置を提供することにある。
 本発明は、劣化画像を復元する画像処理装置であって、被写体との距離を計測する手段と、被写体の画像を反復計算によって復元する画像復元手段と、前記画像復元処理の終了判定を行う終了判定手段とを具備し、前記終了判定手段は、前記計測手段によって計測された距離情報に基づく特定の距離レイヤのみ又は前記距離情報に基づく距離レイヤ毎に前記終了判定を行うことを特徴とする。
 図1は、本発明に係る画像処理装置の第1の実施形態を示すブロック図である。
 図2は、本発明の第1の実施形態の撮影処理を説明するフローチャートである。
 図3は、距離画像の一例を示す図である。
 図4は、本発明の第1の実施形態の画像処理を説明するフローチャートである。
 図5は、距離情報により撮影画像を分離した部分画像の一例を示す図である。
 図6は、本発明の第2の実施形態の画像処理を説明するフローチャートである。
 図7A、7B、7Cは、距離情報毎の画像復元時のノルムを示す図である。
 図8は、本発明の第3の実施形態のPCでの処理を示すフローチャートである。
 図9は、全画面のノルムを示す図である。
 次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。
(第1の実施形態)
 図1は本発明に係る画像処理装置の第1の実施形態の構成を示すブロック図である。特に、第1の実施形態は特定の距離レイヤに属する被写体の解像度復元処理を行う例を示すものである。
 図中1は撮影部、2は距離測定部である。距離測定部2には2眼ステレオ法を用いた例を示す。撮影部1内には撮像レンズ120、絞り121、CCD等の撮像テバイス122が配置されている。123は撮像テバイス122からの撮像信号をAD変換するADC(AD変換器)、124はフィルタ処理等を行うカメラ処理部、130はメモリコントローラ、131はSDRAM等のメモリである。
 また、132は画像縮小部、133はPSFテーブル、134は劣化画像復元部、135は画像処理効果判定部、140はコーディク、141はフラッシュメモリインターフェース、142はフラッシュメモリを示す。更に、143は表示インターフャース、144は液晶等の表示部、98は十字パッド、99はシャッター、100はシステム全体を制御するシステムコントローラである。
 距離計測部2には、撮像レンズ104Rと104Lが配置され、各撮像レンズに対応して絞り105Rと105L、撮像デバイス(CCD等)106Rと106L、ADC(AD変換器)107Rと107Lが配置されている。また、108は被写体との距離を判定する距離判定部、109は距離画像作成部である。ADC123及びADC107Rと107LはAGC機能を持つ。
 なお、図1の左下に被写体の一例を示す(被写体は俯瞰図で示す)。図1では被写体を3つ示しているが、101は遠景被写体(実際は矢印で示す遙か左に存在する)、102は中間距離被写体、103は近景被写体を示す。
 次に、本実施形態の撮影処理動作を図1、図2、図3を用いて説明する。図2は本実施形態の撮影処理を示すフローチャートである。図3は距離画像作成部109による距離画像の一例を示す。
1.撮影準備時
 まず、シャッター99が半押しされると(図2のS101)、システムコントローラ100は撮影準備のため、撮影部1と距離計測部2のAE(オートエクスポーズ)、AF(オートフォーカス)の処理を行う(S102)。通常、AE処理は重要な被写体の位置する中央部の明るさが露出オーバでも露出アンダーでも無い所定の値になるように絞り121、絞り105Lと105Rや、ADC107Lと107R、ADC123内のAGCを制御する。
 一方、AF処理はAEの場合と同様に中央部のADC出力の高周波成分が多くなるように撮像レンズ104Rと104L、撮像レンズ120を山登り法で調整する。距離計測部2は上述のように2眼ステレオ法を用いている。一般的に距離計測部2は撮影部1に対して小径レンズと小径且つモノクロのCCDを使用することで被写界深度が深く、高感度となっている。
2.撮影時
 次にシャッター99が全押しされると(S103)、撮影部1で撮像処理を行い、距離測定部2で距離画像の計測を行う(S104)。その際、ADC123の出力はカメラ処理部124でフィルタ処理によりBayer配列画像からRGB画像に変換され、メモリコントローラ130を経由してメモリ131へ書き込まれる(S105)。
 また、距離計測部2ではADC107RとADC107Lの各画素の出力が距離判定部108に入力される。ここで各画素の左右複数画素を左右方向にシフトして1ノルム(差分絶対値和)を計算し、最小値を得た時のシフト量からその画素の属するレイヤの距離を算出する。距離画像作成部109ではそれを各画素毎に算出することで、図3に示すような距離画像の作成を行い、撮影画像と同様にメモリコントローラ130を経由してメモリ131に書き込む(S105)。距離情報は、8bit程度のビットマップ情報で表される距離画像として記録される。
 図3に示す距離画像において、近景は黒、中距離は灰色(黒と白の中間で表す)、遠景は白で表す。なお、本実施例では、近景レイヤ、中距離レイヤ、遠景レイヤの境界を示す距離情報は事前に設定されているものとする(近景レイヤ:0−5m、中距離レイヤ:5−20m、遠景レイヤ:20m−)。この境界を示す情報は、距離情報のヒストグラムに基づいて決定されても良い。例えば、頻度が少ない距離をレイヤの境界とすることにより、各レイヤごとの画像復元処理の違いにより生じる不均一さを最小化することができる。また、距離レイヤ数は、近景レイヤ、中距離レイヤ、遠景レイヤの3つに限られることはなく、レイヤ数は自然数N(N≧2)であればよい。瞳(絞り)の大きさにより被写界深度が異なるので、被写界深度に応じてレイヤ数を調整する必要がある。例えば、大口径レンズで絞りを開いた場合には、被写界深度が浅くなるので、より多くのレイヤ数が必要となる。また、分割間隔は、距離の逆数がほぼ一定になるように近景を細かく分割するのが良い。図1の左下に示すように近景被写体103は撮像デバイス106L、106Rで撮像される位置が外側にずれるが、殆ど平行光線となる実質無限遠の遠景被写体101は両撮像デバイスの同一位置に撮像される。このことは、特開平11−257951号公報に詳しく記載されている。
 撮影後にはメモリ131に書き込まれた撮影画像と距離画像に加えて撮影パラメータ(フォーカス、ズーム、絞りの情報等)がメモリコントローラ130を経由して読み出される。必要に応じて撮影画像はコーデック140を経由し、フラッシュメモリコントローラ141を経由してフラッシュメモリ142に書き込まれる。
3.撮影後の画像確認
 撮影後、操作者が十字パッド98を操作して指示することで、システムコントローラ100によりフラッシュメモリ142から撮影済み画像がフラッシュメモリコントローラ141経由で読み出される。そして、メモリコントローラ130を経由してメモリ131へ書き込まれる。
 読み出された数メガピクセルの画像は、まず、小型のVGA程度の表示部144に画像縮小部132で縮小して表示される。縮小度合いを下げながら被写体の画像を注意深く確認すると、AFの位置が所望の被写体(近景被写体)103でなく、背景の中間距離被写体102に合焦していることがある。
 特に、図1に示すような構図の場合、スポット測距方式だと、中心にフォーカスが合い、いわゆる中抜け後ピン現象が起こりやすい。しかし無限遠の遠景被写体101にピントが合っている大ボケ状態ではないので、撮影直後、小さなモニタ画面で簡単に見た程度では後ピン状態が確認できない場合が多い。
4.画像復元
 図4は本実施形態の画像復元処理を示すフローチャートである。図5は距離情報により撮影画像を分離した部分画像の例を示す。本実施形態の画像復元時の動作を図1、図4、図5を用いて説明する。
4.1画像復元前処理
 そこで画像復元処理を行う。その際、劣化画像を反復計算により画像復元処理を行う。まず、操作者が十字パッド98を操作して何処の画像を復元したいかを指示することで、システムコントローラ100は現在表示画像の復元処理を開始する。この例では近景の人物のどちらかを指示した場合を想定する。システムコントローラ100は指示された画素の存在する距離画像から復元を行う領域を近景と判断し、収束判定には劣化画像gN(n)画素を用いることとする。
 gN(n)は劣化画像g(n)の中で図3に黒で示す距離画像で近景(Near)に相当する部分の画素の集合であり、図5に示すNearの画像である。メモリ131にある撮像パラメータと劣化画像(g(0)とする)をメモリコントローラ130を経由して劣化画像復元部134に送り、画像修復処理回数をカウントする繰り返し処理カウンタn=0(初期化)とする。
 また、劣化画像処理の初期画像f(0)=g(0)とするため、g(0)をメモリ内でコピーする。撮像パラメータとPSFテーブル133から撮像時におけるgN(n)の点広がり関数hNPSFを得る(図4のS201)。
4.2画像復元繰り返し処理
 次に、劣化画像復元部134は1ステップの画像復元処理を行い(S202)、再度メモリコントローラ130を経由してメモリ130の別領域に書き込み、これを新しい復元途中画像f(n+1)とする。画像復元処理はイラニー・ペレッグ法を用いる場合を例とし、背景技術で説明した式(1)を使用する。
 その場合の計算式を図4に示す。hNPSFは点広がり関数である。また、正規化定数cやhAUXは背景技術で説明した通りである。
4.3収束判定
 次に、システムコントローラ100は収束判定(終了判定)を行う(S203)。具体的には、‖gN(n)−gN(0)‖を計算して保持する。gNは図3の黒い部分の近景Nearと判断された領域における画素の、画像復元処理後の画像fN(n)と点広がり関数hNPSFをコンボリューションして作った疑似ボケ画像gN(n)撮影時に得たボケ画像gN(0)とのノルムである。
 ここで、‖gN(n)−gN(0)‖と‖gN(n+1)−gN(0)‖を比較し、後に処理した値が前者より大きい場合には過剰処理として収束と判断(終了判定)し、最適復元処理画像fをこの時点のf(n)とする。もし、まだならば、システムコントローラ100はf(n)=f(n+1)と代入し、S202(4.2の処理)に戻って画像修復処理を行い、S203にて終了判定を行う。
 収束したと判定した場合には、システムコントローラ100は最適復元画像fをメモリ131からメモリコントローラ130を経由して読み出し、フラッシュメモリコントローラ141を経由してフラッシュメモリ142へ書き込む(S204)。以上で画像復元処理を終了する。ここで、コーデック140で再度圧縮するか、以前のボケ画像を丸ごと重ね書きして消去するか、ボケ画像の近景(Near)部のみを最適復元画像fで置き換えるかは操作者が十字パッド98で指示して決める等すれば良い。
 本実施形態では、指定された距離レイヤの画素のみを超解像処理を行う際の収束判定関数に使用する。即ち、距離情報から距離レイヤを作成し、特定の距離レイヤのみ超解像処理の終了判定を行うため、収束評価の極小値の数は1つとなる。従って、判定結果を示す極小値が複数発生することがないため、誤判定をすることが全くなくなり、精度の良い画像復元処理を行うことが可能となる。また、本実施例ではモノクロ画像で説明したが、カラー画像の場合には、一般的にRGB信号を、輝度と色差を表すYUV信号に変換し、Yのみで収束判定を行い、画像処理はYUV全てに等価に行う。UV信号のサブサンプルやJPEG圧縮は画像復元後に行うのが良い。
(第2の実施形態)
 次に、本発明の第2の実施形態を図1、図3、図6を用いて説明する。図6は本実施形態の画像復元処理を示すフローチャートである。本実施形態は、すべての距離レイヤ、この場合には近景(N)、中間距離(M)、遠景(F)の3つの距離レイヤに属する被写体の解像度復元処理を行う例である。それぞれの距離レイヤにおける画像復元処理は基本的に第1の実施形態と同様である。また、本実施形態の構成は図1と同様である。なお、1.撮影準備時の動作、2.撮影時の動作、3.撮影後画像確認の動作は第1の実施形態と同様であるので説明は省略する。
4.画像復元
4.1画像復元前処理
 操作者が十字パッド98を操作してすべての距離の画像を復元したいと指示することでシステムコントローラ100は現在表示画像の復元処理を開始する。システムコントローラ100は距離画像から復元を行う領域が近景(N)、中間距離(M)、遠景(F)の3つのレイヤに分けられると判断し、収束判定には各劣化画像gN、gM、gFの画素を用いることとする。
 また、システムコントローラ100は撮像時のパラメータと撮影画像に存在する距離情報から、想定される点広がり関数、本実施形態では、hNPSF、hMPSF、hFPSFをPSFテーブル133から得る(S301)。
 更に、復元途中画像の初期画像fN(0)=fM(0)=fF(0)=g(0)とするため、画像修復処理回数をカウントする繰り返し処理カウンタn=0(初期化)とする(S301)。
4.2画像復元繰り返し処理
 次にシステムコントローラ100は、メモリ131にある復元途中画像(fN(n)、fM(n)、fF(n))をメモリコントローラ130を経由して劣化画像復元部134に送り、1ステップの画像復元処理を行う。また、再度メモリコントローラ130を経由してメモリ131の別領域に書き込み、これを新しい復元途中画像(fN(n+1)、fM(n+1)、fF(n+1))とする。近景画像、中間距離画像、遠景画像の画像復元処理に上記式(1)を用いるのは第1の実施形態と同様である。
 図6では近景画像に関しては近景画像修復処理をS302にて行い、中間距離画像に関しては中間画像修復処理をS305にて行い、遠景画像に関しては遠景画像修復処理をS308にて行う。S302の近景画像、S305の中間距離画像、S308の遠景画像の画像復元処理には上述のように式(1)を用いる。
 図6にはそれぞれの画像復元処理の計算式を示すが、hNPSF、hMPSF、hFPSFは上述のように点広がり関数である。
4.3収束判定
図6では近景画像収束判定(終了判定)をS303にて行い、中間距離画像終了判定をS306にて行い、遠景画像終了判定をS309にて行う。S303、S306、S309における収束判定処理に関して詳しく説明する。システムコントローラ100は、‖gN(n+1)−gN(0)‖、‖gM(n+1)−gM(0)‖、‖gF(n+1)−gF(0)‖を計算し、それぞれ保持する。
 ‖gN(n+1)−gN(0)‖に関して説明する。即ち図3の近景Nearと判断されたレイヤの画像復元処理後の画像と該当距離のボケ関数hNPSFをコンボリューションして作った疑似ボケ画像gN(n+1)と撮影時に得たボケ画像g(0)の領域gN(0)とから計算されるノルムである。
 ‖gM(n+1)−gM(0)‖に関した説明する。即ち図3の中間距離Middleと判断されたレイヤの画像復元処理後の画像と該当距離のボケ関数hMPSFをコンボリューションして作った疑似ボケ画像gM(n+1)と撮影時に得たボケ画像g(0)の領域gM(0)とから計算されるノルムである。
 ‖gF(n+1)−gF(0)‖に関して説明する。図3の遠景Farと判断されたレイヤの画像復元処理後の画像と該当距離のボケ関数hFPSFをコンボリューションして作った疑似ボケ画像gF(n+1)と撮影時に得たボケ画像g(0)の領域gF(0)とから計算されるノルムである。
 次に、近景画像に関して、‖gN(n)−g(0)‖と‖gN(n+1)−g(0)‖を比較し、後に処理した結果が前者より大きい場合には過剰処理として収束と判断する(S303)。そして、最適復元処理画像をこの時点のnを付したfN(n)として保持する(S304)。同様にして、他の中間距離画像や遠景画像の距離部分に関しても計算し、S306或いはS309にて過剰処理と判断した時点の、fM(n)、fF(n)を保持する(S307、S310)。
 それぞれの距離部分において収束していないと判定した場合には、システムコントローラ100は収束が完了していない距離、例えば、近景画像の場合には、fN(n)=fN(n+1)を代入し、S302(4.2の画像復元処理)に戻る。そして、同様に近景画像修復処理を行い、S303にて収束判定を行う。
 また、中間距離画像の場合には、fM(n)=fM(n+1)を代入し、S305に戻って同様に中間距離画像修復処理を行い、S306にて収束判定を行う。更に、遠景画像の場合には、fF(n)=fF(n+1)を代入し、S308に戻って同様に遠景画像修復処理を行い、S309にて収束判定を行う。
 図7A、7B、7Cは距離情報毎(Far、Middle、Near)の画像復元時のノルムを示す。いずれの場合も収束評価の極小値の数は1つであり、判定結果を示す極小値が複数発生することはない。
5.画像合成
 次に、図3に示す距離画像の黒い近景部分はS304で保持したfN(n)を、中距離部分はS307で保持したfM(n)を、遠景部分はS310で保持したfF(n)(各nは異なる)を用いて合成する(S311)。そうすることで、全ての距離において劣化画像が復元された画像fを得ることが可能となる。
 次に、システムコントローラ100は、復元画像fをメモリ131からメモリコントローラ130を経由して読み出し、フラッシュメモリコントローラ141を経由してフラッシュメモリ142へ書き込む(S311)。以上で画像復元処理を終了する。コーデック140で再度圧縮するか、以前のボケ画像を重ね書きして消去するかは操作者が十字パッド98で指示して決める等すれば良いのは第1の実施形態と同様である。
 本実施形態では、距離情報から距離レイヤを作成し、距離レイヤ毎に超解像処理の収束判定を行うため、収束評価の極小値の数は1つとなり、判定結果を示す極小値が複数発生することがない。従って、誤判定をすることが全くなくなり、精度の良い画像復元処理を行うことが可能となる。
 なお、本実施形態では、3つの距離レイヤに属する被写体の解像度復元処理を行う例を示したが、本発明はこれに限ることはなく、それ以下或いはそれ以上の距離レイヤ毎に処理を行っても良い。
(第3の実施形態)
 次に、本発明の第3の実施形態を説明する。本実施形態はPC側で劣化画像を復元する場合の例を示す。即ち、図1のカメラで撮影した画像をPCに送り、PC側で劣化画像を復元する例を示すものである。図8は本実施形態の処理を示すフローチャートである。なお、1.撮影準備時の動作、2.撮影時の動作、3.撮影後画像確認の動作はカメラ側の処理なので第1の実施形態と同様である。
 図8において、ユーザはフラッシュメモリをPCに装着し、劣化画像復元処理アプリケーションをPC上で起動する。すると、劣化画像復元処理アプリケーションは撮像した画像、距離画像、カメラパラメータをフラッシュメモリから読み出し、PCの記録媒体に書き込み各画像を表示する(S401)。
 ユーザは画面で画像を確認し、第1の実施形態の特定の領域の劣化画像復元処理か、第2の実施形態の全領域の劣化画像復元処理かの希望条件を入力し、画像を修復する方式の指定を行う(S402)。
 劣化画像復元処理アプリケーションはその指定に応じて第1又は第2の実施形態で説明したアルゴリズムで処理を行う(S403)。その際、第2の実施形態では3つの距離レイヤに関して画像を復元しているが、これに限ることはない。
 PCはS404で画像修復が完了すると、処理完了後の復元画像をユーザに提示する。ユーザは復元画像がOKなら(S405)、その画像をPCの記録媒体に書き込む(S406)。例えば、全領域の劣化画像を復元したが、背景にはボケ味が欲しいからNGと判断すると、再度特定領域の劣化画像復元処理を指示し、修復条件を変更して劣化画像復元処理をする。処理終了後にその画像を確認の上、PCの記録媒体に書き込む。
 具体的には、S405でユーザがNoと判断すれば、S402に戻って上述のように希望条件で画像を修復する指定を行い、画像の修復条件を変更する。その際、例えば、背景にボケ味が欲しいのであれば、その背景部分は劣化画像のままとし、他の人物等の画像は画像復元処理を行うように条件を指定すれば良い。
 (その他の実施例)
 また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
 この出願は2008年9月4日に出願された日本国特許出願番号第2008−226976号からの優先権を主張するものであり、その内容を引用してこの出願の一部とするものである。

Claims (5)

  1. 被写体の画像を含む劣化画像を復元する画像処理装置であって、前記被写体との距離を計測することで、前記被写体の属する距離レイヤを設定する計測手段と、前記劣化画像を反復計算によって復元する画像復元手段と、前記画像復元手段による反復計算の終了判定を行う終了判定手段とを具備し、前記終了判定手段は、前記距離レイヤのうち特定の距離レイヤのみ又は前記距離レイヤ毎に前記終了判定を行うことを特徴とする画像処理装置。
  2. 前記画像復元手段は、前記距離レイヤ毎に前記終了判定を行う場合には、前記距離レイヤ毎の復元画像を合成することを特徴とする請求項1に記載の画像処理装置。
  3. 更に、画像の修復条件を指定する指定手段と、復元された復元画像を提示する手段とを具備し、前記提示された復元画像を変更する場合には、再度、前記指定手段により前記画像の修復条件を指定して、劣化画像の修復を行うことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記指定手段により前記画像の修復条件を指定して、再度、劣化画像を復元する際に、前記復元画像のうち劣化画像のままとする画像がある場合には、当該画像は劣化画像のままとし、他の距離レイヤの画像を復元処理することを特徴とする請求項3に記載の画像処理装置。
  5. 被写体の画像を含む劣化画像を復元する画像処理方法であって、前記被写体との距離を計測することで、前記被写体の属する距離レイヤを設定する計測工程と、前記劣化画像を復元する際の反復計算の終了判定を設定する終了判定設定工程と、前記終了判定に基づいて、前記劣化画像を反復計算により復元する画像復元工程と、を有し、前記終了判定設定工程は、前記距離レイヤのうち特定の距離レイヤのみ、又は前記距離レイヤ毎に前記終了判定を設定することを特徴とする画像処理方法。
PCT/JP2009/065878 2008-09-04 2009-09-04 画像処理装置 WO2010027102A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2009801347558A CN102144244B (zh) 2008-09-04 2009-09-04 图像处理设备
US12/684,453 US8369576B2 (en) 2008-09-04 2010-01-08 Image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008226976A JP5419403B2 (ja) 2008-09-04 2008-09-04 画像処理装置
JP2008-226976 2008-09-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/684,453 Continuation US8369576B2 (en) 2008-09-04 2010-01-08 Image processing apparatus

Publications (1)

Publication Number Publication Date
WO2010027102A1 true WO2010027102A1 (ja) 2010-03-11

Family

ID=41797261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065878 WO2010027102A1 (ja) 2008-09-04 2009-09-04 画像処理装置

Country Status (4)

Country Link
US (1) US8369576B2 (ja)
JP (1) JP5419403B2 (ja)
CN (1) CN102144244B (ja)
WO (1) WO2010027102A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9319578B2 (en) * 2012-10-24 2016-04-19 Alcatel Lucent Resolution and focus enhancement
US9344736B2 (en) 2010-09-30 2016-05-17 Alcatel Lucent Systems and methods for compressive sense imaging
JP6415179B2 (ja) * 2014-08-20 2018-10-31 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
KR102313026B1 (ko) * 2017-04-11 2021-10-15 현대자동차주식회사 차량 및 차량 후진 시 충돌방지 보조 방법
CN111784581A (zh) * 2020-07-03 2020-10-16 苏州兴钊防务研究院有限公司 基于自归一化生成对抗网络的sar图像超分辨率重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167484A (ja) * 2003-12-01 2005-06-23 Japan Science & Technology Agency 画像構成装置及び画像構成方法
JP2006119843A (ja) * 2004-10-20 2006-05-11 Olympus Corp 画像生成方法およびその装置
JP2007193508A (ja) * 2006-01-18 2007-08-02 Sanyo Electric Co Ltd 画像処理装置及び画像処理プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544176A (en) 1990-02-13 1996-08-06 Canon Kabushiki Kaisha Information recording apparatus which eliminates unnecessary data before recording
US5502570A (en) 1990-02-13 1996-03-26 Canon Kabushiki Kaisha Images reproducing method capable of skipping reproduction of collateral information during reproduction in a special mode
US5353063A (en) 1990-04-04 1994-10-04 Canon Kabushiki Kaisha Method and apparatus for processing and/or displaying image data based on control data received with the image data
JPH05205048A (ja) 1992-01-23 1993-08-13 Sony Corp 画像復元方法
JPH0787482A (ja) * 1993-09-17 1995-03-31 Fujitsu Ltd 画像データの符号化方法及び復元方法並びに装置
JPH1032751A (ja) * 1996-07-17 1998-02-03 Canon Inc 撮像装置及び画像処理装置
EP0774730B1 (en) * 1995-11-01 2005-08-24 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
JPH09187038A (ja) * 1995-12-27 1997-07-15 Canon Inc 3次元形状抽出装置
JPH11257951A (ja) * 1998-03-09 1999-09-24 Fuji Electric Co Ltd 測距装置
WO2002002010A1 (fr) * 2000-07-05 2002-01-10 Hitachi Medical Corporation Dispositif d'imagerie par resonance magnetique et bobine de champ magnetique a gradient utilisee dans un tel dispositif
US7327890B2 (en) * 2002-12-20 2008-02-05 Eastman Kodak Company Imaging method and system for determining an area of importance in an archival image
US7542834B2 (en) * 2003-10-17 2009-06-02 Panasonic Corporation Mobile unit motion calculating method, apparatus and navigation system
JP4724826B2 (ja) 2005-01-17 2011-07-13 国立大学法人東京工業大学 超解像処理のパラメータ設計方法
JP4518979B2 (ja) 2005-03-03 2010-08-04 ライトロン株式会社 微細な試料を可視化する装置と方法、微細な格子の乱れを可視化する装置と方法
US7511800B2 (en) * 2005-11-28 2009-03-31 Robert Bosch Company Limited Distance measurement device with short range optics
US7961976B2 (en) * 2006-09-01 2011-06-14 Fujifilm Corporation Image data restoration apparatus, imaging apparatus, image data restoration method and computer readable medium storing image data restoration program
JP2008242658A (ja) * 2007-03-26 2008-10-09 Funai Electric Co Ltd 立体物体の撮像装置
JP5099750B2 (ja) * 2007-03-29 2012-12-19 独立行政法人放射線医学総合研究所 断層撮影装置の画像再構成方法、故障診断方法、断層撮影装置、及び、システムマトリクスの管理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167484A (ja) * 2003-12-01 2005-06-23 Japan Science & Technology Agency 画像構成装置及び画像構成方法
JP2006119843A (ja) * 2004-10-20 2006-05-11 Olympus Corp 画像生成方法およびその装置
JP2007193508A (ja) * 2006-01-18 2007-08-02 Sanyo Electric Co Ltd 画像処理装置及び画像処理プログラム

Also Published As

Publication number Publication date
US20100111368A1 (en) 2010-05-06
CN102144244B (zh) 2013-06-26
CN102144244A (zh) 2011-08-03
US8369576B2 (en) 2013-02-05
JP2010061440A (ja) 2010-03-18
JP5419403B2 (ja) 2014-02-19

Similar Documents

Publication Publication Date Title
JP7016835B2 (ja) 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム
JP5756099B2 (ja) 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム
US10027909B2 (en) Imaging device, imaging method, and image processing device
JP5709911B2 (ja) 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
US8018520B2 (en) Imaging device, imaging method, display control device, display control method, and program
US20080239107A1 (en) Imaging apparatus
US20110149103A1 (en) Image processing apparatus and image pickup apparatus using same
JP6999802B2 (ja) ダブルカメラベースの撮像のための方法および装置
JP6603493B2 (ja) 撮像装置、画像処理装置、撮像装置が実行する撮像方法、画像処理装置が実行する画像処理方法、及びプログラム
JP6308748B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP5453573B2 (ja) 撮像装置、撮像方法およびプログラム
JP2009260620A (ja) 画像処理装置及び画像処理方法
JP2011135563A (ja) 撮像装置および画像処理方法
JP7285791B2 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
WO2010027102A1 (ja) 画像処理装置
JP6468868B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
CN109218602A (zh) 影像撷取装置、影像处理方法及电子装置
JP5497420B2 (ja) 画像処理装置及び撮像装置
JP2009055415A (ja) カメラ
CN111698389A (zh) 图像处理设备、摄像设备、图像处理方法以及存储介质
JP2015109681A (ja) 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
JP2019176302A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2010239493A (ja) 撮像装置および映像信号の補正処理方法
JP2016001782A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、記憶媒体
JP2015109562A (ja) 画像処理装置、撮像装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980134755.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09811622

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09811622

Country of ref document: EP

Kind code of ref document: A1