JPWO2008090858A1 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JPWO2008090858A1
JPWO2008090858A1 JP2008555057A JP2008555057A JPWO2008090858A1 JP WO2008090858 A1 JPWO2008090858 A1 JP WO2008090858A1 JP 2008555057 A JP2008555057 A JP 2008555057A JP 2008555057 A JP2008555057 A JP 2008555057A JP WO2008090858 A1 JPWO2008090858 A1 JP WO2008090858A1
Authority
JP
Japan
Prior art keywords
data
image
color difference
luminance data
restored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008555057A
Other languages
Japanese (ja)
Inventor
史紀 高橋
史紀 高橋
小松 広明
広明 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nitto Optical Co Ltd
Original Assignee
Nitto Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nitto Optical Co Ltd filed Critical Nitto Optical Co Ltd
Publication of JPWO2008090858A1 publication Critical patent/JPWO2008090858A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

装置の大型化を防止すると共に、現実性のある画像復元のための回路処理方式を提案するため、この画像処理装置において、画像変化の要因となる変化要因データGを利用して、任意画像輝度データYI0から比較画像輝度データYI0′を生成し、その後、処理対象となる原画像輝度データYImg′と比較画像輝度データYI0′とを比較し、得られた差分輝度データYδを変化要因データGに基づいて任意画像データYI0に配分することで復元画像輝度データYI0+nを生成し、その後、この復元画像輝度データYI0+nを任意画像輝度データYI0の代わりに使用し、同様の処理を繰り返すことで変化前(劣化等する前)の基画像の輝度データまたそれに近似する復元画像輝度データYI0+nを生成する処理を行う。In order to prevent the enlargement of the apparatus and to propose a circuit processing method for realistic image restoration, in this image processing apparatus, by using the change factor data G that causes the image change, the arbitrary image luminance Comparison image luminance data YI0 ′ is generated from the data YI0, and then the original image luminance data YImg ′ to be processed is compared with the comparison image luminance data YI0 ′. The obtained difference luminance data Yδ is used as the change factor data G. Based on this, the restored image luminance data YI0 + n is generated by allocating to the arbitrary image data YI0. Thereafter, the restored image luminance data YI0 + n is used in place of the arbitrary image luminance data YI0, and the same process is repeated before the change ( A process of generating luminance data of the base image before the deterioration or the like, or restored image luminance data YI0 + n that approximates the luminance data is performed.

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

従来から、カメラ等で撮影を行った撮影画像には、画像劣化が生ずることが知られている。この画像劣化の要因としては撮影時の手ぶれ、光学系の各種の収差、レンズの歪み等がある。   Conventionally, it is known that image degradation occurs in a photographed image photographed with a camera or the like. Factors for this image degradation include camera shake during shooting, various aberrations of the optical system, lens distortion, and the like.

撮影時の手ぶれを補正するためには、撮影レンズの中の所定のレンズを動かす方式と、回路処理する方式とが知られている。たとえば、レンズを動かす方式としては、撮影時に、手ぶれを検出し、この検出した手ぶれに合わせて所定のレンズを動かすことで、補正する方式が知られている(特許文献1参照)。   In order to correct camera shake at the time of photographing, a method of moving a predetermined lens among photographing lenses and a method of circuit processing are known. For example, as a method of moving the lens, a method of correcting by detecting camera shake at the time of shooting and moving a predetermined lens in accordance with the detected camera shake is known (see Patent Document 1).

また、回路処理する方式としては、カメラの光軸の変動を角加速度センサで検出し、検出した角速度等から撮影時のぼけ状態を表す伝達関数を取得し、撮影画像に対し、取得した伝達関数の逆変換を行い、画像を復元する方式が知られている(特許文献2参照)。   In addition, as a circuit processing method, a change in the optical axis of the camera is detected by an angular acceleration sensor, a transfer function indicating a blurring state at the time of shooting is acquired from the detected angular velocity, etc., and the acquired transfer function is obtained for a shot image. A method is known in which an image is restored by performing an inverse transformation of (see Patent Document 2).

特開平6−317824号公報(要約書参照)JP-A-6-317824 (see abstract) 特開平11−24122号公報(要約書参照)Japanese Patent Laid-Open No. 11-24122 (see abstract)

特許文献1記載の手ぶれ補正を採用したカメラは、モータ等、レンズを駆動するハードウェアのスペースが必要となり大型化してしまう。また、そのようなハードウェア自体やそのハードウェアを動かす駆動回路が必要となり、コストアップとなってしまう。   The camera employing the camera shake correction described in Patent Document 1 requires a hardware space for driving a lens, such as a motor, and becomes large. In addition, such hardware itself and a drive circuit for operating the hardware are necessary, which increases costs.

また、特許文献2記載の手ぶれ補正の場合は、上述した問題点はなくなるものの、次のような問題を有する。すなわち、取得した伝達関数の逆変換で画像復元がなされることは理論上成り立つが、実際問題として、以下の2つの理由で、画像復元が困難である。   In addition, in the case of camera shake correction described in Patent Document 2, the above-described problems are eliminated, but the following problems occur. That is, it is theoretically possible to perform image restoration by inverse transformation of the acquired transfer function, but as a practical problem, image restoration is difficult for the following two reasons.

第1に、取得する伝達関数は、ノイズやぶれ情報誤差等に非常に弱く、これらのわずかな変動により、値が大きく変動する。このため、逆変換で得られる復元画像は、手ぶれがない状態で写した画像とはほど遠いものとなり、実際上は利用できない。第2に、ノイズ等を考慮した逆変換を行う場合、連立方程式の解の特異値分解等で解を推定する方法も採用できるが、その推定のための計算値が天文学的な大きさになり、実際的には解くことができなくなるリスクが高い。   First, the transfer function to be acquired is very weak against noise, blur information error, etc., and the value fluctuates greatly due to these slight fluctuations. For this reason, the restored image obtained by the inverse transformation is far from an image taken with no camera shake, and cannot be used in practice. Second, when performing inverse transformation considering noise, etc., a method of estimating the solution by singular value decomposition etc. of the solution of simultaneous equations can be adopted, but the calculated value for the estimation becomes astronomical size. In practice, there is a high risk of being unable to solve.

上述したように、本発明の課題は、画像を復元するに当たり、装置の大型化を防止すると共に、現実性のある回路処理方式を有する画像処理装置および画像処理方法を提供することである。   As described above, an object of the present invention is to provide an image processing apparatus and an image processing method having a realistic circuit processing method as well as preventing an increase in size of the apparatus when restoring an image.

上記課題を解決するために、本発明の画像処理装置は、カラー画像を処理する処理部を有する画像処理装置において、処理部は、処理対象となる原画像のデータである原画像データから、原画像輝度データと原画像色差データを分離し、原画像輝度データと原画像色差データとをそれぞれを処理対象のデータとし、原画像輝度データについては、画像変化の要因のデータである変化要因データを利用して、任意の画像輝度データである任意画像輝度データから、この任意画像輝度データを変化させた比較用の比較画像輝度データを生成し、原画像輝度データと比較画像輝度データとを比較した差分のデータである差分輝度データを求め、差分輝度データを上記変化要因データに基づいて任意画像輝度データに配分した復元画像輝度データを生成し、復元画像輝度データを任意画像輝度データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、原画像が変化する前の画像である基画像の基画像輝度データまたはそれに近似する復元された復元画像輝度データを生成する処理を行い、原画像色差データについては、変化要因データを利用して、任意の画像色差データである任意画像色差データから、この任意画像色差データを変化させた比較用の比較画像色差データを生成し、原画像色差データと比較画像色差データとを比較した差分のデータである差分色差データを求め、差分色差データを上記変化要因データに基づいて任意画像色差データに配分した復元画像色差データを生成し、復元画像色差データを任意画像色差データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、原画像が変化する前の画像である基画像の基画像色差データまたはそれに近似する復元された復元画像色差データを生成する処理を行うこととする。   In order to solve the above problems, an image processing apparatus according to the present invention includes an image processing apparatus having a processing unit that processes a color image. The image luminance data and the original image color difference data are separated, and each of the original image luminance data and the original image color difference data is set as processing target data. The comparison image luminance data for comparison in which the arbitrary image luminance data is changed is generated from the arbitrary image luminance data which is arbitrary image luminance data, and the original image luminance data and the comparative image luminance data are compared. Difference luminance data, which is difference data, is obtained, and restored image luminance data is generated by distributing the difference luminance data to arbitrary image luminance data based on the change factor data. Then, by using the restored image luminance data instead of the arbitrary image luminance data, and repeating the same process, the base image luminance data of the base image which is the image before the original image is changed or approximated to it The restored image brightness data is generated, and the original image color difference data is changed from the arbitrary image color difference data, which is arbitrary image color difference data, using the change factor data. Generating comparison image color difference data for comparison, obtaining difference color difference data which is a difference data obtained by comparing the original image color difference data and the comparison image color difference data, and calculating the difference color difference data based on the change factor data. The restored image color difference data distributed to the data is generated, the restored image color difference data is used in place of the arbitrary image color difference data, and the same processing is repeated. Be iterative process by performing, and performing the process of generating the reconstructed restored image chrominance data was approximating that based on image color difference data or the original image is an image before the original image is changed.

このように画像処理装置を構成した場合には、画像変化の要因情報を利用して、所定のデータを生成することだけで原画像の輝度データおよび色差データに近似する復元画像輝度データおよび復元画像色差データを生成しているので、ハードウェア的な増加はほとんど無く、装置が大型化しない。また、復元画像輝度データおよび復元画像色差データからそれぞれ比較輝度データおよび比較色差データを作り、その比較輝度データと処理対象の原画像の輝度データとを比較するという処理を繰り返し、また、比較色差データと処理対象の原画像の色差データとを比較するという処理を繰り返し、徐々に原画像の基となる変化前の画像に近い復元画像輝度データおよび復元画像色差データを得るので、現実的な復元処理作業となる。このため、画像の復元処理に当たって、現実性のある回路処理方式を有する画像処理装置とすることができる。   When the image processing apparatus is configured as described above, the restored image luminance data and the restored image that approximate the luminance data and the color difference data of the original image simply by generating predetermined data using the image change factor information. Since the color difference data is generated, there is almost no increase in hardware, and the apparatus does not increase in size. Also, comparison luminance data and comparison color difference data are created from the restored image luminance data and the restored image color difference data, respectively, and the comparison luminance data is compared with the luminance data of the original image to be processed. Is repeated, and the restored image luminance data and restored image color difference data close to the original image that is the basis of the original image are gradually obtained. It becomes work. For this reason, an image processing apparatus having a realistic circuit processing method can be provided in the image restoration process.

また、他の発明は、上述の発明に加え、復元画像輝度データと復元画像色差データとを合成し、基画像の基画像データまたはそれに近似する復元された復元画像データを生成する処理を行うこととする。   In addition to the above-described invention, another invention performs a process of combining the restored image luminance data and the restored image color difference data to generate base image data of the base image or restored restored image data approximated thereto. And

このように画像処理装置を構成した場合には、現実性のある回路処理方式を有する画像処理装置とすることができる。   When the image processing apparatus is configured as described above, an image processing apparatus having a realistic circuit processing method can be obtained.

また、他の発明は、上述の発明に加え、原画像色差データを異なる色についての2つのデータとし、それぞれについての繰り返し処理を行うこととする。   In addition to the above-described invention, another invention uses the original image color difference data as two data for different colors, and repeats each of them.

このように画像処理装置を構成した場合には、異なる色についてそれぞれ復元画像色差データを生成するので、復元精度を高くすることができる。   When the image processing apparatus is configured as described above, the restored image color difference data is generated for each different color, so that the restoration accuracy can be increased.

また、他の発明は、上述の発明に加え、原画像色差データについては、圧縮処理を行い、圧縮された圧縮画像色差データについて繰り返し処理を行い復元画像色差データを生成することとする。   According to another invention, in addition to the above-described invention, the original image color difference data is subjected to compression processing, and the compressed compressed image color difference data is repeatedly processed to generate restored image color difference data.

このように画像処理装置を構成した場合には、復元処理の高速化を図ることができる。   When the image processing apparatus is configured in this way, the restoration process can be speeded up.

また、他の発明は、上述の発明に加え、原画像色差データの圧縮は、原画像色差データのデータを間引く間引き処理であることとする。   According to another invention, in addition to the above-described invention, the compression of the original image color difference data is a thinning process for thinning out the data of the original image color difference data.

このように画像処理装置を構成した場合には、復元処理の高速化を図ることができる。   When the image processing apparatus is configured in this way, the restoration process can be speeded up.

また、他の発明は、上述の発明に加え、画像色差データの圧縮は、復元画像色差データを生成する処理を、復元画像輝度データを生成する処理を行うビット数よりも少ないビット数で処理することとする。   In addition to the above-described invention, in another aspect of the invention, the compression of the image color difference data is a process of generating the restored image color difference data with a smaller number of bits than the number of bits for performing the process of generating the restored image luminance data. I will do it.

このように画像処理装置を構成した場合には、復元処理の高速化を図ることができる。   When the image processing apparatus is configured in this way, the restoration process can be speeded up.

上記課題を解決するために、本発明の画像処理装置は、カラー画像を処理する画像処理方法において、処理対象となる原画像のデータである原画像データから、原画像輝度データと原画像色差データを分離するステップと、原画像輝度データと原画像色差データとをそれぞれを処理対象のデータとし、原画像輝度データについては、画像変化の要因のデータである変化要因データを利用して、任意の画像輝度データである任意画像輝度データから、この任意画像輝度データを変化させた比較用の比較画像輝度データを生成するステップと、原画像輝度データと比較画像輝度データとを比較した差分のデータである差分輝度データを求めるステップと、差分輝度データを上記変化要因データに基づいて任意画像輝度データに配分した復元画像輝度データを生成するステップとを有し、復元画像輝度データを任意画像輝度データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、原画像が変化する前の画像である基画像の基画像輝度データまたはそれに近似する復元された復元画像輝度データを生成する処理を行い、画像色差画像データについては、変化要因データを利用して、任意の画像色差データである任意画像色差データから、この任意画像色差データを変化させた比較用の比較画像色差データを生成するステップと、原画像色差データと比較画像色差データとを比較した差分のデータである差分色差データを求めるステップと、差分色差データを上記変化要因データに基づいて任意画像色差データに配分した復元画像色差データを生成するステップとを有し、復元画像色差データを任意画像色差データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、原画像が変化する前の画像である基画像の基画像色差データまたはそれに近似する復元された復元画像色差データを生成する処理を行うこととする。   In order to solve the above-described problems, an image processing apparatus according to the present invention is an image processing method for processing a color image, wherein original image luminance data and original image color difference data are obtained from original image data as original image data to be processed. The original image luminance data and the original image color difference data as processing target data, and for the original image luminance data, using the change factor data that is the image change factor data, From the arbitrary image luminance data which is image luminance data, a step of generating comparative image luminance data for comparison in which the arbitrary image luminance data is changed, and difference data obtained by comparing the original image luminance data and the comparative image luminance data. A step of obtaining a certain difference luminance data, and a restored image brightness obtained by allocating the difference luminance data to arbitrary image luminance data based on the change factor data. A step of generating data, using the restored image luminance data instead of the arbitrary image luminance data, and repeating the same process repeatedly, so that the original image before the original image is changed The base image luminance data or a restored restored image luminance data approximated to it is processed, and for the image color difference image data, using the change factor data, from the arbitrary image color difference data which is arbitrary image color difference data, A step of generating comparison image color difference data for comparison in which the arbitrary image color difference data is changed, a step of obtaining difference color difference data which is difference data obtained by comparing the original image color difference data and the comparison image color difference data, and difference color difference Generating restored image color difference data in which data is distributed to arbitrary image color difference data based on the change factor data. By using the restored image color difference data instead of the arbitrary image color difference data and repeating the same process, the original image color difference data of the base image, which is the image before the original image is changed, or the approximated image is restored. The restored image color difference data is generated.

このように画像処理方法による場合には、画像変化の要因情報を利用して、所定のデータを生成することだけで原画像の輝度データおよび色差データに近似する復元画像輝度データおよび復元画像色差データを生成しているので、ハードウェア的な増加はほとんど無く、この方法を採用した装置は大型化しない。また、復元画像輝度データおよび復元画像色差データからそれぞれ比較輝度データおよび比較色差データを作り、その比較輝度データと処理対象の原画像の輝度データとを比較するという処理を繰り返し、また、比較色差データと処理対象の原画像の色差データとを比較するという処理を繰り返し、徐々に原画像の基となる変化前の画像に近い復元画像輝度データおよび復元画像色差データを得るので、現実的な復元処理方法となる。このため、画像の復元処理に当たって、現実性のある画像処理方法とすることができる。   In this way, in the case of the image processing method, the restored image luminance data and restored image color difference data that approximate the luminance data and color difference data of the original image simply by generating predetermined data using the factor information of the image change. Therefore, there is almost no increase in hardware, and the apparatus adopting this method does not increase in size. Also, comparison luminance data and comparison color difference data are created from the restored image luminance data and the restored image color difference data, respectively, and the comparison luminance data is compared with the luminance data of the original image to be processed. Is repeated, and the restored image luminance data and restored image color difference data close to the original image that is the basis of the original image are gradually obtained. Become a method. Therefore, a realistic image processing method can be used in the image restoration process.

本発明によれば、劣化した画像を復元するに当たり、装置の大型化を防止できると共に、現実性のある回路処理方式を有する画像処理装置および画像処理方法とすることができる。   According to the present invention, when restoring a deteriorated image, it is possible to prevent an increase in size of the apparatus and to provide an image processing apparatus and an image processing method having a realistic circuit processing method.

本発明の実施の形態に係る画像処理装置の主要構成を示すブロック図である。It is a block diagram which shows the main structures of the image processing apparatus which concerns on embodiment of this invention. 図1に示す画像処理装置の概要を示す外観斜視図で、角速度センサの配置位置を説明するための図である。It is an external appearance perspective view which shows the outline | summary of the image processing apparatus shown in FIG. 1, and is a figure for demonstrating the arrangement position of an angular velocity sensor. 図1に示す画像処理装置の処理部で行う処理方法(処理ルーチン)であって基本的な考え方を説明するための処理フロー図である。It is a processing method (processing routine) performed by the processing unit of the image processing apparatus shown in FIG. 1 and is a processing flowchart for explaining the basic concept. 図3に示す処理方法の概念を説明するための図である。It is a figure for demonstrating the concept of the processing method shown in FIG. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、手ぶれのないときのエネルギーの集中を示す表である。FIG. 4 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking hand shake as an example, and is a table showing energy concentration when there is no hand shake. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、手ぶれのないときの輝度情報についての光エネルギー量の分布を示す図である。It is a figure for demonstrating concretely the processing method shown in FIG. 3 taking an example of camera shake, and is a figure which shows distribution of the light energy amount about luminance information when there is no camera shake. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、手ぶれが生じたときの輝度情報についての光エネルギー量のエネルギーの分散を示す図である。It is a figure for demonstrating concretely the processing method shown in FIG. 3 as an example of camera shake, and is a figure which shows dispersion | distribution of the energy of the amount of light energy about the luminance information when camera shake occurs. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、任意の画像の輝度データから比較画像輝度データを生成する状況を説明するための図である。FIG. 4 is a diagram for specifically explaining the processing method shown in FIG. 3 using camera shake as an example, and is a diagram for explaining a situation in which comparison image luminance data is generated from luminance data of an arbitrary image. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、比較画像輝度データと、処理対象となるぶれた原画像の輝度データとを比較して、差分輝度データを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking hand shake as an example. Comparison image brightness data is compared with brightness data of a blurred original image to be processed, and difference brightness data is obtained. It is a figure for demonstrating the condition to produce | generate. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、差分輝度データを配分し任意の画像の輝度データに加えることで復元画像輝度データを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining the processing method shown in FIG. 3 with an example of camera shake, and illustrates a situation in which restored image luminance data is generated by allocating difference luminance data and adding it to luminance data of an arbitrary image. FIG. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、生成された復元画像輝度データから新たな比較画像輝度データを生成し、そのデータと処理対象となるぶれた原画像の輝度データとを比較して差分輝度データを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking hand shake as an example. New comparison image luminance data is generated from the generated restored image luminance data, and the data and the blur to be processed It is a figure for demonstrating the condition which compares with the luminance data of an original image, and produces | generates difference luminance data. 図3に示す処理方法を、手ぶれを例にして具体的に説明するための図で、新たに生成された差分輝度データを配分し、新たな復元画像輝度データを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining the processing method shown in FIG. 3 by taking hand shake as an example, and for explaining a situation in which newly generated differential luminance data is allocated and new restored image luminance data is generated. FIG.

符号の説明Explanation of symbols

1 ・・・ 画像処理装置
4 ・・・ 処理部
Img′ ・・・ 原画像データ
YImg′ ・・・ 原画像輝度データ
UImg′,VImg′ ・・・ 原画像色差データ
G ・・・ 変化要因データ
YI ・・・ 任意画像輝度データ
YI′ ・・・ 比較画像輝度データ
Yδ ・・・ 差分輝度データ
YI0+n ・・・ 復元画像輝度データ
YImg ・・・ 基画像輝度データ
UI,VI ・・・ 任意画像色差データ
UI′,VI′ ・・・ 比較画像色差データ
Uδ,Vδ ・・・ 差分色差データ
UI0+n,VI0+n ・・・ 復元画像色差データ
UImg,VImg ・・・ 基画像色差データ
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 4 ... Processing part Img '... Original image data YImg' ... Original image luminance data UImg ', VImg' ... Original image color difference data G ... Change factor data YI 0 ... Arbitrary image brightness data YI 0 '... Comparison image brightness data Yδ ... Difference brightness data YI 0 + n ... Restored image brightness data YImg ... Base image brightness data UI 0 , VI 0 ... Arbitrary image color difference data UI 0 ', VI 0 '... Comparison image color difference data Uδ, Vδ... Difference color difference data UI 0 + n , VI 0 + n ... Restored image color difference data UImg, VImg.

以下、本発明の第1の実施の形態に係る画像処理装置1について図を参照しながら説明する。なお、この画像処理装置1は、撮像部にCCD(Charge Coupled Device)を使用した民生用のいわゆるデジタルカメラとしているが、撮像部にCCD等の撮像素子を用いる監視用カメラ、テレビ用カメラ用、内視鏡用カメラ等、他の用途のカメラとしたり、顕微鏡用、双眼鏡用、さらには核磁気共鳴撮影用等の画像診断装置等、カメラ以外の機器にも適用できる。また、画像処理方法については、画像処理装置1の説明と併せて行うこととする。   Hereinafter, an image processing apparatus 1 according to a first embodiment of the present invention will be described with reference to the drawings. The image processing apparatus 1 is a so-called consumer digital camera using a CCD (Charge Coupled Device) as an imaging unit. However, the image processing apparatus 1 is used for a monitoring camera, a television camera, and the like that uses an imaging element such as a CCD as the imaging unit. The present invention can also be applied to devices other than cameras, such as endoscope cameras and other imaging cameras, microscopes, binoculars, and diagnostic imaging apparatuses for nuclear magnetic resonance imaging. The image processing method will be described in conjunction with the description of the image processing apparatus 1.

画像処理装置1は、人物等の映像を撮影する撮像部2と、その撮像部2を駆動する制御系部3と、撮像部2で撮影された画像を処理する処理部4とを有している。また、この実施の形態に係る画像処理装置1は、さらに処理部4で処理された画像を記録する記録部5と、角速度センサ等からなり、撮影される画像の変化(劣化)の要因となる変化要因情報を検知する検出部6と、画像の変化等を生じさせる既知の変化要因情報を保存する要因情報保存部7を有する。   The image processing apparatus 1 includes an imaging unit 2 that captures an image of a person or the like, a control system unit 3 that drives the imaging unit 2, and a processing unit 4 that processes an image captured by the imaging unit 2. Yes. The image processing apparatus 1 according to this embodiment further includes a recording unit 5 that records an image processed by the processing unit 4, an angular velocity sensor, and the like, and causes a change (deterioration) of a captured image. It has a detection unit 6 that detects change factor information, and a factor information storage unit 7 that stores known change factor information that causes an image change or the like.

撮像部2は、レンズを有する撮影光学系やレンズを通過した光を電気信号に変換するCCDやCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備える部分である。この撮像部2は、R(赤)、G(緑)、B(青)の三色のカラー画像信号を生成し出力する。撮像部2は、撮像面にRGB別のフィルタがレイヤ配列されている撮像素子を1つ使用するいわゆる単板式のもの、あるいは、撮影光学系を通過した撮影光をダイクロイックプリズムによりRGBの三色、別々の色光に分離し、各色光毎に撮像素子を備えるいわゆる3板式のもの、いずれのもの(単板式/3板式)でもよい。制御系部3は、撮像部2、処理部4、記録部5、検出部6、および要因情報保存部7等、画像処理装置1内の各部を制御するものである。   The imaging unit 2 includes an imaging optical system having a lens and an imaging element such as a CCD or a CMOS (Complementary Metal Oxide Semiconductor) that converts light passing through the lens into an electrical signal. The imaging unit 2 generates and outputs three color image signals of R (red), G (green), and B (blue). The imaging unit 2 is a so-called single-plate type that uses one imaging element in which RGB-specific filters are arranged in layers on the imaging surface, or three colors of RGB using a dichroic prism for imaging light that has passed through the imaging optical system, A so-called three-plate type, which is separated into separate color lights and includes an image sensor for each color light, may be any (single-plate type / 3-plate type). The control system unit 3 controls each unit in the image processing apparatus 1 such as the imaging unit 2, the processing unit 4, the recording unit 5, the detection unit 6, and the factor information storage unit 7.

処理部4は、画像処理プロセサで構成されており、ASIC(Application Specific Integrated Circuit)のようなハードウェアで構成されている。この処理部4には、後述する比較用画像の画像輝度データ(以下、比較画像輝度データ)や比較用画像の画像色差データ(以下、比較画像色差データ)を生成する際の元となる画像が保管されることもある。処理部4は、ASICのようなハードウェアとして構成されるのではなく、ソフトウェアで処理する構成としても良い。記録部5は、半導体メモリで構成されているが、ハードディスクドライブ等の磁気記録手段や、DVD等を使用する光記録手段等を採用しても良い。   The processing unit 4 is configured by an image processing processor, and is configured by hardware such as an ASIC (Application Specific Integrated Circuit). The processing unit 4 includes an image that is a source for generating image luminance data of a comparative image (hereinafter referred to as comparative image luminance data) and image color difference data of a comparative image (hereinafter referred to as comparative image color difference data). Sometimes stored. The processing unit 4 is not configured as hardware such as an ASIC, but may be configured to perform processing by software. The recording unit 5 is composed of a semiconductor memory. However, a magnetic recording unit such as a hard disk drive, an optical recording unit using a DVD, or the like may be employed.

検出部6は、図2に示すように、画像処理装置1の光軸であるZ軸に対して垂直方向となるX軸、Y軸の回りの速度を検出する2つの角速度センサを備えるものである。ところで、カメラで撮影する際の手ぶれは、X方向、Y方向、Z方向の各方向への移動やZ軸回りの回動も生ずるが、各変動により最も大きな影響を受けるのは、Y軸回りの回転とX軸回りの回転である。これら2つの変動は、ほんのわずかに変動しただけで、その撮影された画像は大きくぼける。このため、この実施の形態では、図2のX軸回りとY軸回りの2つの角速度センサのみを配置している。しかし、より完全を期すためZ軸回りの角速度センサをさらに付加したり、X方向やY方向への移動を検出するセンサを付加しても良い。また、使用するセンサとしては、角速度センサではなく、角加速度センサとしても良い。   As shown in FIG. 2, the detection unit 6 includes two angular velocity sensors that detect the speeds around the X axis and the Y axis that are perpendicular to the Z axis that is the optical axis of the image processing apparatus 1. is there. By the way, camera shake at the time of shooting with a camera may cause movement in each direction of the X direction, Y direction, and Z direction, and rotation about the Z axis. Rotation around the X axis. These two variations are only slightly varied, and the captured image is greatly blurred. For this reason, in this embodiment, only two angular velocity sensors around the X axis and the Y axis in FIG. 2 are arranged. However, for the sake of completeness, an angular velocity sensor around the Z axis may be further added, or a sensor for detecting movement in the X direction or the Y direction may be added. The sensor used may be an angular acceleration sensor instead of an angular velocity sensor.

要因情報保存部7は、撮影画像を変化させる変化要因の情報であって撮影を開始する前に判っている既知の変化要因データが保存される。既知の変化要因の情報としては、例えば、光学系の収差等である。なお、この実施の形態では、要因情報保存部7には、光学系の収差やレンズのひずみの情報が保存されているが、後述する手ぶれのぼけの復元の際にはそれらの情報は、利用していない。   The factor information storage unit 7 stores information about change factors that change the captured image and known change factor data that is known before the start of shooting. The information on the known change factor is, for example, aberration of the optical system. In this embodiment, the factor information storage unit 7 stores information on aberrations of the optical system and lens distortion. However, when restoring blurring of camera shake described later, the information is used. Not done.

次に、以上のように構成された画像処理装置1の処理部4の処理方法の概要を説明する。   Next, an outline of the processing method of the processing unit 4 of the image processing apparatus 1 configured as described above will be described.

処理部4では、先ず、処理対象となる撮影画像データである原画像データImg′から、YUVの信号を分離する。すなわち、原画像データImg′から、撮影画像の輝度情報である原画像輝度データYImg′と、撮影画像の青色についての色差情報である原画像色差データUImg′と、赤色についての色差情報である原画像色差データVImg′とを分離する。かかる分離を行う処理ステップの後、原画像輝度データYImg′、原画像色差データUImg′および原画像色差データVImg′のそれぞれについて、図3に示す復元処理を行う。図3は、原画像輝度データYImg′の処理(復元処理)につて説明したフローであるが、原画像色差データUImg′および原画像色差データVImg′についても同様の復元処理を行う。   The processing unit 4 first separates the YUV signal from the original image data Img ′, which is the captured image data to be processed. That is, from the original image data Img ′, the original image luminance data YImg ′ that is the luminance information of the photographed image, the original image color difference data UImg ′ that is the color difference information about the blue color of the photographed image, and the original that is the color difference information about the red color. The image color difference data VImg ′ is separated. After the processing step for performing such separation, the restoration process shown in FIG. 3 is performed for each of the original image luminance data YImg ′, the original image color difference data UImg ′, and the original image color difference data VImg ′. FIG. 3 is a flowchart illustrating the processing (restoration processing) of the original image luminance data YImg ′. The same restoration processing is also performed on the original image color difference data UImg ′ and the original image color difference data VImg ′.

図3中、「YI」は、任意の画像の輝度データである任意画像輝度データであり、この任意画像輝度データYIは、処理部4の記録部に予め保存されている。「YI′」は、その任意画像輝度データYIの変化画像のデータを示し、比較のための画像輝度データ(以下、比較画像輝度データ)である。「G」は、検出部6で検出された変化要因の情報(=劣化要因の情報(点像関数))となる変化要因データであり、処理部4の記録部に保存されているものである。なお、原画像輝度データYImg′は、撮影画像データから分離されたものである。すなわち、撮影時の手ぶれ等による変化要因によって変化させられている原画像データImg′(撮影画像データ)から分離された輝度データであり、この原画像輝度データYImg′も変化要因によって、変化させられている。In FIG. 3, “YI 0 ” is arbitrary image luminance data that is luminance data of an arbitrary image, and this arbitrary image luminance data YI 0 is stored in advance in the recording unit of the processing unit 4. “YI 0 ′” indicates data of a change image of the arbitrary image luminance data YI 0 and is image luminance data for comparison (hereinafter referred to as comparative image luminance data). “G” is change factor data serving as change factor information (= deterioration factor information (point spread function)) detected by the detection unit 6, and is stored in the recording unit of the processing unit 4. . The original image luminance data YImg ′ is separated from the captured image data. That is, the luminance data is separated from the original image data Img ′ (photographed image data) that is changed by a change factor due to camera shake or the like at the time of shooting, and the original image luminance data YImg ′ is also changed by the change factor. ing.

「Yδ」は、原画像輝度データYImg′と、比較画像輝度データYI′との差分のデータである差分輝度データである。「k」は、変化要因データGに基づく配分比である。「YI0+n」は、任意画像輝度データYIに、差分輝度データYδを変化要因データに基づいて配分して新たに生成した復元画像輝度データである。「YImg」は、原画像データImg′の基となった、変化する前の本来の画像の画像データ(以下、基画像データという)についての輝度データである(以下、基画像輝度データという。)。ここで、YImgとYImg′の関係は、次の(1)式で現されるものとする。
YImg′=YImg*G ・・・(1)
「*」は、重畳積分を表わす演算子である。
なお、差分輝度データYδは、対応する画素の単純な差分でも良い場合もあるが、一般的には、変化要因データGにより異なり、次の(2)式で表わされる。
Yδ=f(YImg′,YI,G)・・・(2)
“Yδ” is difference luminance data which is difference data between the original image luminance data YImg ′ and the comparison image luminance data YI 0 ′. “K” is a distribution ratio based on the change factor data G. “YI 0 + n ” is restored image luminance data newly generated by distributing the difference luminance data Yδ to the arbitrary image luminance data YI 0 based on the change factor data. “YImg” is luminance data (hereinafter, referred to as base image luminance data) regarding the original image data (hereinafter referred to as base image data) before the change, which is the basis of the original image data Img ′. . Here, it is assumed that the relationship between YImg and YImg ′ is expressed by the following equation (1).
YImg ′ = YImg * G (1)
“*” Is an operator representing a superposition integral.
The difference luminance data Yδ may be a simple difference between corresponding pixels, but generally differs depending on the change factor data G and is expressed by the following equation (2).
Yδ = f (YImg ′, YI 0 , G) (2)

処理部4の処理ルーチンは、まず、任意画像輝度データYIを初期データとして用意することから始まる(ステップS101)。この初期データである任意画像輝度データYIとしては、撮影した画像のデータである原画像データImg′の輝度データを用いても良く、また、黒ベタ、白ベタ、灰色ベタ、市松模様等どのような画像の輝度データを用いても良い。ステップS102で、(1)式のYImgの代わりに任意画像輝度データYIを入れ、この任意画像輝度データYIが変化要因データGにより変化させられた比較画像輝度データYI′を求める。次に、原画像輝度データYImg′と比較画像輝度データYI′とを比較し、差分輝度データYδを算出する(ステップS103)。The processing routine of the processing unit 4 starts by preparing arbitrary image luminance data YI 0 as initial data (step S101). As the initial image arbitrary data luminance data YI 0 , the luminance data of the original image data Img ′ that is the imaged image data may be used, and any of solid black, white solid, gray solid, checkered pattern, etc. Such image luminance data may be used. In step S102, arbitrary image luminance data YI 0 is input instead of YImg in the equation (1), and comparison image luminance data YI 0 ′ in which the arbitrary image luminance data YI 0 is changed by the change factor data G is obtained. Next, the original image luminance data YImg ′ and the comparative image luminance data YI 0 ′ are compared to calculate difference luminance data Yδ (step S103).

次に、ステップS104で、この差分輝度データYδが所定値以上であるか否かを判断し、所定値以上であれば、ステップS105で新たな任意画像輝度データ(=復元画像輝度データ)YI0+nを生成する処理を行う。すなわち、差分輝度データYδを変化要因データGに基づいて、任意画像輝度データYIに配分し、復元画像輝度データYI0+nを生成する。その後、復元画像輝度データYI0+nをステップS102における任意画像輝度データYIの代わりに、ステップS102,S103,S104を繰り返す。Next, in step S104, it is determined whether or not the difference luminance data Yδ is equal to or greater than a predetermined value. If it is equal to or greater than the predetermined value, new arbitrary image luminance data (= restored image luminance data) YI 0 + n is determined in step S105. Process to generate. That is, the difference luminance data Yδ is distributed to the arbitrary image luminance data YI 0 based on the change factor data G to generate restored image luminance data YI 0 + n . Thereafter, steps S102, S103, and S104 are repeated for the restored image luminance data YI 0 + n instead of the arbitrary image luminance data YI 0 in step S102.

ステップS104において、差分輝度データYδが所定値より小さい場合、処理を終了する(ステップS106)。そして、処理を終了した時点での復元画像輝度データYI0+nを正しい輝度データ、すなわち劣化のない基画像データImgの輝度データと推定し、その輝度データを記録部5に記録する。なお、記録部5には、任意画像輝度データYIや変化要因データGを記録しておき、必要により処理部4に渡すようにしても良い。If the difference luminance data Yδ is smaller than the predetermined value in step S104, the process is terminated (step S106). Then, the restored image luminance data YI 0 + n at the time when the processing is completed is estimated as correct luminance data, that is, luminance data of the base image data Img without deterioration, and the luminance data is recorded in the recording unit 5. Note that arbitrary image luminance data YI 0 and change factor data G may be recorded in the recording unit 5 and passed to the processing unit 4 as necessary.

以上の処理方法の考え方をまとめると以下のようになる。すなわち、この処理方法においては、処理の解を逆問題としては解かず、合理的な解を求める最適化問題として解くのである。逆問題として解く場合、特許文献2の記載にもあるように、理論上は可能であるが、現実問題としては困難である。   The concept of the above processing method is summarized as follows. That is, in this processing method, the processing solution is not solved as an inverse problem, but is solved as an optimization problem for obtaining a rational solution. When solving as an inverse problem, it is theoretically possible as described in Patent Document 2, but it is difficult as a real problem.

最適化問題として解くということは、次の条件を前提としている。
すなわち、
(1)入力に対する出力は、一意に決まる。
(2)出力が同じであれば、入力は同じである。
(3)出力が同じになるように、入力を更新しながら反復処理することにより、解を収束させていく。
Solving as an optimization problem assumes the following conditions.
That is,
(1) The output corresponding to the input is uniquely determined.
(2) If the output is the same, the input is the same.
(3) The solution is converged by iteratively processing while updating the input so that the outputs are the same.

このことを換言すれば、図4(A)(B)に示すように、原画像輝度データYImg′と近似である比較画像輝度データYI′(YI0+n′)を生成できれば、その生成の基データとなる任意画像輝度データYIまたは復元画像輝度データYI0+nは、原画像輝度データYImg′の基となる基画像輝度データYImgに近似したものとなる。In other words, as shown in FIGS. 4A and 4B, if comparative image luminance data YI 0 ′ (YI 0 + n ′) that is approximate to the original image luminance data YImg ′ can be generated, The arbitrary image luminance data YI 0 or the restored image luminance data YI 0 + n as data is approximate to the base image luminance data YImg that is the basis of the original image luminance data YImg ′.

なお、この実施の形態では、角速度検出センサは5μsec毎に角速度を検出している。また、差分輝度データYδの判定基準となる値は、各データを8ビット(0〜255)で表わした場合に、この実施の形態では「6」としている。すなわち、6より小さい、つまり5以下の時は、処理を終了している。また、角速度検出センサで検出した手ぶれの生データは、センサ自体の校正が不十分なときは、実際の手ぶれとは対応しない。よって実際の手ぶれに対応させるため、センサが校正されていないときは、センサで検出した生データに所定の倍率をかけたりする補正が必要とされる。   In this embodiment, the angular velocity detection sensor detects the angular velocity every 5 μsec. In addition, in this embodiment, the value serving as a determination criterion for the difference luminance data Yδ is “6” when each data is represented by 8 bits (0 to 255). That is, when it is less than 6, that is, 5 or less, the processing is finished. In addition, raw camera shake data detected by the angular velocity detection sensor does not correspond to actual camera shake when the sensor itself is insufficiently calibrated. Therefore, in order to deal with an actual camera shake, when the sensor is not calibrated, correction is required to multiply the raw data detected by the sensor by a predetermined magnification.

次に、図3および図4に示す処理方法の詳細を、図5,図6,図7,図8,図9,図10,図11および図12に基づいて説明する。   Next, details of the processing method shown in FIGS. 3 and 4 will be described based on FIGS. 5, 6, 7, 8, 9, 10, 11, and 12.

(手ぶれの復元アルゴリズム)
手ぶれが無いとき、所定の画素に対応する光エネルギーは、露光時間中、その画素に集中する。また、撮影時の露光時間中に手ぶれにより画像処理装置1がぶれた場合、光エネルギーは、露光時間中にぶれた画素に分散する。さらに、露光時間中のぶれが判れば、露光時間中の光エネルギーの分散の仕方が判るため、ぶれた画像からぶれの無い画像を作ることが可能となる。
(Image restoration algorithm)
When there is no camera shake, the light energy corresponding to a given pixel is concentrated on that pixel during the exposure time. Further, when the image processing apparatus 1 is shaken due to camera shake during the exposure time at the time of photographing, the light energy is dispersed to the pixels that are shaken during the exposure time. Furthermore, if the blur during the exposure time is known, it is possible to know how to disperse the light energy during the exposure time, so that it is possible to create a blur-free image from the blurred image.

以下、簡単のため、横一次元で説明する。画素を左から順に、・・・,n−1,n,n+1,n+2,n+3,・・・とし、ある画素nに注目する。ぶれが無いとき、露光時間中の光エネルギーは、その画素に集中するため、光エネルギーの集中度は「1.0」である。この状態を図5に示す。このときの各画素についての輝度情報についての光エネルギー量分布を図6の表に示す。この図6に示すものが、手ぶれによる劣化のない基画像データImgについての輝度情報についての基画像輝度データYImgとなる。なお、各データは、8ビット(0〜255)のデータで表わしている。   Hereinafter, for the sake of simplicity, the description will be made in one horizontal dimension. .., N−1, n, n + 1, n + 2, n + 3,..., And attention is paid to a certain pixel n. When there is no blur, the light energy during the exposure time is concentrated on the pixel, so the light energy concentration is “1.0”. This state is shown in FIG. The light energy amount distribution with respect to the luminance information for each pixel at this time is shown in the table of FIG. What is shown in FIG. 6 is the base image luminance data YImg for the luminance information about the base image data Img that is not deteriorated by camera shake. Each data is represented by 8-bit (0 to 255) data.

露光時間中にぶれがあり、露光時間中の50%の時間はn番目の画素に、30%の時間はn+1番目の画素に、20%の時間はn+2番目の画素に、それぞれぶれていたとする。光エネルギーの分散の仕方は、図7に示す表の通りとなる。これが変化要因データGとなる。   It is assumed that there is blurring during the exposure time, 50% of the exposure time is blurred to the nth pixel, 30% of time is shifted to the (n + 1) th pixel, and 20% of time is shifted to the (n + 2) th pixel. . The method of dispersing light energy is as shown in the table of FIG. This becomes the change factor data G.

ぶれは、全ての画素で一様であるので、上ぶれ(縦ぶれ)が無いとすると、ぶれの状況は、図8に示す表の通りとなる。図8中の「理想画像」として示されるデータは、基画像データImgの基画像輝度データYImgで、「ぶれ画像」として示されるデータが、撮影された画像である原画像データImg′の原画像輝度データYImg′となる。具体的には、たとえば「n−3」の画素の「120」は、画像変化の要因であるぶれについての変化要因データGの「0.5」「0.3」「0.2」の配分比に従い、「n−3」の画素に「60」、「n−2」の画素に「36」、「n−1」の画素に「24」というように分散する。同様に、「n−2」の画素のデータである「60」は、「n−2」に「30」、「n−1」に「18」、「n」に「12」として分散する。この原画像輝度データYImg′と、図7に示す変化要因データGからぶれの無い撮影画像を算出することとなる。   Since blurring is uniform for all pixels, assuming that there is no top blur (vertical blur), the blur situation is as shown in the table of FIG. The data shown as “ideal image” in FIG. 8 is the base image luminance data YImg of the base image data Img, and the data shown as “blurred image” is the original image of the original image data Img ′, which is the captured image. It becomes luminance data YImg ′. Specifically, for example, “120” of the pixel “n−3” is an allocation of “0.5”, “0.3”, and “0.2” of the change factor data G for blurring that is a factor of image change. According to the ratio, “60” is distributed to “n-3” pixels, “36” is distributed to “n-2” pixels, and “24” is distributed to “n−1” pixels. Similarly, “60” that is the pixel data of “n−2” is distributed as “30” in “n−2”, “18” in “n−1”, and “12” in “n”. From this original image luminance data YImg ′ and the change factor data G shown in FIG.

ステップS101に示す任意画像輝度データYIとしては、どのようなものでも採用できるが、この説明に当たっては、原画像輝度データYImg′を用いる。すなわち、YI=YImg′として処理を開始する。図9の表中に「入力」とされたものが任意画像輝度データYIに相当する。この任意画像輝度データYI、すなわち原画像輝度データYImg′に、ステップS102で変化要因データGを作用させる。すなわち、たとえば、任意画像データYIの「n−3」の画素の「60」は、n−3の画素に「30」が、「n−2」の画素に「18」が、「n−1」の画素に「12」がそれぞれ割り振られる。他の画素についても同様に配分され、「出力」として示される比較画像輝度データYI′が生成される。その結果、ステップS103の差分輝度データYδは、図9の最下欄に示すようになる。Any arbitrary image luminance data YI 0 shown in step S101 can be used. However, in this description, original image luminance data YImg ′ is used. That is, the process starts with YI 0 = YImg ′. In the table of FIG. 9, “input” corresponds to the arbitrary image luminance data YI 0 . The change factor data G is applied to the arbitrary image luminance data YI 0 , that is, the original image luminance data YImg ′ in step S102. That is, for example, “60” of the “n-3” pixel of the arbitrary image data YI 0 is “30” for the n-3 pixel, “18” for the “n-2” pixel, “12” is allocated to each pixel of “1”. The other pixels are similarly distributed and the comparison image luminance data YI 0 ′ shown as “output” is generated. As a result, the difference luminance data Yδ in step S103 is as shown in the bottom column of FIG.

この後、ステップS104にて差分輝度データYδの大きさを判断する。具体的には、差分輝度データYδが全て絶対値で5未満となった場合に処理を終了するが、図9に示す差分輝度データYδは、この条件に合わないため、ステップS105に進む。すなわち、差分輝度データYδを変化要因データGを使用して、任意画像輝度データYIに配分して、図10中の「次回入力」として示される復元画像輝度データYI0+nを生成する。この場合、第1回目であるため、図10では、n=1として、YI0+1と表している。Thereafter, in step S104, the size of the difference luminance data Yδ is determined. Specifically, the process is terminated when all the difference luminance data Yδ is less than 5 in absolute value, but the difference luminance data Yδ shown in FIG. 9 does not meet this condition, so the process proceeds to step S105. That is, the difference luminance data Yδ is distributed to the arbitrary image luminance data YI 0 using the change factor data G, and the restored image luminance data YI 0 + n shown as “next input” in FIG. 10 is generated. In this case, since this is the first time, in FIG. 10, n = 1 is represented as YI 0 + 1 .

差分輝度データYδの配分は、たとえば「n−3」の画素のデータ「30」に自分の所(=「n−3」の画素)の配分比である0.5をかけた「15」を「n−3」の画素に配分し、また「n−2」の画素のデータ「15」にその「n−2」の画素に来ているはずの配分比である0.3をかけた「4.5」を配分し、さらに、「n−1」の画素のデータ「9.2」に、その「n−1」の画素に来ているはずの配分比である0.2をかけた「1.84」を配分する。「n−3」の画素に配分された総量は、「21.34」となり、この値を任意画像輝度データYI(ここでは撮影画像の輝度データである原画像輝度データYImg′を使用)にプラスして、復元画像輝度データYI0+1を生成している。この復元画像輝度データYI0+1は、図10の表中の「次回入力」に相当するものである。The distribution of the difference luminance data Yδ is, for example, “15” which is obtained by multiplying the data “30” of the pixel “n-3” by 0.5 which is the distribution ratio of its place (= “n-3” pixel). “N-3” pixels are distributed, and “n-2” pixel data “15” is multiplied by 0.3 which is the distribution ratio that should have come to the “n-2” pixel. 4.5 ”is allocated, and the data“ 9.2 ”of the pixel“ n−1 ”is multiplied by 0.2 which is the distribution ratio that should have come to the pixel“ n−1 ”. Allocate “1.84”. The total amount allocated to the “n-3” pixels is “21.34”, and this value is used as the arbitrary image luminance data YI 0 (here, the original image luminance data YImg ′ which is the luminance data of the photographed image is used). In addition, restored image luminance data YI 0 + 1 is generated. The restored image luminance data YI 0 + 1 corresponds to “next input” in the table of FIG.

図11に示すように、この復元画像輝度データYI0+1がステップS102の入力画像のデータ(=任意画像輝度データYI)になり、ステップS102が実行される。図11の表中の「入力」は、復元画像輝度データYI0+1に相当する。そして、ステップS103へと移行し、新しい差分輝度データYδを得る。この新しい差分輝度データYδの大きさをステップS104で判断し、所定値以上の場合、ステップS105で新しい差分輝度データYδを前回の復元画像輝度データYI0+1に配分し、新しい復元画像輝度データYI0+2を生成する。この復元画像輝度データYI0+2は、図12の表中の「次回入力」に相当するものである。その後、ステップS102の遂行により、復元画像輝度データYI0+2から新しい比較用画像輝度データYI0+2′が生成される。このように、ステップS102,S103が実行された後、ステップS104へ行き、そこでの判断によりステップS105へ行ったり、ステップS106へ移行する。このような処理を繰り返す。As shown in FIG. 11, the restored image luminance data YI 0 + 1 becomes the input image data (= arbitrary image luminance data YI 0 ) in step S102, and step S102 is executed. “Input” in the table of FIG. 11 corresponds to the restored image luminance data YI 0 + 1 . Then, the process proceeds to step S103 to obtain new difference luminance data Yδ. The size of the new difference luminance data Yδ is determined in step S104, and if it is greater than or equal to a predetermined value, the new difference luminance data Yδ is distributed to the previous restored image luminance data YI 0 + 1 in step S105, and the new restored image luminance data YI 0 + 2 Is generated. The restored image luminance data YI 0 + 2 corresponds to “next input” in the table of FIG. Thereafter, new comparison image luminance data YI 0 + 2 ′ is generated from the restored image luminance data YI 0 + 2 by performing step S102. As described above, after steps S102 and S103 are executed, the process goes to step S104, and the process proceeds to step S105 or shifts to step S106 depending on the determination there. Such a process is repeated.

この画像処理装置1では、処理するに当たり、ステップS104において、事前に処理回数と、差分輝度データYδの判断基準値のいずれか一方または両者を設定できる。たとえば処理回数として20回、50回等任意の回数を設定できる。また、処理を停止させる差分輝度データYδの値を8ビット(0〜255)中の「5」と設定し、5以下になったら処理を終了させたり、「0.5」と設定し「0.5」以下になったら処理を終了させることができる。この設定値を任意に設定できる。処理回数と判断基準値の両者を入力した場合、いずれか一方が満足されたとき処理は停止される。なお、両者の設定を可能としたとき、判断基準値を優先し、所定の回数の処理では判断基準値内に入らなかった場合、さらに所定回数の処理を繰り返すようにしても良い。   In this image processing apparatus 1, in processing, in step S <b> 104, either one or both of the number of processes and the determination reference value of the difference luminance data Yδ can be set in advance. For example, an arbitrary number such as 20 times or 50 times can be set as the number of times of processing. Further, the value of the difference luminance data Yδ for stopping the processing is set to “5” in 8 bits (0 to 255), and when it becomes 5 or less, the processing is ended, or “0.5” is set to “0”. .5 "or less, the process can be terminated. This set value can be set arbitrarily. When both the number of processing times and the judgment reference value are input, the processing is stopped when either one is satisfied. When both settings are possible, the determination reference value may be given priority, and if the predetermined number of processes does not fall within the determination reference value, the predetermined number of processes may be repeated.

上述した図3に示す処理を、原画像色差データUImg′および原画像色差データVImg′についてもそれぞれ行う。この場合、原画像色差データUImg′について処理を行う場合には、図3に示すステップS101からステップS105の内容は以下のようになる。   The above-described process shown in FIG. 3 is also performed on the original image color difference data UImg ′ and the original image color difference data VImg ′. In this case, when processing is performed on the original image color difference data UImg ′, the contents of steps S101 to S105 shown in FIG. 3 are as follows.

先ず、ステップS101においては、任意画像輝度データYIの変わりに、任意画像色差データUIが用意される。この任意画像色差データUIは、処理部4の記録部に予め保存されているようにしても良いが、ここでは、原画像データImg′の色差データである原画像色差データUImg′を用いる。First, in step S101, arbitrary image color difference data UI 0 is prepared instead of arbitrary image luminance data YI 0 . The arbitrary image color difference data UI 0 may be stored in the recording unit of the processing unit 4 in advance, but here, original image color difference data UImg ′ which is color difference data of the original image data Img ′ is used.

ステップS102では、任意画像色差データUIに、変化要因データGを作用させ、比較画像色差データUI′を求める。そして、ステップS103では、原画像色差データUImg′と比較画像色差データUI′とを比較し、差分色差データUδを算出する。In step S102, the arbitrary image chrominance data UI 0, by the action of the change factor data G, determine the comparative image chrominance data UI 0 '. In step S103, the original image color difference data UImg ′ and the comparison image color difference data UI 0 ′ are compared to calculate difference color difference data Uδ.

ステップS104では、差分色差データUδが所定値以上であるかどうか否かを判断し、所定値以上でれば、ステップS105において、新たな任意画像色差データ(=復元画像色差データ)UI0+1を生成する処理が行われる。その後、復元画像色差データUI0+1をステップS102における任意画像色差データUIとして、ステップ102、ステップ103、ステップ104を繰り返す。In step S104, it is determined whether or not the difference color difference data Uδ is equal to or greater than a predetermined value. If the difference color difference data Uδ is equal to or greater than the predetermined value, new arbitrary image color difference data (= restored image color difference data) UI 0 + 1 is generated in step S105. Processing is performed. Thereafter, the restored image color difference data UI 0 + 1 is set as the arbitrary image color difference data UI 0 in step S102, and step 102, step 103, and step 104 are repeated.

そして、ステップS104において、差分色差データUδが所定値より小さい場合、処理を終了する(S106)。この処理が終了した時点での復元画像色差データUI0+n′を正しい色差データ、すなわち、劣化のない基画像データImgの青色についての色差情報のデータと推定し、この復元画像色差データUI0+n′を記録部5に記録する。If the difference color difference data Uδ is smaller than the predetermined value in step S104, the process is terminated (S106). The restored image color difference data UI 0 + n ′ at the end of this process is estimated as the correct color difference data, that is, the color difference information data for the blue color of the base image data Img without deterioration, and the restored image color difference data UI 0 + n ′ is Record in the recording unit 5.

次に、原画像色差データVImg′について、図3に示すステップS101からステップS105の処理を行う場合について説明する。   Next, the case where the processing from step S101 to step S105 shown in FIG. 3 is performed on the original image color difference data VImg ′ will be described.

先ず、ステップS101においては、任意画像輝度データYIの変わりに、任意画像色差データVIが用意される。この任意画像色差データVIは、処理部4の記録部に予め保存されているようにしても良いが、ここでは、原画像データImg′の色差データである原画像色差データVImg′を用いる。First, in step S101, arbitrary image color difference data VI 0 is prepared instead of arbitrary image luminance data YI 0 . The arbitrary image color difference data VI 0 may be stored in the recording unit of the processing unit 4 in advance, but here, original image color difference data VImg ′ which is color difference data of the original image data Img ′ is used.

ステップS102では、任意画像色差データVIに、変化要因データGを作用させ、比較画像色差データVI′を求める。そして、ステップS103では、原画像色差データVImg′と比較画像データVI′とを比較し、差分色差データVδを算出する。In step S102, change factor data G is applied to the arbitrary image color difference data VI 0 to obtain comparison image color difference data VI 0 ′. In step S103, the original image color difference data VImg ′ is compared with the comparison image data VI 0 ′ to calculate difference color difference data Vδ.

ステップS104では、差分色差データVδが所定値以上であるかどうか否かを判断し、所定値以上でれば、ステップS105において、新たな任意画像色差データ(=復元画像色差データ)VI0+1を生成する処理が行われる。その後、復元画像色差データVI0+1をステップS102における任意画像色差データVIとして、ステップ102、ステップ103、ステップ104を繰り返す。In step S104, it is determined whether or not the difference color difference data Vδ is equal to or greater than a predetermined value. If the difference color difference data Vδ is equal to or greater than the predetermined value, new arbitrary image color difference data (= restored image color difference data) VI 0 + 1 is generated in step S105. Processing is performed. Thereafter, the restored image color difference data VI 0 + 1 is set as the arbitrary image color difference data VI 0 in step S102, and step 102, step 103, and step 104 are repeated.

そして、ステップS104において、差分色差データVδが所定値より小さい場合、処理を終了する(S106)。この処理が終了された時点での復元画像色差データVI0+n′を正しい色差データ、すなわち、劣化のない基画像データImgの赤色についての色差情報のデータと推定し、この復元画像色差データVI0+n′を記録部5に記録する。If the difference color difference data Vδ is smaller than the predetermined value in step S104, the process ends (S106). The restored image color difference data VI 0 + n ′ at the end of this processing is estimated as correct color difference data, that is, color difference information data for red of the base image data Img without deterioration, and this restored image color difference data VI 0 + n ′. Is recorded in the recording unit 5.

なお、図3に示す処理の変形例や、図4から図12を参照しながら説明した原画像輝度データの処理は、そのまま、原画像色差データUImg′および原画像色差データVImg′の処理に適用することができる。   Note that the modified example of the processing shown in FIG. 3 and the processing of the original image luminance data described with reference to FIGS. 4 to 12 are applied to the processing of the original image color difference data UImg ′ and the original image color difference data VImg ′ as they are. can do.

以上のようにして求められ、そして、記録部5に記録されている復元画像輝度データYI0+n′、復元画像色差データUI0+n′および復元画像色差データVI0+n′をRGBの信号に変換し合成することで、ぶれが解消またはほとんど解消された復元画像データI0+n′を生成する。そして、この復元画像データI0+n′を、基画像データImgと推定し、図示外のディスプレー等の表示部に表示したり、あるいは、記録部5に記録する。The restored image luminance data YI 0 + n ', the restored image color difference data UI 0 + n ', and the restored image color difference data VI 0 + n 'obtained as described above and recorded in the recording unit 5 are converted into RGB signals and synthesized. Thus, restored image data I 0 + n ′ in which the blur is eliminated or almost eliminated is generated. The restored image data I 0 + n ′ is estimated as basic image data Img and displayed on a display unit such as a display (not shown) or recorded in the recording unit 5.

ところで、原画像データImg′からYUVの信号(すなわち、原画像輝度データYImg′、原画像色差データUImg′および原画像色差データVImg′)の分離は、例えば、次の式により行う。

YImg′=0.29891×R+0.58661×G+0.11448×B ・・・ (3)
UImg′=−0.16974×R‐0.33126×G+0.50000×B ・・・ (4)
VImg′=0.50000×R−0.41869×G+0.08131×B ・・・ (5)

ここで、R、G、Bは、原画像データImg′のR(赤)、G(緑)、B(青)の色成分についての光エネルギー量(輝度)のデータである。そして、上述した図3の処理により復元された結果の、復元画像輝度データYI0+n′、復元画像色差データUI0+n′および復元画像輝度データVI0+n′を、例えば、次の式により、RGBの信号に変換する。

R=YI0+n′+1.40200×VI0+n′ ・・・ (6)
G=YI0+n′−0.34414×UI0+n′−0.71414×VI0+n′ ・・・ (7)
B=YI0+n′+1.77200×UI0+n′ ・・・ (8)

そして、上記の式により求めたRGBの信号を合成することで、復元画像I0+n′を求める。なお、上記(3)から(8)式は、例示であり、他の変換式を採用してもよい。
By the way, the separation of the YUV signal (that is, the original image luminance data YImg ′, the original image color difference data UImg ′ and the original image color difference data VImg ′) from the original image data Img ′ is performed by the following equation, for example.

YImg '= 0.29891 x R + 0.58661 x G + 0.11448 x B (3)
UImg ′ = − 0.16974 × R−0.33126 × G + 0.50000 × B (4)
VImg ′ = 0.50000 × R−0.41869 × G + 0.08131 × B (5)

Here, R, G, and B are light energy amount (luminance) data for the R (red), G (green), and B (blue) color components of the original image data Img ′. Then, the restored image luminance data YI 0 + n ′, the restored image color difference data UI 0 + n ′, and the restored image luminance data VI 0 + n ′, which are the results restored by the above-described processing of FIG. Convert to

R = YI 0 + n ′ + 1.40200 × VI 0 + n ′ (6)
G = YI 0 + n′− 0.34414 × UI 0 + n′− 0.71414 × VI 0 + n ′ (7)
B = YI 0 + n ′ + 1.77200 × UI 0 + n ′ (8)

Then, the restored image I 0 + n ′ is obtained by synthesizing the RGB signals obtained by the above formula. The above formulas (3) to (8) are examples, and other conversion formulas may be adopted.

ここで、RGB信号から「UImg′」および「VImg′」への変換式である(4)(5)式において、減算の演算を行う項がある。そのため、「UImg′」、「VImg′」が負の値となる場合がある。この場合には、8ビットを0から255と設定した場合には、図3の処理に支障がでる。そこで、8ビットの値の−128から127とすることで、「UImg′」、「VImg′」が負の値となっても対応することができる。また、原画像色差データUImg′、原画像色差データVImg′の復元処理において、繰り返し処理の途中で、「UI0+n′」あるいは「VI0+n′」が、−128から127の範囲を超えた場合については、負側(マイナス側)に越えた分は、−128に、逆に、正側(プラス側)に超えた分は127として処理する。なお、「YI0+n′」についても、255を越える値が復元された場合には、255に制限する処理を行う。このようにすることで、異常な処理がされることやおかしな色に復元されることを防止することができる。Here, in the equations (4) and (5), which are conversion equations from RGB signals to “UImg ′” and “VImg ′”, there is a term for performing a subtraction operation. Therefore, “UImg ′” and “VImg ′” may be negative values. In this case, when the 8 bits are set from 0 to 255, the processing of FIG. 3 is hindered. Therefore, by setting the 8-bit value from −128 to 127, it is possible to cope with negative values of “UImg ′” and “VImg ′”. In the restoration process of the original image color difference data UImg ′ and the original image color difference data VImg ′, “UI 0 + n ′” or “VI 0 + n ′” exceeds the range of −128 to 127 during the repetition process. The amount exceeding the negative side (minus side) is processed as -128, and conversely, the amount exceeding the positive side (plus side) is processed as 127. For “YI 0 + n ′”, when a value exceeding 255 is restored, a process of limiting to 255 is performed. By doing so, it is possible to prevent abnormal processing and restoration to strange colors.

また、(6)(7)(8)式において、「UI0+n′」、「VI0+n′」の値によっては、計算式上、RGBの値が負になってしまうことがあるが、現実的にはRGBの値が負になってしまうことはない。この場合にも、0から255の範囲を超えた部分については、負側(マイナス側)に越えた分は、0に、逆に、正側(プラス側)に超えた分は255に補正した値をRGBの値とし、このRGBとして処理する。あるいは、さらに、補正したRGBの値から、(3)(4)(5)式により、「YImg′」、「UImg′」、「VImg′」を算出し、これらの「YImg′」、「UImg′」、「VImg′」により図3に示す復元処理を行い、再び、(6)(7)(8)の式によりRGBを算出する。そして、RGBの値が正の値になるまで、RGBの値の補正とこの補正されたRGBの値に基づく「YImg′」、「UImg′」、「VImg′」を算出および図3に示す復元処理、そして、RGBの算出という処理を繰り返すようにしてもよい。In the equations (6), (7), and (8), depending on the values of “UI 0 + n ′” and “VI 0 + n ′”, the RGB value may be negative in the calculation formula. In RGB, RGB values never become negative. Also in this case, with respect to the portion exceeding the range from 0 to 255, the portion exceeding the negative side (minus side) is corrected to 0, and conversely, the portion exceeding the positive side (plus side) is corrected to 255. The value is an RGB value, and this RGB is processed. Alternatively, “YImg ′”, “UImg ′”, “VImg ′” are calculated from the corrected RGB values by the equations (3), (4), and (5), and these “YImg ′”, “UImg ′” The restoration process shown in FIG. 3 is performed by “′” and “VImg ′”, and RGB is again calculated by the equations (6), (7), and (8). Then, until the RGB value becomes a positive value, the correction of the RGB value and “YImg ′”, “UImg ′”, “VImg ′” based on the corrected RGB values are calculated and restored as shown in FIG. The process and the process of calculating RGB may be repeated.

ところで、人間の目は、色の変化に対する感度は、明るさの変化に対する感度よりも低い。すなわち、撮影された画像を見た人間の感覚は、輝度の変化に対する感度に比べて、色の変化についての感度は鈍い。したがって、色差についての情報量を低めにしても、人間の視覚には判別できない場合がある。そこで、色差に関するデータである原画像色差データUImg′および原画像色差データVImg′については、圧縮処理を行いデータ量を少なくし、圧縮処理された原画像色差データUImg′および原画像色差データVImg′について上述した復元処理を行うことにより、復元処理の処理速度を速めることができる。また、圧縮処理を行うことによりデータ量が少なくなるので、記録部5あるいは処理部4の記録部の記録容量を減らすことができる。このように圧縮されたデータに基づいて復元処理された結果の復元画像色差データUI0+n′および復元画像輝度データVI0+n′は、復元の精度が低いものとなっている。By the way, the human eye is less sensitive to color changes than it is to brightness changes. In other words, the human sensation of viewing the captured image is less sensitive to color changes than the sensitivity to luminance changes. Therefore, even if the amount of information about color difference is lowered, it may not be discernible to human vision. Therefore, the original image color difference data UImg ′ and the original image color difference data VImg ′, which are data relating to color differences, are subjected to compression processing to reduce the data amount, and the compressed original image color difference data UImg ′ and original image color difference data VImg ′. By performing the restoration process described above for, the processing speed of the restoration process can be increased. Further, since the amount of data is reduced by performing the compression process, the recording capacity of the recording unit 5 or the recording unit of the processing unit 4 can be reduced. The restored image color difference data UI 0 + n ′ and restored image luminance data VI 0 + n ′ obtained as a result of the restoration process based on the compressed data have low restoration accuracy.

しかしながら、人間の目に敏感な明るさに関する原画像輝度データYImg′については、圧縮処理を行うことなく復元処理を行っている。すなわち、復元画像データI0+n′は輝度の成分については、精度高く復元されている。そのため、復元画像データI0+n′に基づいて表示される映像は、人間の目には、良好に復元された画像として認識することができる。However, the original image luminance data YImg ′ relating to brightness sensitive to human eyes is restored without being compressed. That is, the restored image data I 0 + n ′ is restored with high accuracy for the luminance component. Therefore, the video displayed based on the restored image data I 0 + n ′ can be recognized as a well restored image by human eyes.

なお、圧縮の方法としては、原画像データ輝度データYImg′については8ビットで処理するのに対し、原画像色差データUImg′および原画像色差データVImg′については、6ビットで処理するというようにデータのビット数を低くして処理する方法の他、処理画素を間引く(例えば、処理画素を1つ置き、あるいは2つ置きにする)方法がある。処理画素を間引いた場合には、RGBの信号に変換した後、処理された画素を用いて、処理されなかった画素のRGBの信号を補完する。   As the compression method, the original image data luminance data YImg ′ is processed with 8 bits, while the original image color difference data UImg ′ and the original image color difference data VImg ′ are processed with 6 bits. In addition to a method of processing with a reduced number of data bits, there is a method of thinning out processing pixels (for example, every other processing pixel or every other processing pixel). When processing pixels are thinned out, after converting into RGB signals, the processed pixels are used to complement the RGB signals of pixels that have not been processed.

また、スッテプS104において、差分輝度データYδおよび差分色差データUδ,Vδに判断基準値を設定している場合には、原画像色差データUImg′および原画像色差データVImg′の復元処理については、差分色差データUδ,Vδについての判断基準値を差分輝度データYδに対する判断基準値よりも差分のデータが大きいものであっても、復元処理を終了(ステップS106)させるようにすることで、復元処理の処理時間の短縮化を図るようにしてもよい。原画像色差データUImg′および原画像色差データVImg′については、色差に関するデータであるため、原画像輝度データYImg′ほど精度よく復元しなくても、復元画像データI0+n′に基づいて表示される映像は、人間の目には、良好に復元された画像として認識することができる。したがって、例えば、上記の説明では、差分輝度データYδが5未満になった場合に、処理を終了(ステップS106)することとしているが、原画像色差データUImg′および原画像色差データVImg′の復元処理については、差分色差データUδ,Vδが10未満になった場合に処理を終了(ステップS106)することとすることで、原画像色差データUImg′および原画像色差データVImg′の復元処理の短時間化を図っても良い。Further, in step S104, when the determination reference value is set for the difference luminance data Yδ and the difference color difference data Uδ, Vδ, the restoration processing of the original image color difference data UImg ′ and the original image color difference data VImg ′ Even when the difference reference data for the color difference data Uδ and Vδ is larger than the determination reference value for the difference luminance data Yδ, the restoration process is terminated (step S106), so that the restoration process is completed. The processing time may be shortened. Since the original image color difference data UImg ′ and the original image color difference data VImg ′ are data relating to the color difference, they are displayed based on the restored image data I 0 + n ′ without being restored as accurately as the original image luminance data YImg ′. The video can be recognized by the human eye as a well-restored image. Therefore, for example, in the above description, when the difference luminance data Yδ is less than 5, the process is terminated (step S106). However, the original image color difference data UImg ′ and the original image color difference data VImg ′ are restored. As for the processing, when the difference color difference data Uδ, Vδ is less than 10, the processing is ended (step S106), so that the original image color difference data UImg ′ and the original image color difference data VImg ′ are restored. Time may be achieved.

また、ステップS104において、事前に処理回数を設定している場合には、原画像輝度データYImg′については、たとえば処理回数として20回と設定するのに対し、原画像色差データUImg′および原画像色差データVImg′の復元処理については、処理回数として10回と設定してもよい。このようにすることで、原画像色差データUImg′および原画像色差データVImg′の復元処理の短時間化を図ることができ、ひいては、原画像データImg′の復元処理の時間を短縮することができる。なお、2つの原画像色差データUImg′,VImg′についての繰り返し処理回数を異ならせてもよい。   In step S104, when the number of times of processing is set in advance, the original image luminance data YImg ′ is set to, for example, 20 times as the number of times of processing, whereas the original image color difference data UImg ′ and the original image are set. Regarding the restoration process of the color difference data VImg ′, the number of processes may be set to 10 times. By doing so, it is possible to shorten the restoration process of the original image color difference data UImg ′ and the original image color difference data VImg ′, and to shorten the restoration process time of the original image data Img ′. it can. Note that the number of repetitions of the two original image color difference data UImg ′ and VImg ′ may be made different.

以上に説明した実施の形態の説明の中では、要因情報保存部7に保存されている情報を利用しなかったが、ここに保存されている既知の変化要因、たとえば光学収差やレンズのひずみ等のデータを使用するようにしても良い。その場合、たとえば、先の例(図3)の処理方法では、ぶれの情報と光学収差の情報を合わせて1つの変化要因として捉えて処理を行うのが好ましいが、ぶれの情報での処理を終了した後に光学収差の情報での補正を行うようにしても良い。また、この要因情報保存部7を設置しないようにして、撮影時の動的要因、たとえばぶれのみで画像を修正したり復元したりしても良い。   In the description of the embodiment described above, the information stored in the factor information storage unit 7 is not used, but the known change factors stored here, such as optical aberrations and lens distortions, etc. The data may be used. In this case, for example, in the processing method of the previous example (FIG. 3), it is preferable to perform processing by combining blur information and optical aberration information as one change factor. You may make it correct | amend with the information of an optical aberration after it complete | finishes. Further, the factor information storage unit 7 may not be installed, and the image may be corrected or restored only by dynamic factors at the time of shooting, for example, shake.

以上、本発明の実施の形態に係る画像処理装置1について説明したが、本発明の要旨を逸脱しない限り種々変更実施可能である。たとえば、処理部4で行った処理は、ソフトウエアで構成しているが、それぞれ、一部の処理を分担して行うようにした部品からなるハードウェアで構成しても良い。   The image processing apparatus 1 according to the embodiment of the present invention has been described above, but various modifications can be made without departing from the gist of the present invention. For example, the processing performed by the processing unit 4 is configured by software, but may be configured by hardware composed of parts that perform part of the processing.

また、処理対象となる原画像としては撮影画像の他に、その撮影画像を色補正したり、フーリエ変換したり等、加工を施したものとしても良い。さらに、比較用画像データとしては、変化要因データGを使用して生成したデータ以外に、変化要因データGを使用して生成したものに色補正を加えたり、フーリエ変換したりしたデータとしても良い。また、変化要因データとしては、手ぶれによる画像の劣化の要因のデータ(情報)の他に、単に画像を変化させる情報や、劣化とは逆に、画像を良くする情報を含であってもよい。   In addition to the photographed image, the original image to be processed may be a photographed image subjected to processing such as color correction or Fourier transform. Further, as the comparison image data, in addition to the data generated using the change factor data G, data generated using the change factor data G may be data obtained by performing color correction or Fourier transform. . Further, the change factor data may include, in addition to data (information) that causes image degradation due to camera shake, information that simply changes the image, and information that improves the image contrary to degradation. .

また、上述した各処理方法は、プログラム化されても良い。また、プログラム化されたものが記憶媒体、たとえばCD、DVD、USBメモリに入れられ、コンピュータによって読み通り可能とされても良い。この場合、画像処理装置1は、その記憶媒体内のプログラムを読み込む読み込み手段を持つこととなる。さらには、そのプログラム化されたものが画像処理装置1の外部のサーバに入れられ、必要によりダウンロードされ、使用されるようにしても良い。この場合、画像処理装置1は、その記憶媒体内のプログラムをダウンロードする通信手段を持つこととなる。   Moreover, each processing method mentioned above may be programmed. Alternatively, the program may be stored in a storage medium, such as a CD, DVD, or USB memory, and read by a computer. In this case, the image processing apparatus 1 has reading means for reading a program in the storage medium. Further, the program may be stored in an external server of the image processing apparatus 1, downloaded as necessary, and used. In this case, the image processing apparatus 1 has communication means for downloading a program in the storage medium.

Claims (7)

カラー画像を処理する処理部を有する画像処理装置において、
上記処理部は、
処理対象となる原画像のデータである原画像データから、原画像輝度データと原画像色差データを分離し、
上記原画像輝度データと上記原画像色差データとをそれぞれを処理対象のデータとし、
上記原画像輝度データについては、
画像変化の要因のデータである変化要因データを利用して、任意の画像輝度データである任意画像輝度データから、この任意画像輝度データを変化させた比較用の比較画像輝度データを生成し、
上記原画像輝度データと上記比較画像輝度データとを比較した差分のデータである差分輝度データを求め、
上記差分輝度データを上記変化要因データに基づいて上記任意画像輝度データに配分した復元画像輝度データを生成し、
上記復元画像輝度データを上記任意画像輝度データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、
上記原画像が変化する前の画像である基画像の基画像輝度データまたはそれに近似する復元された復元画像輝度データを生成する処理を行い、
上記原画像色差データについては、
上記変化要因データを利用して、任意の画像色差データである任意画像色差データから、この任意画像色差データを変化させた比較用の比較画像色差データを生成し、
上記原画像色差データと上記比較画像色差データとを比較した差分のデータである差分色差データを求め、
上記差分色差データを上記変化要因データに基づいて上記任意画像色差データに配分した復元画像色差データを生成し、
上記復元画像色差データを上記任意画像色差データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、
上記原画像が変化する前の画像である基画像の基画像色差データまたはそれに近似する復元された復元画像色差データを生成する処理を行う、
ことを特徴とする画像処理装置。
In an image processing apparatus having a processing unit for processing a color image,
The processing unit
The original image luminance data and the original image color difference data are separated from the original image data, which is the original image data to be processed,
Each of the original image luminance data and the original image color difference data is processed data,
For the original image luminance data,
Using the change factor data which is the data of the factor of image change, from the arbitrary image luminance data which is arbitrary image luminance data, generate comparative image luminance data for comparison in which the arbitrary image luminance data is changed,
Obtaining difference luminance data which is difference data comparing the original image luminance data and the comparative image luminance data;
Generating restored image luminance data in which the difference luminance data is distributed to the arbitrary image luminance data based on the change factor data;
By using the restored image luminance data instead of the arbitrary image luminance data and repeating the same process,
A process of generating base image luminance data of a base image that is an image before the original image is changed or restored restored image luminance data approximated thereto,
For the original image color difference data,
Using the change factor data, from the arbitrary image color difference data which is arbitrary image color difference data, to generate comparative image color difference data for comparison, which is a change of the arbitrary image color difference data,
Obtaining difference color difference data which is difference data comparing the original image color difference data and the comparison image color difference data;
Generating restored image color difference data in which the difference color difference data is distributed to the arbitrary image color difference data based on the change factor data;
By using the restored image color difference data instead of the arbitrary image color difference data, and repeating the same process,
A process of generating base image color difference data of a base image that is an image before the original image is changed or restored restored image color difference data approximated thereto,
An image processing apparatus.
前記復元画像輝度データと前記復元画像色差データとを合成し、前記基画像の基画像データまたはそれに近似する復元された復元画像データを生成する処理を行うことを特徴とする請求項1に記載の画像処理装置。   2. The process according to claim 1, wherein the restored image luminance data and the restored image color difference data are combined to generate base image data of the base image or restored restored image data that approximates the base image data. Image processing device. 前記原画像色差データを2つとし、それぞれについての前記繰り返し処理を行うことを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the original image color difference data is set to two, and the repetition processing is performed for each. 前記原画像色差データについては、圧縮処理を行い、圧縮された圧縮画像色差データについて前記繰り返し処理を行い前記復元画像色差データを生成することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。   4. The original image color difference data is subjected to compression processing, and the repetitive processing is performed on compressed compressed image color difference data to generate the restored image color difference data. The image processing apparatus described. 前記原画像色差データの圧縮は、前記原画像色差データのデータを間引く間引き処理であることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the compression of the original image color difference data is a thinning process for thinning out the data of the original image color difference data. 前記画像色差データの圧縮は、前記復元画像色差データを生成する処理を、前記復元画像輝度データを生成する処理を行うビット数よりも少ないビット数で処理することを特徴とする請求項4に記載の画像処理装置。   5. The compression of the image color difference data is performed by processing the generation of the restored image color difference data with a bit number smaller than the number of bits for performing the process of generating the restored image luminance data. Image processing apparatus. カラー画像を処理する画像処理方法において、
処理対象となる原画像のデータである原画像データから、原画像輝度データと原画像色差データを分離するステップと、
上記原画像輝度データと上記原画像色差データとをそれぞれを処理対象のデータとし、
上記原画像輝度データについては、
画像変化の要因のデータである変化要因データを利用して、任意の画像輝度データである任意画像輝度データから、この任意画像輝度データを変化させた比較用の比較画像輝度データを生成するステップと、
上記原画像輝度データと上記比較画像輝度データとを比較した差分のデータである差分輝度データを求めるステップと、
上記差分輝度データを上記変化要因データに基づいて上記任意画像輝度データに配分した復元画像輝度データを生成するステップと、
を有し、
上記復元画像輝度データを上記任意画像輝度データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、
上記原画像が変化する前の画像である基画像の基画像輝度データまたはそれに近似する復元された復元画像輝度データを生成する処理を行い、
上記画像色差画像データについては、
上記変化要因データを利用して、任意の画像色差データである任意画像色差データから、この任意画像色差データを変化させた比較用の比較画像色差データを生成するステップと、
上記原画像色差データと上記比較画像色差データとを比較した差分のデータである差分色差データを求めるステップと、
上記差分色差データを上記変化要因データに基づいて上記任意画像色差データに配分した復元画像色差データを生成するステップと、
を有し、
上記復元画像色差データを上記任意画像色差データの代わりに使用し、同様の処理を繰り返す繰り返し処理を行うことで、
上記原画像が変化する前の画像である基画像の基画像色差データまたはそれに近似する復元された復元画像色差データを生成する処理を行う、
ことを特徴とする画像処理方法。
In an image processing method for processing a color image,
Separating the original image luminance data and the original image color difference data from the original image data that is the original image data to be processed;
Each of the original image luminance data and the original image color difference data is processed data,
For the original image luminance data,
Generating comparison image luminance data for comparison in which the arbitrary image luminance data is changed from arbitrary image luminance data, which is arbitrary image luminance data, by using the change factor data, which is image change factor data; ,
Obtaining difference luminance data which is difference data comparing the original image luminance data and the comparative image luminance data;
Generating restored image luminance data in which the difference luminance data is distributed to the arbitrary image luminance data based on the change factor data;
Have
By using the restored image luminance data instead of the arbitrary image luminance data and repeating the same process,
A process of generating base image luminance data of a base image that is an image before the original image is changed or restored restored image luminance data approximated thereto,
For the image color difference image data,
Using the change factor data to generate comparison image color difference data for comparison in which the arbitrary image color difference data is changed from arbitrary image color difference data which is arbitrary image color difference data;
Obtaining difference color difference data, which is difference data obtained by comparing the original image color difference data and the comparison image color difference data;
Generating restored image color difference data in which the difference color difference data is distributed to the arbitrary image color difference data based on the change factor data;
Have
By using the restored image color difference data instead of the arbitrary image color difference data, and repeating the same process,
A process of generating base image color difference data of a base image that is an image before the original image is changed or restored restored image color difference data approximated thereto,
An image processing method.
JP2008555057A 2007-01-23 2008-01-22 Image processing apparatus and image processing method Pending JPWO2008090858A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007012339 2007-01-23
JP2007012339 2007-01-23
PCT/JP2008/050748 WO2008090858A1 (en) 2007-01-23 2008-01-22 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JPWO2008090858A1 true JPWO2008090858A1 (en) 2010-05-20

Family

ID=39644434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008555057A Pending JPWO2008090858A1 (en) 2007-01-23 2008-01-22 Image processing apparatus and image processing method

Country Status (3)

Country Link
JP (1) JPWO2008090858A1 (en)
CN (1) CN101632309A (en)
WO (1) WO2008090858A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150682A (en) * 1997-11-14 1999-06-02 Canon Inc Image processor, image processing method and storage medium
JP2006229392A (en) * 2005-02-16 2006-08-31 Olympus Imaging Corp Imaging apparatus and image data display method
JP2006331316A (en) * 2005-05-30 2006-12-07 Sanyo Electric Co Ltd Filter processing circuit
WO2006137308A1 (en) * 2005-06-21 2006-12-28 Nittoh Kogaku K.K Signal processing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150682A (en) * 1997-11-14 1999-06-02 Canon Inc Image processor, image processing method and storage medium
JP2006229392A (en) * 2005-02-16 2006-08-31 Olympus Imaging Corp Imaging apparatus and image data display method
JP2006331316A (en) * 2005-05-30 2006-12-07 Sanyo Electric Co Ltd Filter processing circuit
WO2006137308A1 (en) * 2005-06-21 2006-12-28 Nittoh Kogaku K.K Signal processing apparatus

Also Published As

Publication number Publication date
WO2008090858A1 (en) 2008-07-31
CN101632309A (en) 2010-01-20

Similar Documents

Publication Publication Date Title
US20080013850A1 (en) Image processing apparatus and image restoration method and program
KR101109532B1 (en) Image capturing device, image capturing method, and a storage medium recording thereon a image capturing program
US20120050583A1 (en) Image processing method, image processing apparatus and image processing program
WO2007074687A1 (en) Image processing device
JP5479187B2 (en) Image processing apparatus and imaging apparatus using the same
JP3895357B2 (en) Signal processing device
US20080012964A1 (en) Image processing apparatus, image restoration method and program
WO2015147339A1 (en) Image processing apparatus, method for controlling image processing apparatus, image pickup apparatus, method for controlling image pickup apparatus, and recording medium
JP4885150B2 (en) Image processing device
JP2012003454A (en) Image processing apparatus, imaging device and image processing program
WO2011132279A1 (en) Image processing device, method, and recording medium
JP5213604B2 (en) Imaging device
JP4602860B2 (en) Image processing device
JP4598623B2 (en) Image processing device
JP4975644B2 (en) Image processing device
JP4606976B2 (en) Image processing device
JPWO2008090858A1 (en) Image processing apparatus and image processing method
JP4629537B2 (en) Image processing device
JP4763419B2 (en) Image processing device
JP5007234B2 (en) Image processing device
JP4869971B2 (en) Image processing apparatus and image processing method
WO2007032148A1 (en) Image processor
JP4629622B2 (en) Image processing device
JP5057665B2 (en) Image processing device
JP2007116332A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130226