JP4415650B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP4415650B2
JP4415650B2 JP2003385622A JP2003385622A JP4415650B2 JP 4415650 B2 JP4415650 B2 JP 4415650B2 JP 2003385622 A JP2003385622 A JP 2003385622A JP 2003385622 A JP2003385622 A JP 2003385622A JP 4415650 B2 JP4415650 B2 JP 4415650B2
Authority
JP
Japan
Prior art keywords
color
information
image data
image
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003385622A
Other languages
Japanese (ja)
Other versions
JP2005151163A (en
JP2005151163A5 (en
Inventor
保 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003385622A priority Critical patent/JP4415650B2/en
Publication of JP2005151163A publication Critical patent/JP2005151163A/en
Publication of JP2005151163A5 publication Critical patent/JP2005151163A5/ja
Application granted granted Critical
Publication of JP4415650B2 publication Critical patent/JP4415650B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

本発明は、画像処理方法及び画像処理装置に関し、特に、原画像データと該原画像データの撮影時に生成される撮影情報とを含む画像ファイルに補正処理を施して出力する画像処理方法及び画像処理装置に関する。   The present invention relates to an image processing method and an image processing apparatus, and in particular, an image processing method and an image processing for performing correction processing on an image file including original image data and shooting information generated at the time of shooting the original image data. Relates to the device.

近年、ディジタルスチルカメラ(以下、電子カメラと称する)が広く普及している。電子カメラは、電荷結合素子(以下、CCD)などの光に反応する半導体素子を用いて、撮影した画像を電気信号に変換し、ディジタルデータ(以下、電子データ)として磁気記憶媒体や半導体メモリに記憶する。
電子カメラは、通常、液晶ディスプレイを搭載しているため、利用者は撮影した画像をその場で確認したり、意図に適さない電子データを削除することができる。また、電子カメラで撮影した原画像データは、汎用のパーソナルコンピュータのモニタや、プリンタなどの画像出力装置を用いて種々の補正処理を施して、出力することができるため、その利用範囲は拡大しつつある。
In recent years, digital still cameras (hereinafter referred to as electronic cameras) have become widespread. An electronic camera uses a semiconductor element that reacts to light, such as a charge-coupled device (hereinafter referred to as CCD), and converts the captured image into an electrical signal, which is converted into digital data (hereinafter referred to as electronic data) to a magnetic storage medium or semiconductor memory Remember.
Since an electronic camera is usually equipped with a liquid crystal display, a user can check a captured image on the spot or delete electronic data that is not suitable for the purpose. In addition, the original image data captured by an electronic camera can be output after being subjected to various correction processes using a general-purpose personal computer monitor or an image output device such as a printer. It's getting on.

このような利用範囲の拡大と共に、電子カメラへの高画質化の要望が高まりつつある。高画質化を進めるにあたり、利用者が満足する画質を維持するためには、画素数と感度を向上させることが必須となる。これを表1と図15を用いて説明する。   Along with such expansion of the range of use, there is a growing demand for higher image quality for electronic cameras. As the image quality is improved, it is essential to improve the number of pixels and the sensitivity in order to maintain the image quality satisfied by the user. This will be described with reference to Table 1 and FIG.

表1は、感度と画素数と利用者の満足する割合を示している。列にISO感度を、行に画素数を配し、欄内の右側が画像の品質に満足する人の割合、左側が満足しない人の割合を示している。
表の列を上に眺めると、画素数が向上するにつれて、画像に満足する利用者の割合が増加することが分かる。つまり、利用者の要望を満たすべく高画質化するために、画素数を向上させる必要があることを端的に示している。
しかし、原画像データに記録されるノイズが多く含まれることとなる。
Table 1 shows the sensitivity, the number of pixels, and the user satisfaction rate. The ISO sensitivity is arranged in the column, the number of pixels is arranged in the row, the right side in the column shows the percentage of people who are satisfied with the image quality, and the left side shows the percentage of people who are not satisfied.
Looking up at the top of the table, it can be seen that as the number of pixels increases, the proportion of users satisfied with the image increases. That is, it simply indicates that the number of pixels needs to be improved in order to achieve high image quality to satisfy the user's request.
However, a lot of noise recorded in the original image data is included.

図15は、感度と知覚されるノイズ量の相関関係を示す図である。
画素数を向上させると、原画像データに記録されるノイズが多く含まれることとなり、本図はこの傾向を示している。なお、本図において、縦軸はノイズの量を、横軸は原画像データの信号値をとり、線種が感度を表している。
本図を見ると、感度を上昇させることにより、知覚されるノイズ量が次第に増えることが明かである(非特許文献1参照)。
FIG. 15 is a diagram illustrating a correlation between sensitivity and perceived noise amount.
When the number of pixels is increased, more noise is recorded in the original image data, and this figure shows this tendency. In this figure, the vertical axis represents the amount of noise, the horizontal axis represents the signal value of the original image data, and the line type represents the sensitivity.
From this figure, it is clear that the amount of perceived noise gradually increases by increasing the sensitivity (see Non-Patent Document 1).

上記問題を解決する従来技術として、例えば、レリーズタイムラグを短縮させながら、撮像信号中のノイズの軽減を図る撮像装置に関する発明がある(特許文献1参照)。
また、従来よりも短時間で固定パターンノイズを除去することができるディジタルカメラに関する発明がある(特許文献2参照)。
いずれの技術も、CCDの出力特性のバラツキや暗電流ムラなどによって発生する固定パターンノイズを除去する概念であり、具体的には撮像素子を露光しないで駆動することによって固定パターンノイズを検出してそのデータをメモリに記憶し、さらに実際に被写体を撮影してそのときに得られる撮像素子の出力信号から当該メモリに記録したデータを減算することで、固定パターンノイズを除去するものである。
特開2003−116064号公報 特開2003−51991号公報 The Number of Effective Pixels for Digital Still Cameras and its Picture Quality., Miyasaka et. al., pp.147-150, IS&T's 2003 PICS Conference 太田 友一, 領域分割によるカラー画像情報の構造化, 情報処理, 情報処理, Vol.19, No.12, pp.1130-1136 Picture Segmentation Using A Recursive Segmentation Splitting Method, Comp. Graph. and Image Proc., RON Ohlander et. al., pp.313-333 Principals of COLOR TECHNOLOGY, ROY S BERNS, pp.191-197 (2001)
As a conventional technique for solving the above problem, for example, there is an invention related to an imaging apparatus that reduces noise in an imaging signal while reducing a release time lag (see Patent Document 1).
In addition, there is an invention related to a digital camera that can remove fixed pattern noise in a shorter time than conventional (see Patent Document 2).
Each technique is a concept that eliminates fixed pattern noise that occurs due to variations in CCD output characteristics and uneven dark current. Specifically, it detects fixed pattern noise by driving the image sensor without exposure. The data is stored in the memory, and the fixed pattern noise is removed by subtracting the data recorded in the memory from the output signal of the image sensor obtained by actually photographing the subject.
JP 2003-1116064 A JP 2003-51991 A The Number of Effective Pixels for Digital Still Cameras and its Picture Quality., Miyasaka et.al., pp.147-150, IS &T's 2003 PICS Conference Yuichi Ota, Structuring Color Image Information by Region Division, Information Processing, Information Processing, Vol.19, No.12, pp.1130-1136 Picture Segmentation Using A Recursive Segmentation Splitting Method, Comp.Graph. And Image Proc., RON Ohlander et.al., pp.313-333 Principals of COLOR TECHNOLOGY, ROY S BERNS, pp.191-197 (2001)

しかしながら、上記従来技術を、高彩度のグラデーション部分にノイズが目立つ、いわゆる、ざらついた感じがする画像データに適用すると、画像の全領域に対してノイズ除去を施すために、鮮鋭性と階調性に乏しい画像が得られる場合がある。例えば、図2−(b)の(A)領域なる空の領域にノイズが知覚される場合を想定する。
上記技術では、図2の(A)領域及び(B)領域に対してノイズ除去を施すため、(A)の領域のノイズは除去されるが、(B)領域の鮮鋭性や階調性が失われるという問題を内包していた。特に、原画像データに人間の好みに深く関わる色範囲を記憶色と称する色範囲における階調性、及び鮮鋭性の消失は画像品質の低下が顕著であった。
However, when the above-mentioned conventional technique is applied to image data that has a so-called rough feeling in which noise is conspicuous in a high-saturation gradation part, in order to perform noise removal on the entire area of the image, sharpness and gradation are improved. A poor image may be obtained. For example, it is assumed that noise is perceived in an empty area (A) in FIG.
In the above technique, noise is removed from the area (A) and the area (B) in FIG. 2, so that the noise in the area (A) is removed, but the sharpness and gradation of the area (B) are reduced. It had a problem of being lost. In particular, the loss of gradation and sharpness in a color range in which a color range deeply related to human preference in original image data is referred to as a memory color is markedly a reduction in image quality.

そこで、記憶色範囲では階調性、鮮鋭性を保持しつつノイズを低減することが望まれていた。このためには、図2−(b)において、領域(A)のみのノイズを低減することで可能であるが、この解決策は従来のノイズ除去処理では困難であった。
ましてや、一般的に、記憶色を含む原画像データに対しては、記憶色を重視した画像処理として、本来の撮像した原画像データの電子データよりも、非常に明るく鮮やかな色合いに調整した補正処理を施すため、記憶色領域のノイズが更に知覚されることになる。
よって、ノイズ量を低減しつつ、記憶色範囲における階調性、鮮鋭性を保持する技術が望まれていた。
Therefore, it has been desired to reduce noise while maintaining gradation and sharpness in the memory color range. For this purpose, it is possible to reduce the noise only in the region (A) in FIG. 2B, but this solution is difficult with the conventional noise removal processing.
In general, for original image data that includes memory colors, as image processing that emphasizes memory colors, correction that is adjusted to a much brighter and more vivid hue than the electronic data of the original captured original image data Since processing is performed, noise in the memory color area is further perceived.
Therefore, a technique for maintaining gradation and sharpness in the memory color range while reducing the amount of noise has been desired.

(発明に至る経緯)
ここで、原画像データの撮影情報に応じた平滑化処理について説明する。
図16は、電子カメラの要部を示すフローチャートである。
電子カメラは、CCDから出力された撮像した光信号をA/D変換器によってデジタル信号に変換する(ステップS1)。デジタル信号に変換された撮像信号は、色分離部により、R、G、Bの各色成分データに分離され、信号補間部によって補間された後、R、G、Bの色成分毎にゲイン調整部に送られる(ステップS2)。
ゲイン調整部にてゲイン調整を行った後(ステップS3)、画像データは平滑化処理が施される(ステップS4)。ここで、平滑化処理が施された画像信号は、所定の変換処理(例えば、YCbCr変換など)を施された後、各処理部へ格納、或いは送信される(ステップS5)。すなわち、フラッシュメモリ等の記録媒体へ画像データを記録するための記憶部に格納、液晶表示装置等への画像表示を行う表示部等へ送信される。
(Background to Invention)
Here, the smoothing process according to the photographing information of the original image data will be described.
FIG. 16 is a flowchart showing a main part of the electronic camera.
The electronic camera converts the captured optical signal output from the CCD into a digital signal by an A / D converter (step S1). The imaging signal converted into the digital signal is separated into R, G, and B color component data by the color separation unit, interpolated by the signal interpolation unit, and then gain adjustment unit for each of the R, G, and B color components. (Step S2).
After gain adjustment by the gain adjustment unit (step S3), the image data is subjected to smoothing processing (step S4). Here, the smoothed image signal is subjected to predetermined conversion processing (for example, YCbCr conversion) and then stored or transmitted to each processing unit (step S5). That is, the image data is stored in a storage unit for recording image data on a recording medium such as a flash memory, and transmitted to a display unit for displaying an image on a liquid crystal display device or the like.

ここで、前記ゲイン調整処理及び平滑化処理の機構と本発明の経緯について説明する。
ゲイン調整部は、デジタル信号用の増幅処理であるR用ゲイン調整部、G用ゲイン調整部、及びB用ゲイン調整部を備えており、各波長に対して異なる増幅処理を施すことが可能である。例えば、3つのゲイン調整部が図17に示すように、それぞれが短波長から、Blueフィルタ、Greenフィルタ、Redフィルタと配されている場合、これらの3つのフィルタが別々の増幅処理を施すことが可能である。
図17は、画像信号3原色に対する相対感度を示す特性図である。
例えば、Blueフィルタを、本図の矢印に示すように増幅し、それ以外のGreen、及びRedフィルタは固定し、原画像データのB成分のみが増感された原画像データが生成することとなる。
これを図2に示すシーンを撮影する場合と対応させると、画像全体のカラーバランスを合わせるためにRedフィルタを増感させることに相当する。従って、R成分には、多数のノイズが含まれると考えられる。
Here, the mechanism of the gain adjustment process and the smoothing process and the background of the present invention will be described.
The gain adjustment unit includes an R gain adjustment unit, a G gain adjustment unit, and a B gain adjustment unit, which are amplification processes for digital signals, and can perform different amplification processes on each wavelength. is there. For example, as shown in FIG. 17, when the three gain adjustment units are arranged with a blue filter, a green filter, and a red filter, each from a short wavelength, these three filters may perform different amplification processes. Is possible.
FIG. 17 is a characteristic diagram showing the relative sensitivity with respect to the three primary colors of the image signal.
For example, the Blue filter is amplified as indicated by the arrow in the figure, the other Green and Red filters are fixed, and original image data in which only the B component of the original image data is sensitized is generated. .
If this is corresponded to the case where the scene shown in FIG. 2 is imaged, it corresponds to sensitizing the Red filter in order to match the color balance of the entire image. Therefore, it is considered that the R component includes a large number of noises.

一方、画像を撮影する場合には、その撮影状況に応じて光源情報が設定され、撮影情報として画像ファイルに記録される。例えば、青みを帯びた画像が撮影された場合には、それに対応するC光源(6,500[K])等が記録される。従って、光源情報を参照すれば、増感された信号成分を類推することができるので、増感された画像データに対しては強い平滑化処理を、また、増感されていない画像データに対しては通常の平滑化処理を施すことが可能である。
そこで、発明者が鋭意研究する中で、光源情報、感度情報等の撮像情報に応じて平滑化処理を施すことが有効であると考案し、本発明に至ったものである。
On the other hand, when shooting an image, light source information is set according to the shooting situation and recorded in the image file as shooting information. For example, when a bluish image is taken, a C light source (6,500 [K]) corresponding to the image is recorded. Therefore, since the sensitized signal component can be inferred by referring to the light source information, strong smoothing processing is applied to the sensitized image data, and to the unsensitized image data. Ordinary smoothing can be performed.
Thus, while the inventor has intensively studied, it has been devised that smoothing processing is effective in accordance with imaging information such as light source information and sensitivity information, and the present invention has been achieved.

本発明は上記事情を鑑みて、更に、今後の電子カメラの高画質化を鑑みてなされたものであり、原画像データと該原画像データの撮影時に生成される撮影情報とを含む画像ファイルに補正処理を施して出力する画像処理方法及び画像処理装置を提供することを目的とする。   In view of the above circumstances, the present invention has been made in view of the future improvement in image quality of electronic cameras, and an image file including original image data and shooting information generated at the time of shooting the original image data. It is an object of the present invention to provide an image processing method and an image processing apparatus that perform correction processing and output.

前記課題を解決するために、請求項1記載の発明は、原画像データと、該原画像データの撮影情報と、から構成される画像ファイルに基づいて出力用画像データを生成する画像処理方法であって、原画像データを分割する原画像データ分割工程と、前記分割した各領域に対して原画像データの色情報(3刺激値)の統計量及び物理量の少なくとも1つを算出する統計量算出工程と、を含み、原画像データの画像特徴量を算出する画像特徴量算出工程と、前記撮影情報に含まれる感度情報と前記算出された画像特徴量とに基づいてノイズ除去フィルタのしきい値を演算するしきい値演算工程と、前記原画像データの統計量又は物理量に基づいて平滑化の優先順位を決定する優先順位決定工程と、前記分割した各領域に対して前記撮影情報に含まれる光源情報と予め記憶した記憶色に関する色情報とから識別子を付与する識別子付与工程と、前記優先順位決定工程及び前記識別子付与工程の結果より重視する分割領域を推定する重視領域推定工程と、を含み、前記演算されたしきい値に基づいて平滑化を施す平滑化工程と、を有することを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 is an image processing method for generating output image data based on an image file composed of original image data and photographing information of the original image data. An original image data dividing step for dividing the original image data, and a statistic calculation for calculating at least one of color information (tristimulus value) statistics and physical quantities of the original image data for each of the divided areas. An image feature amount calculation step for calculating an image feature amount of the original image data, and a threshold value of the noise removal filter based on the sensitivity information included in the shooting information and the calculated image feature amount a threshold calculating step of calculating a included in the a priority determination step of determining the priority of smoothing based on statistics or the physical quantity of the original image data, the shooting information for each region obtained by the division An identifier assigning step for assigning an identifier from the light source information and the color information relating to the memory color stored in advance, and an important region estimation step for estimating a divided region to be emphasized based on the results of the priority determination step and the identifier assigning step. wherein characterized in that it has a smoothing step of performing smoothing on the basis of the calculated threshold.

請求項記載の発明は、請求項に記載の画像処理方法において、前記識別子付与工程は、前記記憶色に関する色情報を、撮影情報の光源情報における色情報(3刺激値)に変換する色情報変換工程と、前記記憶色と前記分割工程により分割した各領域における色情報の相対距離を算出する相対距離算出工程と、前記相対距離が最小となる識別子を前記分割工程により分割した各領域の識別子と決定する識別子決定工程と、を有することを特徴とする。 According to a second aspect of the invention, in the image processing method according to claim 1, wherein the identifier assigning step converts the color information on the memory color, the color information of the light source information of the photographing information (tristimulus values) Color An information conversion step, a relative distance calculation step for calculating a relative distance of color information in each region divided by the memory color and the division step, and an identifier for which the relative distance is minimum And an identifier determining step for determining the identifier .

本発明によれば、原画像データと撮影情報より構成される画像ファイルから出力用画像データを生成する画像生成工程と、前記画像生成工程にて、前記撮影情報の光源情報及び感度情報に基づいた平滑化処理を施す平滑化工程とを有することにより、ノイズを軽減しつつ、高感度な画像ファイルを生成することが可能となる。   According to the present invention, an image generation step for generating output image data from an image file composed of original image data and shooting information, and based on the light source information and sensitivity information of the shooting information in the image generation step. By having the smoothing step for performing the smoothing process, it is possible to generate a highly sensitive image file while reducing noise.

画像処理システムのネットワーク構成は、電子カメラと、パーソナルコンピュータ等の情報処理装置とを、相互にデータ通信が可能なデータ通信手段(例えば、USBインターフェース等)によって接続し、更に、情報処理装置とカラープリンタ(インクジェット方式、或いは電子写真方式)とを、相互にデータ通信が可能なデータ通信手段(例えば、プリンタ専用シリアル回線、LAN回線等)によって接続されている構成が一般的である。なぜなら、パーソナルコンピュータは、その処理性能により、高度な画像処理を行うことができるからであり、また、それを実現するために、画像処理ソフトウェアが導入されている。
本発明に係る画像処理方法も、上記のようなネットワーク構成に応用するのが最も好ましい。しかしながら、最近では、電子カメラとカラープリンタとを、無線LANや赤外線通信、或いは専用接続回線により、相互に接続することが可能であり、電子カメラから画像の印刷指示を行うことにより、カラープリンタにて画像を印刷することも可能である。
以下に、添付図面を参照しながら、本発明に係る画像処理方法の、種々の実施形態について説明する。
The network configuration of the image processing system is such that an electronic camera and an information processing device such as a personal computer are connected by data communication means (for example, a USB interface) capable of mutual data communication. A configuration in which a printer (inkjet system or electrophotographic system) is connected by data communication means (for example, a printer dedicated serial line, a LAN line, etc.) capable of mutual data communication is common. This is because a personal computer can perform advanced image processing due to its processing performance, and image processing software has been introduced to realize this.
The image processing method according to the present invention is most preferably applied to the network configuration as described above. However, recently, an electronic camera and a color printer can be connected to each other by a wireless LAN, infrared communication, or a dedicated connection line. It is also possible to print an image.
Hereinafter, various embodiments of an image processing method according to the present invention will be described with reference to the accompanying drawings.

(実施例1の概要)
実施例1は、図1の装置構成からなる画像処理システムにおいて、電子カメラにて撮像された原画像データをパーソナルコンピュータにて、本発明に係る画像処理を施し、プリンタで出力する形態についての説明である。
本実施例について、「1−1.画像処理システム」と、「1−2.画像処理方法」を概説し、原画像データの平滑化処理に用いる平滑化フィルタのしきい値を算出する「1−3.しきい値算出方法」と、前記算出したしきい量に応じた「1−4.平滑化処理方法」の順に説明する。
また、本実施例は、図2−(a)に示す原画像データに対して、撮影情報から算出したしきい値に応じた平滑化処理を施す実施例である。得られた平滑処理後の画像を図3−(b)に示している。
(Summary of Example 1)
Embodiment 1 describes an embodiment in which an original image data captured by an electronic camera is subjected to image processing according to the present invention by a personal computer and output by a printer in the image processing system having the apparatus configuration of FIG. It is.
About this embodiment, “1-1. Image processing system” and “1-2. Image processing method” are outlined, and a threshold value of a smoothing filter used for smoothing processing of original image data is calculated. -3. Threshold calculation method "and" 1-4. Smoothing processing method "according to the calculated threshold amount will be described in this order.
In this embodiment, the original image data shown in FIG. 2A is subjected to smoothing processing according to the threshold value calculated from the photographing information. The resulting smoothed image is shown in FIG.

(1−1.画像処理システムの構成)
(1−1−A.画像処理システムの構成)
図1は、本発明における画像処理システムの概略構成を示す図である。
画像処理システムは、画像ファイル生成装置としての電子カメラ11と、画像処理装置としてのパーソナルコンピュータ12、及び画像出力装置としてカラープリンタ13とから構成される。
電子カメラ11は、種々の撮影情報を設定することが可能である。撮影情報とは、シャッタースピードや、露出や、絞りなど、原画像データの取得条件を意味する。電子カメラ11は、撮影者が設定した撮影条件で、撮影(原画像データ生成)を行い、画像データと撮影情報とを一体的に備える画像ファイルを生成する。生成した画像ファイルは記録媒体(例えば、メモリーカード)に格納される。
パーソナルコンピュータ12は、前記電子カメラ11から、例えばUSBインターフェースを介して、画像ファイルを取得後、画像領域分割、識別子付与、及び平滑化処理を行う。
カラープリンタ13は、データ通信手段、例えば、専用プリンタケーブルやLAN(Local Area Network)等を介して、パーソナルコンピュータから画像ファイルを受信し、これを画像として出力する。このときのカラープリンタの出力動作については、公知の出力形式を適用することができる。
(1-1. Configuration of Image Processing System)
(1-1-A. Configuration of Image Processing System)
FIG. 1 is a diagram showing a schematic configuration of an image processing system according to the present invention.
The image processing system includes an electronic camera 11 as an image file generation device, a personal computer 12 as an image processing device, and a color printer 13 as an image output device.
The electronic camera 11 can set various shooting information. Shooting information means acquisition conditions of original image data such as shutter speed, exposure, and aperture. The electronic camera 11 performs shooting (original image data generation) under shooting conditions set by the photographer, and generates an image file that integrally includes image data and shooting information. The generated image file is stored in a recording medium (for example, a memory card).
The personal computer 12 obtains an image file from the electronic camera 11 via, for example, a USB interface, and then performs image region division, identifier assignment, and smoothing processing.
The color printer 13 receives an image file from a personal computer via a data communication means such as a dedicated printer cable or a LAN (Local Area Network), and outputs the image file as an image. A known output format can be applied to the output operation of the color printer at this time.

(1−1−B.画像ファイルの生成)
ここでは、電子カメラ11における画像ファイル100の生成工程を説明する。
まず、撮影者は、撮影に先立って撮影モードを設定する。撮影モードの設定では、「ポートレート」、「風景」、「スポーツ」などの予め用意された各撮影シーンに適した露出、ホワイトバランス、シャッタースピード、絞り値など、撮影される原画像データに影響を与えるパラメータを自動設定する。撮影モードに関わらず、電子カメラ11が撮影時に自動設定する「フルオートモード」や、撮影者が好みに応じて設定する「マニュアルモード」も用意されており、これらを撮影者が適宜選択し、電子カメラ11はこれを適用する。
撮影要求、例えば、シャッターボタンの押し下げに応じて、撮影条件(撮影モード)から自動的に設定されるパラメータ値を用いて、画像ファイルを生成する。
すなわち、設定された撮影モードに応じた各パラメータを参照して、原画像データ、撮影情報を含む画像ファイル100を生成する。ここで生成する画像ファイルは、該画像データと撮影条件等の撮影情報とを含む所定のフォーマットで格納した画像ファイルである。このファイル構成を以下で説明する。
(1-1-B. Generation of image file)
Here, the generation process of the image file 100 in the electronic camera 11 will be described.
First, the photographer sets a photographing mode prior to photographing. The shooting mode setting affects the original image data to be shot, such as exposure, white balance, shutter speed, aperture value, etc., suitable for each shooting scene prepared in advance, such as “Portrait”, “Landscape”, and “Sports”. The parameter that gives is automatically set. Regardless of the shooting mode, a “full auto mode” automatically set by the electronic camera 11 at the time of shooting and a “manual mode” set by the photographer according to their preference are also prepared. The electronic camera 11 applies this.
An image file is generated using a parameter value that is automatically set from a shooting condition (shooting mode) in response to a shooting request, for example, a depression of a shutter button.
That is, the image file 100 including the original image data and the shooting information is generated with reference to each parameter according to the set shooting mode. The image file generated here is an image file stored in a predetermined format including the image data and shooting information such as shooting conditions. This file structure will be described below.

(1−1−C.画像ファイルの構成)
本実施例では、画像ファイル100は、Exif形式のファイルであるものとして説明するが、画像ファイルのファイル形式はこれに限らず、画像データと画像処理制御データとを利用できる形式で一体的に備える構造を採ればよい。
(1-1-C. Configuration of image file)
In this embodiment, the image file 100 is described as an Exif format file, but the file format of the image file is not limited to this, and the image file 100 and the image processing control data are integrally provided. What is necessary is just to take a structure.

図4は、本発明における画像ファイルの構成の一例を概念的に示す図である。
画像ファイル100は、電子カメラ用画像ファイルフォーマット規格(Exif)に従ったファイル構造を有している。Exifファイルの仕様は、(社)電子情報技術産業協会(JEITA)によって定められている。
画像ファイル100は、原画像データを格納する原画像データ格納領域101と、格納されている原画像データに関する各種付加情報を格納する撮影情報格納領域102とを備えている。原画像データ格納領域101には、原画像データがJPEG形式で格納されている。撮影情報格納領域102には、撮影情報がTIFF形式で格納される。なお、当業者にとって周知であるように、Exif形式のファイルでは、各データを特定するために様々なタグが用いられており、原画像データ格納領域101に格納されているデータに対してはタグ名として種々の領域が割り当てられている。
FIG. 4 is a diagram conceptually illustrating an example of the configuration of an image file in the present invention.
The image file 100 has a file structure according to the image file format standard (Exif) for electronic cameras. The specifications of the Exif file are determined by the Japan Electronics and Information Technology Industries Association (JEITA).
The image file 100 includes an original image data storage area 101 that stores original image data, and a shooting information storage area 102 that stores various types of additional information related to the stored original image data. In the original image data storage area 101, original image data is stored in JPEG format. Shooting information is stored in the TIFF format in the shooting information storage area 102. As is well known to those skilled in the art, the Exif format file uses various tags to identify each data, and tags stored in the original image data storage area 101 are tags. Various areas are assigned as names.

図5は、本発明における撮影情報データの一例を示す図である。
画像ファイル100の撮影情報格納領域102には、本図に例示したタグ名と、図示しないその設定値が格納されている。各タグ名の後には、文字終端列を示す「0x00」の終端コードが付されている。該格納領域102には、パラメータが格納されていることを示す識別子や、指定されているパラメータ数を示すパラメータ指定数や、予めパラメータ毎に割り振られているパラメータ番号を指定(識別)する値が格納されているパラメータ番号や、指定されたパラメータ番号のパラメータの設定値が格納されているパラメータ設定値の情報などが格納されている。パラメータ番号は、例えば、2バイトの領域に格納される情報であり、パラメータ設定値は4バイトの領域に格納される情報である。画像出力装置において、このタグを指標として撮影情報の各パラメータ値を取得することができる。
例えば、「撮影モード」については、タグ名が「風景モード」の場合、その設定パラメータとして「+0」が格納される。また、他に、「ISO感度」に対応する数値としては、「800相当」を表す「1」などの予め設定された基準値が用意されている場合には、基準値からの補正量を表す数値を格納する。
FIG. 5 is a diagram showing an example of shooting information data in the present invention.
In the shooting information storage area 102 of the image file 100, the tag name illustrated in this figure and its set value (not shown) are stored. Each tag name is followed by a “0x00” termination code indicating a character termination sequence. The storage area 102 includes an identifier indicating that a parameter is stored, a parameter designation number indicating the number of designated parameters, and a value for designating (identifying) a parameter number allocated in advance for each parameter. The stored parameter number, parameter setting value information storing the parameter setting value of the designated parameter number, and the like are stored. The parameter number is, for example, information stored in a 2-byte area, and the parameter setting value is information stored in a 4-byte area. In the image output apparatus, each parameter value of the shooting information can be acquired using this tag as an index.
For example, for “shooting mode”, when the tag name is “landscape mode”, “+0” is stored as the setting parameter. In addition, as a numerical value corresponding to “ISO sensitivity”, when a preset reference value such as “1” representing “800 equivalent” is prepared, it represents a correction amount from the reference value. Stores numeric values.

以上のファイル構成によって、画像ファイル100には、撮影者が設定した撮影情報を含む画像ファイル101が格納される。そして、該画像ファイルに対して所定の画像処理装置は、画像ファイルを取得し、そのファイルを解析することにより原画像データ及び撮影情報を取得することができる。
以下に、画像処理方法について説明する。
With the above file structure, the image file 100 stores the image file 101 including the shooting information set by the photographer. A predetermined image processing apparatus can acquire the original image data and the photographing information by acquiring the image file and analyzing the file with respect to the image file.
The image processing method will be described below.

(1−2.画像処理方法)
画像処理方法は、例えば、パーソナルコンピュータ等の情報処理装置に実装されたプログラム形態を取ることが可能である。前記「1−C.画像ファイルの構成」で生成した画像ファイルをパーソナルコンピュータ12は取得し、該画像ファイルに対して画像処理を施す。処理を施した画像ファイルは、画像出力装置であるカラープリンタ13に送信される。カラープリンタ13は、カラー画像を出力するプリンタであり、例えば、シアン(C)、ライトシアン(薄いシアン、LC)、マゼンタ(M)、ライトマゼンタ(薄いマゼンタ、LM)、イエロー(Y)、ダークイエロー(DY)、ブラック(K)の7色の色インクを印刷媒体上に噴射してドットパターンを形成することによって画像を形成するインクジェット方式のプリンタである。他に、カラートナーを印刷媒体上に転写し、加熱定着させて画像を形成する電子写真方式のプリンタ、所謂、カラーレーザープリンタなど、種々のプリンタを適用することも可能である。
以下に、画像処理装置において適用される画像処理方法の動作概略について図6のフローチャートに基づいて説明する。
(1-2. Image processing method)
The image processing method can take the form of a program installed in an information processing apparatus such as a personal computer, for example. The personal computer 12 acquires the image file generated in “1-C. Configuration of Image File” and performs image processing on the image file. The processed image file is transmitted to the color printer 13 which is an image output device. The color printer 13 is a printer that outputs a color image. For example, cyan (C), light cyan (light cyan, LC), magenta (M), light magenta (light magenta, LM), yellow (Y), dark yellow. This is an ink jet printer that forms an image by ejecting seven color inks of (DY) and black (K) onto a printing medium to form a dot pattern. In addition, various printers such as an electrophotographic printer that forms an image by transferring color toner onto a printing medium and heat-fixing the so-called color laser printer can be applied.
The outline of the operation of the image processing method applied in the image processing apparatus will be described below based on the flowchart of FIG.

図6は、本発明における画像処理方法を示すフローチャートである。
画像処理装置としてのパーソナルコンピュータ12のCPUは、取得した画像ファイル100から、原画像データを取り出す(ステップS100)。電子カメラ11は、画像データをJPEG形式のファイルとして保存しており、JPEGファイルでは、圧縮率を高くするために、YCbCr色空間を用いて画像データを保存している。
CPUはYCbCr色空間に基づく画像データをsRGB色空間に基づく画像データに変換するための第1のマトリクス演算を実行する(ステップS110)。CPUは、こうして得られたsRGB色空間に基づく画像データに対して、原画像データのRGB値及び撮影情報に基づいて、平滑化フィルタに用いるしきい値を算出し(ステップS120)、得られたしきい値を用いて平滑化処理を実行する(ステップS130)。
FIG. 6 is a flowchart showing an image processing method according to the present invention.
The CPU of the personal computer 12 as the image processing apparatus extracts original image data from the acquired image file 100 (step S100). The electronic camera 11 stores image data as a JPEG file, and the JPEG file stores image data using a YCbCr color space in order to increase the compression rate.
The CPU executes a first matrix operation for converting image data based on the YCbCr color space into image data based on the sRGB color space (step S110). For the image data based on the sRGB color space obtained in this way, the CPU calculates a threshold value used for the smoothing filter based on the RGB value of the original image data and the shooting information (step S120). Smoothing processing is executed using the threshold value (step S130).

そして、ROM内に格納されているRGB色空間に対応したCMYK色空間へ変換する(ステップS140)。この変換用ルックアップテーブル(LUT)の参照は、画像データの色空間をRGB色空間からCMYK色空間へ変更する処理であり、R・G・Bの3色の階調値からなる画像データを、カラープリンタ13で使用する色、例えば、C・M・Y・K・LC・LM・DYの各7色の階調値のデータに変換する。最後にCPUは、得られた画像出力用データを記録媒体上に形成し、これを出力することにより出力画像を得る。
以下では、ステップS120、及びS130における各々の処理についての詳細を記す。
Then, it is converted into a CMYK color space corresponding to the RGB color space stored in the ROM (step S140). This conversion look-up table (LUT) is a process for changing the color space of image data from the RGB color space to the CMYK color space. , The color used in the color printer 13, for example, data of gradation values of seven colors of C, M, Y, K, LC, LM, and DY. Finally, the CPU forms the obtained image output data on a recording medium and outputs it to obtain an output image.
Hereinafter, details of each process in steps S120 and S130 will be described.

(1−3.しきい値算出方法)
図6のステップS110「第1のマトリクス演算」から出力された画像データの色味の偏りを示す特性値τを、次式(1)に従い算出する。
τrg= ΣR/ΣG,
τbg= ΣB/ΣG,
τbr= ΣB/ΣR,
ΣR = ΣrIJ/nr,
ΣG = ΣgIJ/ng,
ΣB = ΣbIJ/nb ・・・(1)
ただし、
ΣrIJ, ΣgIJ, ΣbIJ
は、それぞれ、座標(I,J)におけるR,G,Bの値であり、
nr, ng, nb
は、それぞれ、R、G、Bの画素数である。
(1-3. Threshold calculation method)
A characteristic value τ indicating the color bias of the image data output from step S110 “first matrix calculation” in FIG. 6 is calculated according to the following equation (1).
τrg = ΣR / ΣG,
τbg = ΣB / ΣG,
τbr = ΣB / ΣR,
ΣR = Σr IJ / nr,
ΣG = Σg IJ / ng,
ΣB = Σb IJ / nb (1)
However,
Σr IJ , Σg IJ , Σb IJ
Are the values of R, G, B at coordinates (I, J), respectively.
nr, ng, nb
Are the numbers of R, G, and B pixels, respectively.

式(1)により得られた特性値、例えば、τrgは、緑成分に対する赤成分の割合を表しており、特性値τrgが1よりも大きい場合は、画像全体が赤みを帯びていると解釈される。
以下では、図7を参照して、本実施例を説明する。
The characteristic value obtained by the equation (1), for example, τrg represents the ratio of the red component to the green component. When the characteristic value τrg is greater than 1, the entire image is interpreted as reddish. The
Hereinafter, this embodiment will be described with reference to FIG.

図7は、本発明におけるxy色度図上の特性値を算出する方法を示す概念図である。
先ず、前記色味の偏りを表す特性値をxy色度座標上にD点としてプロットする(図中の点*)。このとき、RGB原色光は色度点が種々の規格により定めることが可能であるが、本実施例では、NTSCの色度座標を採用した(点R、G、)。
この各原色光のR、G、B点から、線分RG、線分BG、線分BRについて、それぞれ前記τrg:1、τbg:1、τbr:1にて内分した点をそれぞれ算出し(点P1、P2、P3)、△RGBの各頂点から前記内分点(P1、P2、P3)に下ろした3本の直線の交点をD点とする(図中の点*)。本実施例では、τrg=3.91、τbg=0.90、P1=(0.160, 0,260)、P2=(0.428, 0.530)より、D=(0.260, 0.360)となる。
7, Ru conceptual diagram illustrating a method for calculating a characteristic value of the xy chromaticity diagram according to the present invention.
First, the characteristic value representing the color deviation is plotted as a point D on the xy chromaticity coordinates (point * in the figure). At this time, chromaticity points of RGB primary color light can be determined by various standards, but in this embodiment, NTSC chromaticity coordinates are adopted (points R, G, B ).
From the R, G, and B points of each primary color light, the points internally divided at τrg: 1, τbg: 1, and τbr: 1 are calculated for the line segment RG, line segment BG, and line segment BR, respectively ( An intersection of three straight lines drawn from the vertices of points P1, P2, P3) and ΔRGB to the internal dividing point (P1, P2, P3) is defined as a D point (point * in the figure). In this embodiment, τrg = 3.91, τbg = 0.90, P1 = (0.160, 0,260), and P2 = (0.428, 0.530), so that D = (0.260, 0.360).

また、画像ファイルの撮影情報より撮影光源の光源情報を取得し、これをxy色度座標上にプロットする。このときプロットした光源をC点とする。点C、Dを結ぶベクトルを、各光源色の座標と内分点とを結ぶ線分に平行なベクトルに分解する。すなわち、ベクトルCDを、ベクトルCp3とベクトルCp1に分解する。分解して得られたベクトル成分の差分ベクトルを算出する。本実施例では、p1=(0.314, 0.2781)、p3=(0.2556, 0.3088)より、Cp3=0.0549、Cp1=0.0382であり、この差分ベクトルは
|Cp3−Cp1| = |0.0549−0.0382|
= 0.0167
である。
Further, the light source information of the photographing light source is acquired from the photographing information of the image file, and this is plotted on the xy chromaticity coordinates. The light source plotted at this time is set as point C. The vector connecting the points C and D is decomposed into a vector parallel to the line connecting the coordinates of each light source color and the internal dividing point. That is, the vector CD is decomposed into a vector Cp3 and a vector Cp1. A difference vector of the vector components obtained by the decomposition is calculated. In the present embodiment, from p1 = (0.314, 0.2781) and p3 = (0.2556, 0.3088), Cp3 = 0.0549 and Cp1 = 0.0382, and this difference vector is | Cp3-Cp1 | = | 0.0549-0.0382 |
= 0.0167
It is.

続いて、前ステップにて得られた差分ベクトルと撮影情報の感度情報とから、平滑化を施すフィルタのしきい値を算出する。本実施例では、前出の差分ベクトルから、画像全体の色味として、青成分が多く含まれる画像であることが分かる。そのため、この青成分の量に応じたカラーバランスを取るために、画像全体に赤成分を加えていることが想定される。従って、平滑化処理を施す色成分として、赤成分に平滑化処理が施されることとなる。画像ファイルの撮影情報から感度情報を取得し、本実施例において、ISO感度が800であった。次いで、平滑化フィルタに適用されるしきい値THRを算出する。   Subsequently, the threshold value of the filter to be smoothed is calculated from the difference vector obtained in the previous step and the sensitivity information of the photographing information. In the present embodiment, it can be seen from the above-described difference vector that the image contains a lot of blue components as the color of the entire image. Therefore, it is assumed that a red component is added to the entire image in order to obtain a color balance according to the amount of the blue component. Therefore, the smoothing process is performed on the red component as the color component to be smoothed. Sensitivity information is acquired from the shooting information of the image file, and the ISO sensitivity is 800 in this embodiment. Next, a threshold value THR applied to the smoothing filter is calculated.

例えば、次式(2)にて表現される式が想定される。
THR
= Const./(|Cp3−Cp1|×I.Sensitivity)・・・(2)
ただし、
Const. :定数
I.Sensitivity:ISO感度
である。
つまり、差分ベクトル及びISO感度が高いと、しきい値THRは小さくなり、より急峻な平滑化処理が施されることとなる。本実施例では、しきい値THRは、
THR = 50/(0.0167×800)
= 3.74
であった。また、本実施例における定数は、およそ数十の範囲となるものである。
For example, an expression expressed by the following expression (2) is assumed.
THR
= Const./(|Cp3-Cp1|×I.Sensitivity) (2)
However,
Const .: Constant
I. Sensitivity: ISO sensitivity.
That is, when the difference vector and the ISO sensitivity are high, the threshold value THR becomes small, and a steeper smoothing process is performed. In this embodiment, the threshold value THR is
THR = 50 / (0.0167 × 800)
= 3.74
Met. Further, the constant in the present embodiment is in the range of about several tens.

(1−4.平滑化処理方法)
図8は、本発明における平滑化フィルタ処理の概念を示す図である。
前ステップにて算出されたしきい値を用いて、平滑化処理を施す。この処理を施すフィルタの例として、図8が挙げられる。本図において、aは注目画素の画素値であるものとする。また、α、α’、β、β’、γ、γ’、δ、δ’は、前記画素aの周辺の画素の画素値であるものとする。ここで、点対称の組を以下のように定義する。
(α, α’), (β, β’),
(γ, γ’), (δ, δ’)
上記のように定義した点対称の組に対して、差分情報を次式(3)により算出する。
Δα = abs(α −a)
+abs(α’−a) ・・・(3)
ただし、
abs(x−y):x−yの絶対値
である。
また、Δβ、Δγ、Δδについても、同様に算出する。
(1-4. Smoothing processing method)
FIG. 8 is a diagram showing the concept of the smoothing filter processing in the present invention.
Smoothing processing is performed using the threshold value calculated in the previous step. An example of a filter that performs this process is shown in FIG. In this figure, a is the pixel value of the target pixel. Further, α, α ′, β, β ′, γ, γ ′, δ, and δ ′ are pixel values of pixels around the pixel a. Here, a point-symmetric set is defined as follows.
(Α, α '), (β, β'),
(Γ, γ '), (δ, δ')
Difference information is calculated by the following equation (3) for the point-symmetric group defined as described above.
Δα = abs (α−a)
+ Abs (α′−a) (3)
However,
abs (xy): Absolute value of xy.
Further, Δβ, Δγ, and Δδ are similarly calculated.

式(3)で算出したΔα、Δβ、Δγ、Δδの内、最小値をとるものの値をΔminとする。
ここで、あるしきい値THRに関し、Δmin<THRであるなら、aをΔminに関する3点の重み付け平均値に置き換える(該しきい値THRの設定については、後述する。)。具体的には、ΔαがΔminである場合、重み平均は次式(4a)で表される。これを新たな画素データaとする。或いは元画像に対してノイズ除去を穏やかに行うときは、次式(4b)で求めることができる。
重み平均=(α+a+α’)/3 ・・・(4a),
重み平均=(α+2a+α’)/4 ・・・(4b)
Of Δα, Δβ, Δγ, and Δδ calculated by Equation (3), the value that takes the minimum value is Δmin.
Here, if Δmin <THR for a certain threshold value THR, a is replaced with a three-point weighted average value for Δmin (setting of the threshold value THR will be described later). Specifically, when Δα is Δmin, the weighted average is expressed by the following equation (4a). This is defined as new pixel data a. Alternatively, when noise removal is gently performed on the original image, it can be obtained by the following equation (4b).
Weighted average = (α + a + α ′) / 3 (4a),
Weighted average = (α + 2a + α ′) / 4 (4b)

このように構成すれば、画像情報のエッジを残したまま、強い画像ノイズを低減する効果がある。また、この実施の形態例によれば、しきい値よりも大きな情報差を平滑しないので、よりエッジ情報が残りやすい。以上の説明では、注目画素の周囲の8点について平滑化フィルタ処理をかけた場合について説明したが、本発明はこれに限るものではなく、aの周辺の画素をとばして次の画素に対してフィルタ処理を行うようにしてもよい。   If comprised in this way, there exists an effect which reduces strong image noise, leaving the edge of image information. Further, according to this embodiment, since the information difference larger than the threshold value is not smoothed, the edge information is likely to remain. In the above description, the case where the smoothing filter processing is applied to the eight points around the pixel of interest has been described. However, the present invention is not limited to this, and the pixels around a are skipped and the next pixel is skipped. Filter processing may be performed.

(実施例2の概要)
以下、本発明の実施の形態について、実施例に基づき以下の順序で説明する。なお、画像ファイルの生成、及び画像ファイルの構成については、実施例1で示した内容と同様であるので、説明を省略する。
実施例2は、図1の装置構成からなる画像処理システム構成において、電子カメラ11にて撮像された原画像データを、パーソナルコンピュータ12にて本発明に係る画像処理を施し、カラープリンタ13で出力する形態についての説明である。
(Summary of Example 2)
Hereinafter, embodiments of the present invention will be described in the following order based on examples. Note that the generation of the image file and the configuration of the image file are the same as the contents shown in the first embodiment, and thus description thereof is omitted.
In the second embodiment, the original image data captured by the electronic camera 11 is subjected to the image processing according to the present invention by the personal computer 12 and output by the color printer 13 in the image processing system configuration having the apparatus configuration of FIG. It is description about the form to do.

実施例2について、「2−1.画像処理方法」を概説し、「2−2.原画像データの領域分割方法」と、前記領域分割された原画像データの各領域に対して、「2−3.識別子付与方法」と、前記識別子に応じた[2−4.平滑化処理方法]の順に説明していく。
また、実施例2は、図2−(a)に示す原画像データに、記憶色領域である領域の中で、最も画像を占める割合が高い空の領域である領域(A)に対して、撮影情報から算出したしきい値に応じた平滑化処理を施す実施例である。得られた平滑化処理後の画像を図3−(b)に示している。
Regarding Example 2, “2-1. Image processing method” is outlined, and “2-2. Original image data area dividing method” and “2 -3. Identifier assignment method ”and [2-4. The smoothing processing method] will be described in this order.
Further, in the second embodiment, the original image data shown in FIG. 2A is compared with the area (A) that is the empty area having the highest image occupying ratio among the areas that are the memory color areas. It is an Example which performs the smoothing process according to the threshold value computed from imaging | photography information. The obtained smoothed image is shown in FIG.

(2−1.画像処理方法の概説)
画像処理方法は、例えば、パーソナルコンピュータ12に実装されたプログラムを用いて画像処理を行う形態を取ることが可能である。前記「1−1−C.画像ファイルの構成」で生成した画像ファイルをパーソナルコンピュータ12は取得し、該画像ファイルに対して画像処理を施す。処理を施した画像ファイルは、画像出力装置であるカラープリンタ13に送信される。カラープリンタ13は、カラー画像を出力するプリンタであり、例えば、シアン(C)、ライトシアン(薄いシアン、LC)、マゼンタ(M)、ライトマゼンタ(薄いマゼンタ、LM)、イエロー(Y)、ダークイエロー(暗いイエロー、DY)、ブラック(K)の7色インクを印刷媒体上に噴射してドットパターンを形成することによって画像を形成するインクジェット方式のプリンタである。他に、カラートナーを印刷媒体上に転写し、加熱定着させて画像を形成する電子写真方式のプリンタ、所謂、カラーレーザープリンタなど、種々のプリンタを適用することも可能である。
以下に、画像処理装置において適用される画像処理方法の動作概略について、図9のフローチャートに基づいて説明する。
(2-1. Outline of image processing method)
The image processing method can take a form in which image processing is performed using a program installed in the personal computer 12, for example. The personal computer 12 acquires the image file generated in “1-1-C. Configuration of image file” and performs image processing on the image file. The processed image file is transmitted to the color printer 13 which is an image output device. The color printer 13 is a printer that outputs a color image. For example, cyan (C), light cyan (light cyan, LC), magenta (M), light magenta (light magenta, LM), yellow (Y), dark yellow. This is an inkjet printer that forms an image by ejecting seven color inks (dark yellow, DY) and black (K) onto a print medium to form a dot pattern. In addition, various printers such as an electrophotographic printer that forms an image by transferring color toner onto a printing medium and heat-fixing the so-called color laser printer can be applied.
The outline of the operation of the image processing method applied in the image processing apparatus will be described below based on the flowchart of FIG.

図9は、本発明における画像処理方法を示すフローチャートである。特に、本発明の特徴である画像分割処理(ステップS240)、識別子付与処理(ステップS250)、及び平滑化処理(ステップS280)については、以下で詳細な説明を行う。   FIG. 9 is a flowchart showing an image processing method according to the present invention. In particular, the image segmentation process (step S240), the identifier assignment process (step S250), and the smoothing process (step S280), which are features of the present invention, will be described in detail below.

先ず、パーソナルコンピュータ12のCPUは、取得した画像ファイル100から原画像データを取り出す(ステップS200)。電子カメラ11は、画像データをJPEG形式のファイルとして保存しており、JPEGファイルでは、圧縮率を高くするためにYCbCr色空間を用いて画像データを保存している。
CPUは、YCbCr色空間に基づく画像データをsRGB色空間に基づく画像データに変換するための第1のマトリクス演算を実行する(ステップS210)。CPUは、こうして得られたsRGB色空間に基づく画像データに対して、ガンマ補正(ステップS220)、並びに第2のマトリクス演算を実行する(ステップS230)。ガンマ補正を実行する際、CPUは画像処理制御データから電子カメラ11側のガンマ値を取得し、取得したガンマ値を用いて画像データに対してガンマ変換処理を実行する。第2のマトリクス演算は、sRGB色空間をXYZ色空間に変換するための演算処理である。
First, the CPU of the personal computer 12 extracts original image data from the acquired image file 100 (step S200). The electronic camera 11 stores image data as a JPEG file, and the JPEG file stores image data using the YCbCr color space in order to increase the compression rate.
The CPU executes a first matrix operation for converting image data based on the YCbCr color space into image data based on the sRGB color space (step S210). The CPU performs gamma correction (step S220) and second matrix calculation on the image data based on the sRGB color space thus obtained (step S230). When executing gamma correction, the CPU acquires a gamma value on the electronic camera 11 side from the image processing control data, and executes gamma conversion processing on the image data using the acquired gamma value. The second matrix calculation is a calculation process for converting the sRGB color space into the XYZ color space.

CPUは、撮影条件に基づく画質調整を実行するために、原画像データのXYZ色空間及び実画像空間の特徴を用いて、領域分割を実行する(ステップS240)。次いで、分割した領域に対して識別子を付与する(ステップS250)。そして、第3のマトリクス演算及び逆ガンマ補正を実行し(ステップS260)、XYZデータをRGBデータに変換する。更に、色空間への変換に対応するマトリクスを用いてマトリクス演算を実行し、ROM内に格納されているRGB色空間に対応したCMYK色空間へ変換する(ステップS270)。
この変換用ルックアップテーブル(LUT)の参照は、画像データの色空間をRGB色空間からCMYK色空間に変更する処理であり、R・G・Bの階調値からなる画像データをカラープリンタ13で使用する、例えば、C・M・Y・K・LC・LM・DYの各7色の階調値のデータに変換する。
最後にCPUは、得られた印刷データに対して、平滑化処理を実行する(ステップS280)。
The CPU executes region division using the features of the XYZ color space and the actual image space of the original image data in order to execute image quality adjustment based on the shooting conditions (step S240). Next, an identifier is assigned to the divided area (step S250). Then, the third matrix calculation and inverse gamma correction are executed (step S260), and the XYZ data is converted into RGB data. Further, matrix calculation is performed using a matrix corresponding to the conversion to the color space, and the conversion to the CMYK color space corresponding to the RGB color space stored in the ROM is performed (step S270).
The conversion look-up table (LUT) is referred to as processing for changing the color space of the image data from the RGB color space to the CMYK color space, and the image data composed of R, G, and B gradation values is converted to the color printer 13. For example, C, M, Y, K, LC, LM, and DY.
Finally, the CPU executes a smoothing process on the obtained print data (step S280).

以上のステップを順次実行し、得られた画像出力用データを記録媒体上に形成し、これを出力することにより出力画像を得ることとなる。
以下では、画像分割処理(ステップS240)、識別子付与処理(ステップS250)、及び平滑化処理(ステップS280)における各々の処理についての詳細を記す。
The above steps are sequentially executed, the obtained image output data is formed on a recording medium, and an output image is obtained by outputting the data.
In the following, details of each process in the image division process (step S240), the identifier assignment process (step S250), and the smoothing process (step S280) will be described.

(2−2.領域分割方法(ステップS240))
領域分割方法には、種々の方法を採用することが可能である。例えば、原画像データの統計的情報から再帰的に分割する方法(上記非特許文献2参照)や、画像の統計情報を用いて領域分割する方法(上記非特許文献3参照)などである。本実施例では、K平均アルゴリズムを応用した領域分割方法を例にとって説明する。
(2-2. Region Division Method (Step S240))
Various methods can be adopted as the region dividing method. For example, there are a method of recursively dividing from statistical information of original image data (see Non-Patent Document 2), a method of dividing an area using image statistical information (see Non-Patent Document 3), and the like. In the present embodiment, a description will be given of an area dividing method using the K-average algorithm as an example.

図10は、本発明における領域分割の方法を示すフローチャートである。
この画像領域分割方法は、初期領域生成(ステップS300)、領域分割(ステップS310)、微小領域除去(ステップS320)、番号付与(ステップS330)、小領域統合(ステップS340)、特徴量算出(ステップS350)のステップからなる。
FIG. 10 is a flowchart showing a region dividing method according to the present invention.
This image region dividing method includes initial region generation (step S300), region division (step S310), minute region removal (step S320), numbering (step S330), small region integration (step S340), feature amount calculation (step S350).

初期領域生成ステップS300は、入力された原画像データの画面全体を、予め設定された小量域に分割して初期領域を生成し、各領域毎に統計情報を算出する。このとき統計情報として、本実施例では、各領域毎の算術平均を用いた。この初期領域データを一旦保持して、領域分割ステップに移る。このときの領域分割数は、画像データの特徴に応じて適宜変化させることが望ましい。本実施例における小領域数は、縦5つ、横5つであり、5×5=25の領域に分割する(図2−(c)参照)。
次いで、原画像データと初期領域生成ステップS300にて得られた初期分割領域、及びその統計情報とを用いて、原画像データの領域統合、及び分割を所定回数繰り返す(ステップS310)。得られた画像信号を微小領域除去ステップS320に出力する。微小領域除去ステップS320は、多数決フィルタで構成され、領域分割ステップS310から供給された画像信号中に含まれる小さな粒状領域を除去し、粒状領域が除去された領域画像信号を番号付与ステップS330に出力する。このときの多数決フィルタの窓サイズは、画像データの特徴に応じて適宜変化させることが好ましい。本実施例における窓サイズは、5×5=25画素とした。
The initial region generation step S300 generates an initial region by dividing the entire screen of the input original image data into preset small amount regions, and calculates statistical information for each region. At this time, as the statistical information, in this embodiment, an arithmetic average for each region was used. The initial area data is temporarily held and the process proceeds to an area dividing step. It is desirable that the number of area divisions at this time is appropriately changed according to the characteristics of the image data. The number of small areas in this embodiment is 5 in the vertical direction and 5 in the horizontal direction, and is divided into 5 × 5 = 25 areas (see FIG. 2C).
Next, using the original image data, the initial divided region obtained in the initial region generation step S300, and its statistical information, the region integration and division of the original image data are repeated a predetermined number of times (step S310). The obtained image signal is output to the minute region removing step S320. The minute area removing step S320 is constituted by a majority filter, removes small granular areas included in the image signal supplied from the area dividing step S310, and outputs the area image signal from which the granular areas have been removed to the numbering step S330. To do. The window size of the majority filter at this time is preferably changed as appropriate according to the characteristics of the image data. In this embodiment, the window size is 5 × 5 = 25 pixels.

番号付与ステップS330は、粒状領域が除去された画像信号を入力すると共に、得られた同一領域に含まれる画面上で連結している画素に同じ識別番号を付与し、識別番号が付与された領域画像信号を小領域統合ステップS340に出力する。
小領域統合ステップS340は、識別番号が付与された領域画像信号を入力すると共に、予め設定されたあるしきい値以下の画素数の小さな領域を別領域へ統合する処理を実行し、得られた画像信号を特徴量ステップS350に出力する。
番号付与ステップS330にて、各画像領域に対して任意の番号が付与される。このときには、領域が異なることが認識されればよいので、各領域に対して付与される番号は、連続番号である必要もない。この番号付与ステップS330により、修正された分割領域は、同一の特徴量を有する領域であってもそれが連結していない限り、それぞれ別個に識別することが可能である。
The number assigning step S330 inputs the image signal from which the granular region is removed, assigns the same identification number to the pixels connected on the screen included in the obtained same region, and assigns the identification number to the region The image signal is output to the small region integration step S340.
The small region integration step S340 is obtained by inputting the region image signal to which the identification number is assigned and executing a process of integrating a region having a small number of pixels equal to or less than a predetermined threshold value into another region. The image signal is output to the feature amount step S350.
In number assignment step S330, an arbitrary number is assigned to each image area. At this time, since it is only necessary to recognize that the areas are different, the numbers given to the areas do not need to be consecutive numbers. By this numbering step S330, the modified divided areas can be individually identified even if they are areas having the same feature amount as long as they are not connected.

更に、番号付与ステップS330により識別番号が付与された領域画像信号は、小領域統合ステップS340に供給される。小領域統合ステップS340では、予め定められたあるしきい値以下の画素数の小さな領域を別領域へ統合する。しきい値は、例えば、前画面の画素数の1%程度に設定する。統合は、統合対象の領域の最も外側から始め、別の領域に接している画素をその別領域に属させることによりなされる。外側から順に多領域へ属させるので、必ず全ての画素は他の領域に属することとなる。   Further, the region image signal to which the identification number is assigned in the number assigning step S330 is supplied to the small region integration step S340. In the small region integration step S340, a region having a small number of pixels equal to or smaller than a predetermined threshold value is integrated into another region. The threshold value is set to about 1% of the number of pixels on the previous screen, for example. The integration is performed by starting from the outermost area of the integration target area and causing pixels in contact with another area to belong to the other area. Since the pixels belong to multiple areas in order from the outside, all the pixels always belong to other areas.

本実施例における統合は、対象画素を中心にした3画素×3画素の範囲内の対象画素を取り囲む近傍8画素の中で、最も多い画素数を有する隣接領域に対象画素を統合することにより行った。外側の画素が複数の領域と接している場合には接している画素数が最も多い領域に属することになる。隣接領域の画素数が同数のときは、隣接領域全体を比較して最大の領域に統合した。
最後に、特徴量算出ステップは、分割された各領域毎に統計情報を算出し、これを一旦保持する。以上のステップを経て、得られた分割画像の例を図3−(a)に、その特徴量を表2に示す。なお、本実施例の特徴の領域分割ステップS310については次に述べる。
The integration in the present embodiment is performed by integrating the target pixel into the adjacent region having the largest number of pixels among the eight neighboring pixels surrounding the target pixel in the range of 3 pixels × 3 pixels centering on the target pixel. It was. When the outer pixel is in contact with a plurality of regions, it belongs to the region with the largest number of pixels in contact. When the number of pixels in the adjacent area was the same, the entire adjacent area was compared and integrated into the maximum area.
Finally, in the feature amount calculating step, statistical information is calculated for each of the divided areas, and is temporarily held. FIG. 3A shows an example of the divided image obtained through the above steps, and Table 2 shows the feature amount. The region dividing step S310, which is a feature of this embodiment, will be described next.

領域分割ステップS310では、原画像データと、初期領域生成ステップS300からの初期領域信号とから、次の処理順序にしたがって領域分割処理を実行する。
先ず、初期領域の各領域毎の全特徴量の平均値の計算を行う。ここでの特徴量とは画素の3つの色情報(三刺激値(X’,Y’,Z’))、及び2つの位置情報(座標(I,J))と、の合計5つの情報である。
次に、原画像データの全画面の各画素毎に、その画素の特徴量が全体的に見てどの領域の特徴量の平均値に最も近いかを、次の評価関数(5)により決定する。
In region division step S310, region division processing is executed in accordance with the following processing order from the original image data and the initial region signal from initial region generation step S300.
First, an average value of all feature values for each area of the initial area is calculated. The feature amount here is a total of five pieces of information including three color information of pixels (tristimulus values (X ′, Y ′, Z ′)) and two pieces of position information (coordinates (I, J)). is there.
Next, for each pixel of the entire screen of the original image data, it is determined by the following evaluation function (5) which region is closest to the average value of the feature amount of the region as a whole. .

Dk_mean
= Kl{ (X’−Xm)2
+(Y’−Ym)2
+(Z’−Zm)2
+Kp{ (I−Im)2
+(J−Jm)2 } ・・・(5)
ただし、
Xm,Ym,Zm:色情報X,Y,Zの各領域での平均値、
Im,Jm :位置情報I,Jの各領域での平均値、
Kl,Kp :係数値であり、全ての特徴量が同程度の範囲とし、
例えば0〜1になるように乗ぜられる、
である。
Dk_mean
= Kl {(X'-Xm) 2
+ (Y′−Ym) 2
+ (Z′−Zm) 2 }
+ Kp {(I-Im) 2
+ (J−Jm) 2 } (5)
However,
Xm, Ym, Zm: average value in each area of the color information X, Y, Z,
Im, Jm: average value in each area of the position information I, J,
Kl, Kp: These are coefficient values, and all feature quantities are in the same range,
For example, it is multiplied to be 0 to 1,
It is.

次に、各画素の特徴量について全ての領域に対して評価関数を求める。求められた評価関数が最も小さくなる領域を最適領域と考え、対象としている画素をその最適領域に含め、領域を新たに構成する。全ての画素について上記の評価関数による最小値探索を行い、領域の再構成を行った後、新しく再構成された領域毎に各特徴量の平均値Xm,Ym,Zm,Im,Jmを再計算する。再び全画素について上記の操作を行う。各領域の平均値Xm,Ym,Zm,Im,Jmが変化しなくなるまで全ての処理を繰り返す。   Next, an evaluation function is obtained for all regions with respect to the feature amount of each pixel. The region where the obtained evaluation function is the smallest is considered as the optimum region, and the target pixel is included in the optimum region, and a region is newly constructed. After performing the minimum value search using the above evaluation function for all the pixels and reconstructing the region, the average values Xm, Ym, Zm, Im, and Jm of each feature amount are recalculated for each newly reconstructed region. To do. The above operation is performed again for all pixels. All processes are repeated until the average values Xm, Ym, Zm, Im, and Jm of each region do not change.

(2−3.識別子付与方法(ステップS250))
ここでは、識別子付与方法に適用される処理方法について触れる。処理は、予め選択された各種データに基づいて、以下のようにして順次実行される
(2-3. Identifier Assignment Method (Step S250))
Here, a processing method applied to the identifier assigning method will be described. Processing, based on the preselected various data, are sequentially performed in the following manner.

まず、撮影情報から得られた光源情報を取得して、これを撮影光源として設定する。撮影された状況にて、様々な光源が想定される。例えば、A光源(タングステン光源)、晴れた日の日影を想定した黒体放射の光源(色温度7,500[K]〜10,000[K]程度)、室内の蛍光灯を想定したF1〜12光源などである。本実施例としては、画像ファイルの撮影情報の光源のタグ名に記録されている光源を読み取り、C光源:6,740[K]をDdstと設定する。 First , light source information obtained from shooting information is acquired and set as a shooting light source. Various light sources are assumed in the situation where the image was taken. For example, A light source (tungsten light source), black body radiation light source assuming a sunny day (color temperature of about 7,500 [K] to 10,000 [K]), F1-12 light source assuming indoor fluorescent lamp, etc. It is. In this embodiment, the light source recorded in the tag name of the light source in the shooting information of the image file is read, and the C light source: 6,740 [K] is set as Ddst.

次に、画像処理装置における目標となる光源の種類を1つ選択して、これを目標光源として設定する。目標光源の例としては、例えば、D55(相対色温度5,500[K])、D65(同6,500[K])などの昼光色や、人工的に作られたシミュレータ光源であるC光源(同6,740[K])などが挙げられる。本実施例としては、モニタの標準信号としてsRGB空間を想定し、光源としてD65光源の6,500[K]、蛍光体の輝度:80cd/m2 における3刺激値XYZDsrcを算出した。算出例を表3に示す。撮影サンプルにはマクベスチャートを用い、これをC光源にて撮影した画像データのRGB値を、D65光源での3刺激値に変換した。算出に用いた式を、以下(6)〜(8)に記す。 Then select one type of light source which is a target in the images processing device, and sets this as the target source. Examples of target light sources include daylight colors such as D55 (relative color temperature 5,500 [K]) and D65 (6,500 [K]), and C light sources (6,740 [K] as artificially created simulator light sources). ]). In this example, an sRGB space is assumed as the standard signal of the monitor, and the tristimulus value XYZ Dsrc at 6,500 [K] of the D65 light source as the light source and the luminance of the phosphor: 80 cd / m 2 is calculated. A calculation example is shown in Table 3. A Macbeth chart was used as a photographing sample, and RGB values of image data photographed with a C light source were converted into tristimulus values with a D65 light source. The formula used for the calculation is shown in the following (6) to (8).

ここで、rsrc ,gsrc ,bsrc ,rdst ,gdst ,bdst は、各光源(src,dst)における錐体の応答値である。
また、[MPitt]は基本原色の色度座標であり、次式(*)で表される。
Here, r src , g src , b src , r dst , g dst , b dst are the response values of the cones in each light source (src, dst).
[M Pitt ] is a chromaticity coordinate of the basic primary color and is represented by the following equation (*).

続いてはじめに設定した撮影光源下での領域推定される画像信号の出力値を該撮影光源下での色の見えに適合させ、3刺激値XYZDdst(前記「2−2.領域分割方法(ステップS240)」のXm、Ym、Zm)を、異なる光源下での色の見えのXYZ’Dsrc(後述する手順(i)〜(v)のXm’、Ym’、Zm’)に変換する。この異なる照明下での色の見えの算出方法は、Von・Kriesモデルを適用する。ここでの算出は、以下(i)〜(v)の手順に従う。
尚、このときの異なる照明下での色の見えには種々のモデル(CIECAM97s,FairChildモデル)適用することが可能である。
Subsequently , the output value of the image signal estimated for the area under the photographing light source set first is adapted to the appearance of the color under the photographing light source, and the tristimulus value XYZ Ddst (see “2-2. Xm, Ym, Zm) of step S240) ”is converted into XYZ ′ Dsrc (Xm ′, Ym ′, Zm ′ of procedures (i) to (v) described later) of the appearance of color under different light sources. A Von · Kries model is applied to this color appearance calculation method under different illumination. The calculation here follows the procedures (i) to (v) below.
It should be noted that various models (CIECAM97s, FairChild model) can be applied to the appearance of color under different illuminations at this time.

手順(i)として、光源Dsrc,Ddst下での基本三刺激値(L0 ,M0 ,S0 )を算出する。なお、基本三刺激値の後に記載した記号は光源情報を示す。このときの算出式は、下式の通りである。
0 = +0.3982・Xm
+0.7040・Ym
−0.0804・Zm,
0 = −0.2268・Xm
+1.1679・Ym
+0.0458・Zm,
0 = +0.08458・Zm
As procedure (i), basic tristimulus values (L 0 , M 0 , S 0 ) under the light sources Dsrc and Ddst are calculated. The symbol described after the basic tristimulus value indicates light source information. The calculation formula at this time is as follows.
L 0 = + 0.3982 · Xm
+0.7040 ・ Ym
−0.0804 · Zm,
M 0 = -0.2268 · Xm
+1.1679 ・ Ym
+ 0.0458 · Zm,
S 0 = + 0.08458 · Zm

手順(ii)として、上記算出した値の比、すなわち、フォン・クリース係数(kL ,kM ,kS )を算出する。このときの算出式は、下式の通りである。
L = Lm,Dsrc/Lm,Ddst
M = Mm,Dsrc/Mm,Ddst
S = Sm,Dsrc/Sm,Ddst
As the procedure (ii), the ratio of the calculated values, that is, the von Kries coefficient (k L , k M , k S ) is calculated. The calculation formula at this time is as follows.
k L = L m, Dsrc / L m, Ddst ,
k M = M m, Dsrc / M m, Ddst ,
k S = S m, Dsrc / S m, Ddst

手順(iii)として、各分割領域の三刺激値(Xm、Ym、Zm)の基本三刺激値(l’,m’,s’)を算出する。このときの算出式は、下式の通りである。
l’= +0.3982・Xm
+0.7040・Ym
−0.0804・Zm,
m’= −0.2268・Xm
+1.1679・Ym
+0.0458・Zm,
s’= +0.08458・Zm
As a procedure (iii), the basic tristimulus values (l ′, m ′, s ′) of the tristimulus values (Xm, Ym, Zm) of each divided region are calculated. The calculation formula at this time is as follows.
l '= + 0.3982 · Xm
+0.7040 ・ Ym
−0.0804 · Zm,
m ′ = − 0.2268 · Xm
+1.1679 ・ Ym
+ 0.0458 · Zm,
s' = +0.08458 ・ Zm

手順(iv)として、順応を含めた基本三刺激値(L’,M’,S’)を算出する。このときの算出式は、下式の通りである。
L’= kL ・l’,
M’= kM ・m’,
S’= kS ・s’
As a procedure (iv), basic tristimulus values (L ′, M ′, S ′) including adaptation are calculated. The calculation formula at this time is as follows.
L '= k L · l' ,
M ′ = k M · m ′,
S '= k S · s'

手順(v)として、上記算出した基本三刺激値より、三刺激値(Xm’, Ym’,Zm’)を算出する。このときの算出式は、下式の通りである。
Xm’= +1.86950・L’
− 1.126900・M’
+0.23873・S’,
Ym’= +0.36304・L’
+ 0.63740・M’
−0.00001・S’,
Zm’= +1.18231・S’
As the procedure (v), the tristimulus value (Xm ′, Ym ′, Zm ′) is calculated. The calculation formula at this time is as follows.
Xm '= +1.86950 ・ L'
− 1.126900 ・ M '
+ 0.23873 · S ',
Ym '= +0.36304 ・ L'
+ 0.63740 ・ M '
-0.00001 · S ',
Zm '= +1.18231 ・ S'

そして前述した三刺激値XYZDsrc値、及び三刺激値XYZ’Dsrcを比較する。最も近いXYZDdst値の識別番号を識別子として付与する(推定情報No)。この際の比較は、次式(9)
ΔD={ (x0−Xm’)2
+(y0−Ym’)2
+(z0−Zm’)2 0.5 ・・・(9)
に示す色空間における相対距離ΔDなどが挙げられる。
なお、予め記憶部に保持された記憶色の色情報を含む有彩色を含む色情報の例としては、上記のマンセル色票以外の公知の情報を用いることが可能であり、例えば、マクベスカラーチェッカー、CIE13.3で規定される分光反射率色票、SOCS(JIS-TR X 0012、色再現評価用標準物体色分光データベース(SOCS)(1998))で規定される分光反射率色票などが挙げられる。
Then , the above-described tristimulus value XYZ Dsrc value and tristimulus value XYZ ′ Dsrc are compared. The identification number of the closest XYZ Ddst value is assigned as an identifier (estimation information No). The comparison at this time is as follows:
ΔD = {(x0−Xm ′) 2
+ (Y0−Ym ′) 2
+ (Z0−Zm ′) 2 } 0.5 (9)
The relative distance ΔD in the color space shown in FIG.
In addition, as an example of color information including chromatic colors including color information of memory colors stored in the storage unit in advance, publicly known information other than the above Munsell color chart can be used. For example, Macbeth Color Checker Spectral reflectance color charts defined by CIE 13.3, spectral reflectance color charts defined by SOCS (JIS-TR X 0012, Standard Object Color Spectroscopy Database for Color Reproduction Evaluation (SOCS) (1998)), etc. It is done.

また原画像データの特徴量として、各分割領域ごとの物理量を算出する。このときの算出式としては、次式(10),(11)などを例示することができる。
s(t)={Pix(t)/height・ width}・・・(10),
Φ(t)={l(t)}2/{s(t)・4π} ・・・(11)
ただし、
s(t) :領域(t)の全画像に占める面積率[%]
l(t) :領域(t)の周囲長[pix]
Pix(t):領域(t)に属する画素数[pix]
height:原画像データの高さ[pix]
width :原画像データの幅[pix]
である。
以上の処理を操作を経ることで、表2の列「識別子」の欄、およびその領域の特徴量を記載したテーブルを得ることができる。
Also, a physical quantity for each divided area is calculated as a feature quantity of the original image data. As the calculation formula at this time, the following formulas (10) and (11) can be exemplified.
s (t) = {Pix (t) / height · width} (10),
Φ (t) = {l (t)} 2 / {s (t) · 4π} (11)
However,
s (t): Area ratio [%] in the entire image of the region (t)
l (t): Perimeter of area (t) [pix]
Pix (t): Number of pixels belonging to region (t) [pix]
height: height of original image data [pix]
width: width of original image data [pix]
It is.
By performing the above processing, it is possible to obtain a table in which the column “identifier” in Table 2 and the feature amount of the region are described.

(2−4.平滑化処理方法(ステップS280))
上記領域分割、識別子の付与情報、および撮影情報とに応じて平滑化処理を施す。以下にその詳細を記す。
本実施例では、原画像データ図2−(a)に対して、撮影情報、および画像領域の統計情報データ(表2)を用いて、平滑化処理を適用した例について説明する。得られる平滑処理後の画像を図3−(b)に示した。この平滑化処理を施す分割領域は表2の中で、記憶色であり、かつ画像を占める面積が最も大きい(a)領域に対して平滑化を施す。この平滑化のフィルタのしきい値算出方法について、その詳細を以下に示す。
(2-4. Smoothing processing method (step S280))
A smoothing process is performed in accordance with the region division, identifier assignment information, and shooting information. The details are described below.
In the present embodiment, an example in which smoothing processing is applied to the original image data FIG. 2A using the shooting information and the statistical information data of the image area (Table 2) will be described. The resulting smoothed image is shown in FIG. The divided regions to be subjected to the smoothing process are smoothed for the region (a) having the largest memory area and the largest area in the image in Table 2. Details of the smoothing filter threshold value calculation method will be described below.

Exif情報の撮影モードとシャッタースピードから、平滑化フィルタのしきい値を算出する。本実施例においては、シャッタースピードに対するしきい値を設定する。
画像ファイルの撮影条件は、シャッタースピードに対して平滑化フィルタのしきい値THRを次式(12)により算出する。
THR=f(B,S.speed) ・・・(12)
ただし、
S.speed:シャッタースピード
B :Bデータ
である。
The threshold value of the smoothing filter is calculated from the shooting mode of the Exif information and the shutter speed. In this embodiment, a threshold value for the shutter speed is set.
As the image file photographing condition, the threshold THR of the smoothing filter is calculated by the following equation (12) with respect to the shutter speed.
THR = f (B, S. speed) (12)
However,
S. speed: shutter speed B: B data.

式(12)の独立変数のBデータの値、およびシャッタースピードはそれぞれ、0〜255、1/10〜1/5,000程度の範囲を取り得るので、これらを用いたしきい値THRの値は、単純な除算で表した場合には、およそ101 〜104 オーダーの値を取る。また、このときの算出式には、APEX(Additive System of Photographic Exposure)なる単位を用いて算出することも好適である。APEXとシャッタースピードとの関係は、基本的に次式(**)の関係からなっている。
Ev = Av+S.speed(Tv)
= Bv+Sv ・・・(**)
ここで、
Av:絞り値,
Bv:輝度値,
Sv:ISO感度
である。
なお、式(12)で示したように、これらの独立変数を用いたしきい値THRの算出には、撮影モードに応じた線形の直線式、非線形な多項式等を用いることも可能である。更に、このしきい値の算出法は予め、画像ファイルに固定値をテーブル形式で保有することも好適である。
Since the value of the B data of the independent variable of equation (12) and the shutter speed can each be in the range of about 0 to 255, 1/10 to 1 / 5,000, the value of the threshold value THR using these values is In the case of simple division, a value on the order of 10 1 to 10 4 is taken. In addition, it is also preferable that the calculation formula at this time is calculated using a unit of APEX (Additive System of Photographic Exposure). The relationship between APEX and shutter speed is basically the relationship of the following formula (**).
Ev = Av + S. speed (Tv)
= Bv + Sv (**)
here,
Av: Aperture value,
Bv: luminance value,
Sv: ISO sensitivity.
Note that, as shown by the equation (12), for calculating the threshold value THR using these independent variables, it is possible to use a linear linear equation, a nonlinear polynomial, or the like corresponding to the photographing mode. Furthermore, it is also preferable that this threshold value calculation method stores in advance a fixed value in an image file in a table format.

以上の処理方法に従えば、先に説明した電子カメラによって生成された画像ファイル100の原画像データにノイズを含まず、高画質化を達成でき、更に、記憶色の再現に優れる処理を施した画像を出力することが可能である。
なお、本実施例では、パーソナルコンピュータ11にて画像処理を施し、カラープリンタ13においては画像処理を実施しない形態を例示した。この動作は、コンピュータのハードディスク等にインストールされている、レタッチアプリケーション、プリンタドライバといった画像データ処理アプリケーション(プログラム)に、本実施例で説明した画像処理機能を持たせることによって実現される。
According to the above processing method, the original image data of the image file 100 generated by the electronic camera described above does not contain noise, can achieve high image quality, and is subjected to processing excellent in reproducing the memory color. It is possible to output an image.
In this embodiment, the personal computer 11 performs image processing and the color printer 13 does not perform image processing. This operation is realized by providing the image processing function described in this embodiment to an image data processing application (program) such as a retouch application or a printer driver installed in a hard disk of a computer.

また、他の実施例として、全ての画像処理をカラープリンタ13にて実行することも可能である。あるいは、一部をコンピュータ上、あるいは、ネットワークを介したサーバ上で実行するようにしても良い。電子カメラ11にて生成された画像ファイル100は、メモリカードを介してプリンタに直接データを提供する形態も可能である。   As another embodiment, all image processing can be executed by the color printer 13. Alternatively, a part may be executed on a computer or a server via a network. The image file 100 generated by the electronic camera 11 may be in the form of providing data directly to the printer via a memory card.

(実施例3の概要)
実施例3は、図1の装置構成からなる画像処理システム構成において、電子カメラ11にて撮像された原画像データをパーソナルコンピュータ12にて本発明に係る画像処理を施し、カラープリンタ13で出力する形態についての説明である。
本実施例において、画像処理システムと画像処理方法、原画像データの分割方法とについては、前実施例と同様であるため、その説明を省略する。
(Overview of Example 3)
In the third embodiment, in the image processing system configuration having the apparatus configuration of FIG. 1, the original image data captured by the electronic camera 11 is subjected to image processing according to the present invention by the personal computer 12 and output by the color printer 13. It is description about a form.
In the present embodiment, the image processing system, the image processing method, and the original image data dividing method are the same as those in the previous embodiment, and thus the description thereof is omitted.

図11は、本発明における原画像データを示す図である。
本実施例にて適用した原画像データは図11−(a)であり、撮影情報の撮影モードである「夜景モード」を抽出し、背景領域である領域の中で画像のテクスチャ度が低い領域である空領域(A)、(B)、(C)、及び(D)に対して、撮影情報から算出したしきい値に応じた平滑化を施す実施例である。
ここでは、識別子付与方法に適用される処理方法について触れる。処理は、予め選択された各種データに基づいて、以下のようにして順次実行される
FIG. 11 is a diagram showing original image data in the present invention.
The original image data applied in the present embodiment is shown in FIG. 11- (a), in which the “night scene mode” that is the shooting mode of the shooting information is extracted, and the area where the image texture level is low in the area that is the background area This is an example in which smoothing is performed on the empty areas (A), (B), (C), and (D) according to the threshold value calculated from the photographing information.
Here, a processing method applied to the identifier assigning method will be described. Processing, based on the preselected various data, are sequentially performed in the following manner.

(3−1.識別子付与方法)
まず、撮影情報から得られた光源情報を取得して、これを撮影光源として設定する。撮影された状況にて、様々な光源が想定される。例えば、A光源(タングステン光源)、晴れた日の日陰を想定した黒体放射の光源(色温度7,500〜10,000[K]程度)、室内の蛍光灯を想定したF1〜12光源などである。
本実施例としては、画像ファイルの撮影情報の光源のタグ名に記録されている光源を読取り、フラッシュ光源:7,000[K]をDdstと設定する。
(3-1. Identifier assignment method)
First , light source information obtained from shooting information is acquired and set as a shooting light source. Various light sources are assumed in the situation where the image was taken. For example, there are an A light source (tungsten light source), a black body radiation light source assuming a shade on a sunny day (color temperature of about 7,500 to 10,000 [K]), an F1 to 12 light source assuming an indoor fluorescent lamp, and the like.
In this embodiment, the light source recorded in the tag name of the light source in the shooting information of the image file is read, and the flash light source: 7,000 [K] is set as Ddst.

次に、画像処理装置における目標となる光源の種類を一つ選択して、これを目標光源として設定する。目標光源の例としては、例えば、D55(相対色温度5,500[K])、D65(同6,500[K])などの昼光色や、人工的に作られたシミュレータ光源であるC光源(同6,740[K])などが挙げられる。本実施例としては、モニタの標準信号としてsRGB空間を想定し、光源としてD65光源の6,500[K]、蛍光体の輝度:80cd/m2 におけるマンセル色票(マンセルブック)の3刺激値XYZDsrcを算出した。算出例を前記表3に示す。 Next , one type of target light source in the image processing apparatus is selected and set as a target light source. Examples of target light sources include daylight colors such as D55 (relative color temperature 5,500 [K]) and D65 (6,500 [K]), and C light sources (6,740 [K] as artificially created simulator light sources). ]). In the present embodiment, an sRGB space is assumed as a standard signal of the monitor, the tristimulus value XYZ Dsrc of the Munsell color chart (Munsell book) at 6,500 [K] of the D65 light source as the light source and the luminance of the phosphor: 80 cd / m 2 . Was calculated. An example of calculation is shown in Table 3 above.

続いてはじめに設定した撮影光源下での領域推定される画像信号の出力値を該撮影光源下での色の見えに適合させ、3刺激値XYZDdst(前記「2−2.領域分割方法(ステップS240)」のXm、Ym、Zm)を、異なる光源下での色の見えのXYZ’Dsrc(前記手順(i)〜(v)のXm’、Ym’、Zm’)に変換する。この異なる照明下での色の見えの算出方法は、Von・Kriesモデルを適用する。ここでの算出は、前記手順(i)〜(v)に従う。
なお、このときの異なる照明下での色の見えには種々のモデル(CIECAM97s,FairChildモデル)適用することが可能である。なお、本算出法は、実施例1と同様であるためその説明を省略する。
Subsequently , the output value of the image signal estimated for the area under the photographing light source set first is adapted to the appearance of the color under the photographing light source, and the tristimulus value XYZ Ddst (see “2-2. Xm, Ym, Zm) of step S240) ”is converted into XYZ ′ Dsrc (Xm ′, Ym ′, Zm ′ of the procedures (i) to (v)) of color appearance under different light sources. A Von · Kries model is applied to this color appearance calculation method under different illumination. The calculation here follows the procedures (i) to (v).
Note that various models (CIECAM97s, FairChild model) can be applied to the color appearance under different illuminations at this time. Since this calculation method is the same as that of the first embodiment, the description thereof is omitted.

そして前述した三刺激値XYZDsrc値、及び三刺激値XYZ’Dsrcを比較する。最も近いXYZDdst値の識別番号を識別子として付与する(推定情報No)。この際の比較は、前出の(9)式に示す色空間における相対距離:ΔDなどが挙げられる。
なお、予め記憶部に保持された記憶色の色情報を含む有彩色を含む色情報の例としては、上記のマンセル色票以外の公知の情報を用いることが可能であり、例えば、マクベスカラーチェッカー、CIE13.3で規定される分光反射率色票、SOCS(JIS-TR X 0012、色再現評価用標準物体色分光データベース(SOCS)(1998))で規定される分光反射率色票などが挙げられる。また原画像データの特徴量として、各分割領域ごとの物理量を算出する。このときの算出式としては、前述の式(10)、(11)などを例示することができる。
Then , the above-described tristimulus value XYZ Dsrc value and tristimulus value XYZ ′ Dsrc are compared. The identification number of the closest XYZ Ddst value is assigned as an identifier (estimation information No). The comparison at this time includes the relative distance ΔD in the color space shown in the above equation (9).
In addition, as an example of color information including chromatic colors including color information of memory colors stored in the storage unit in advance, publicly known information other than the above Munsell color chart can be used. For example, Macbeth Color Checker Spectral reflectance color charts defined by CIE 13.3, spectral reflectance color charts defined by SOCS (JIS-TR X 0012, Standard Object Color Spectroscopy Database for Color Reproduction Evaluation (SOCS) (1998)), etc. It is done. Also, a physical quantity for each divided area is calculated as a feature quantity of the original image data. Examples of the calculation formula at this time include the above-described formulas (10) and (11).

またここでは、原画像データの特徴量として、ある要素パターンを繰返すことにより生成される、所謂、テクスチャ部分の知覚量を演算する方法について記載する。
はじめに、原画像データのYデータを、図12−(a)のラプラシアン演算子で微分し、得られたデータをしきい値Tにて量子化する。このしきい値Tは、式(13)が挙げられる。
次いで、得られた2次微分画像データに図12−(b)の9×9[画素]の非線形演算子を作用させ、部分窓数を算出する。このようにして算出された値が、テクスチャ度ε(t)[%]である。前記部分窓数算出処理を分割した領域の全範囲に適用し、テクスチャ量σ(t)を、式(14)にて算出する。以上の処理を経ることで、表4の列「識別子」の欄、およびその領域の特徴量を記載したテーブルを得ることができる。
T= (微分値のモード値)
+(微分値の標準偏差)×1.4 ・・・(13),
σ(t)=Σ{ε(t)} ・・・(14)
Here, a method for calculating a so-called texture amount perception amount generated by repeating a certain element pattern as a feature amount of original image data will be described.
First, the Y data of the original image data is differentiated by the Laplacian operator of FIG. 12A, and the obtained data is quantized by the threshold value T. As this threshold value T, the equation (13) can be cited.
Next, the number of partial windows is calculated by applying the 9 × 9 [pixel] nonlinear operator of FIG. 12- (b) to the obtained secondary differential image data. The value calculated in this way is the texture degree ε (t) [%]. The partial window number calculation process is applied to the entire range of the divided area, and the texture amount σ (t) is calculated by Expression (14). Through the above processing, it is possible to obtain a table in which the column “identifier” in Table 4 and the feature amount of the region are described.
T = (Mode value of differential value)
+ (Standard deviation of differential value) × 1.4 (13),
σ (t) = Σ {ε (t)} (14)

(3−2.平滑化処理方法)
上記領域分割、識別子の付与情報、および撮影情報とに応じて平滑化処理を施す。以下にその詳細を記す。
本実施例では、原画像データ図11−(a)に対して、撮影情報、および画像領域の統計情報データ(表4参照)を用いて、平滑化処理を適用した例について説明する。
なお、平滑化フィルタについては、本実施例2と同様であるため説明は省略し、以下ではそのしきい値THRについての説明を記する。
(3-2. Smoothing processing method)
A smoothing process is performed in accordance with the region division, identifier assignment information, and shooting information. The details are described below.
In this embodiment, an example will be described in which smoothing processing is applied to original image data FIG. 11- (a) using shooting information and statistical information data of an image area (see Table 4).
Since the smoothing filter is the same as that of the second embodiment, the description thereof will be omitted, and the threshold value THR will be described below.

Exif情報の撮影モードとISO感度、および画像の特徴量とから、平滑化フィルタのしきい値を算出する。本実施例においては、ISO感度と画像のテクスチャ量に対するしきい値を設定する。
しきい値THRは、式(15)により算出する。
THR = f(B,I.Sensitivity)
+g(B,σ(t)) ・・・(15)
ただし、
I.Sensitivity:ISO感度
B :Bデータ
σ(t):テクスチャ量[%]
である。
The threshold value of the smoothing filter is calculated from the shooting mode of the Exif information, the ISO sensitivity, and the feature amount of the image. In this embodiment, threshold values for ISO sensitivity and image texture amount are set.
The threshold value THR is calculated by equation (15).
THR = f (B, I. Sensitivity)
+ G (B, σ (t)) (15)
However,
I. Sensitivity: ISO sensitivity B: B data σ (t): Texture amount [%]
It is.

式(15)の独立変数のBデータの値、およびISO感度はそれぞれ、0〜255、100〜1,600程度の範囲を取り得るので、テクスチャ量が、5%までの範囲をとり得るとすると、これらを用いたしきい値THRの値は、単純な除算で表した場合には、第1項はおよそ2・10-1〜2・103 、第2項はおよそ2・10-3〜2・10-1オーダーの値を取る。また、このときの算出式には、APEX(Additive System of Photographic Exposure)なる単位を用いて算出することも好適である。APEXとISO感度との関係は、基本的に次の関係(***)からなっている。
Ev = Av+Tv
= Bv+I.Sensitivity(Sv) ・・・(***)
ここで、
Av:絞り値,
Tv:シャッタースピード,
Bv:輝度値
である。
なお、式(14)で示したように、これらの独立変数を用いたしきい値の算出には、撮影モードに応じた線形の直線式、非線形な多項式等を用いることも可能である。さらに、このしきい値の算出法は予め、画像ファイルに固定値をテーブル形式で保有することも好適である。
Since the value of the B data of the independent variable of Formula (15) and the ISO sensitivity can be in the range of about 0 to 255 and 100 to 1,600, respectively, it is assumed that the texture amount can take the range of up to 5%. When the threshold value THR using these is expressed by simple division, the first term is approximately 2 · 10 −1 to 2 · 10 3 , and the second term is approximately 2 · 10 −3 to 2 -Take a value of 10 -1 order. In addition, it is also preferable that the calculation formula at this time is calculated using a unit of APEX (Additive System of Photographic Exposure). The relationship between APEX and ISO sensitivity basically consists of the following relationship (***).
Ev = Av + Tv
= Bv + I. Sensitivity (Sv) (***)
here,
Av: Aperture value,
Tv: Shutter speed,
Bv: a luminance value.
Note that, as shown in the equation (14), for calculating the threshold value using these independent variables, a linear linear equation, a nonlinear polynomial, or the like corresponding to the photographing mode can be used. Furthermore, it is also preferable that the threshold value calculation method stores in advance a fixed value in an image file in a table format.

以上の処理方法に従えば、先に説明した電子カメラによって生成された画像ファイル100の原画像データにノイズを含まず、高画質化を達成でき、さらに記憶色の再現に優れる処理を施した画像を出力することができる。
なお上記実施例では、パーソナルコンピュータ11にて画像処理を施し、カラープリンタ13においては画像処理を実施しない形態を例示した。この動作は、コンピュータのハードディスク等にインストールされている、レタッチアプリケーション、プリンタドライバといった画像データ処理アプリケーション(プログラム)に、本実施例で説明した画像処理機能を持たせることによって実現される。
According to the above processing method, the original image data of the image file 100 generated by the electronic camera described above does not contain noise, can achieve high image quality, and is subjected to processing that is excellent in reproducing the memory color. Can be output.
In the above embodiment, the personal computer 11 performs image processing and the color printer 13 does not perform image processing. This operation is realized by providing the image processing function described in this embodiment to an image data processing application (program) such as a retouch application or a printer driver installed in a hard disk of a computer.

また、他の実施例として、全ての画像処理をカラープリンタ13にて実行することも可能である。あるいは、一部をコンピュータ上、あるいは、ネットワークを介したサーバ上で実行するようにしても良い。電子カメラ11にて生成された画像ファイル100は、メモリカードを介してプリンタに直接データを提供する形態も可能である。   As another embodiment, all image processing can be executed by the color printer 13. Alternatively, a part may be executed on a computer or a server via a network. The image file 100 generated by the electronic camera 11 may be in the form of providing data directly to the printer via a memory card.

(実施例4の概要)
本実施例は、図13の装置構成からなる画像処理システム構成において、電子カメラにて撮像された原画像データを、無線LANを介して接続されたカラープリンタに送信し、直接出力する形態についての説明である。
本実施例において、画像処理システムと画像処理方法、原画像データの分割方法と、前記分割された原画像データの各領域に対して識別子を付与する方法については、前実施例と同様であるため、その説明を省略する。
また、実施例として適用した原画像データは図14−(a)であり、撮影情報の撮影モードが「風景モード」であり、かつ入力画像データおよび出力画像データの大きさに応じて、記憶色領域である空領域(A)に適切な平滑化を施す実施例である。
(Summary of Example 4)
In this embodiment, in the image processing system configuration including the apparatus configuration of FIG. 13, original image data captured by an electronic camera is transmitted to a color printer connected via a wireless LAN and directly output. It is an explanation.
In the present embodiment, the image processing system, the image processing method, the original image data dividing method, and the method for assigning an identifier to each area of the divided original image data are the same as in the previous embodiment. The description is omitted.
Also, the original image data applied as an example is shown in FIG. 14- (a), the shooting mode of the shooting information is “landscape mode”, and the memory color is set according to the sizes of the input image data and the output image data. This is an embodiment in which appropriate smoothing is applied to the empty area (A), which is an area.

以下、本発明の実施の形態について、実施例に基づき説明する。
なお、画像ファイルの生成、および画像ファイルの構成については、実施例1と同様であるため、説明を省略する。
Hereinafter, embodiments of the present invention will be described based on examples.
Note that the generation of the image file and the configuration of the image file are the same as those in the first embodiment, and thus description thereof is omitted.

(4−1.画像処理システムの構成)
図13は、本発明における画像処理システムの概略構成を示す図である。
本実施例の画像処理システム10は、画像ファイル生成装置としての電子カメラ11と、画像処理装置および画像出力装置としてカラープリンタ13とから構成される。
電子カメラ11は、種々の撮影情報を設定できる。撮影情報とは、シャッタースピードや、露出や、絞りなど、原画像データの取得条件を意味する。電子カメラ11は、撮影者が設定した撮影条件で撮影(原画像データ生成)を行い、画像データと撮影情報とを一体的に備える画像ファイルを生成する。生成した画像ファイルは記録媒体(例えば、メモリカード)に格納される。
カラープリンタ13は、画像ファイルを取得後、画像領域分割、識別子付与、平滑化処理、そして最後に出力処理を行う。電子カメラ11からカラープリンタ13への画像ファイルの送信は、LAN,USBケーブルなどのインターフェイスを介しても良いし、無線LANなどにより直接データを送信することも可能である。このときのカラープリンタの出力動作については、公知の出力形式を適用することができる。
(4-1. Configuration of image processing system)
FIG. 13 is a diagram showing a schematic configuration of an image processing system according to the present invention.
The image processing system 10 of this embodiment includes an electronic camera 11 as an image file generation device, and a color printer 13 as an image processing device and an image output device.
The electronic camera 11 can set various shooting information. Shooting information means acquisition conditions of original image data such as shutter speed, exposure, and aperture. The electronic camera 11 performs shooting (original image data generation) under shooting conditions set by the photographer, and generates an image file that integrally includes image data and shooting information. The generated image file is stored in a recording medium (for example, a memory card).
After obtaining the image file, the color printer 13 performs image region division, identifier assignment, smoothing processing, and finally output processing. The image file can be transmitted from the electronic camera 11 to the color printer 13 via an interface such as a LAN or USB cable, or data can be directly transmitted via a wireless LAN or the like. A known output format can be applied to the output operation of the color printer at this time.

(4−2.識別子付与方法)
以下に、識別子付与方法に適用される最適化方法について触れた後、識別子付与方法を説明する。最適化処理は、予め選択された各種データに基づき、実行される。最適化処理においては、予め最適化に必要な各種データを選択する。
まず、撮影情報から得られた光源情報を取得して、これを撮影光源として設定する。撮影された状況にて、様々な光源が想定される。例えば、A光源(タングステン光源)、晴れた日の日陰を想定した黒体放射の光源(色温度7,500〜10,000[K]程度)、室内の蛍光灯を想定したF1〜12光源などである。
本実施例としては、画像ファイルの撮影情報の光源のタグ名に記録されている光源を読取り、B光源:4,870[K]をDdstと設定する。
(4-2. Identifier assignment method)
Below, after mentioning the optimization method applied to the identifier assigning method, the identifier assigning method will be described. The optimization process is executed based on various data selected in advance. In the optimization process, various data necessary for optimization are selected in advance.
First , light source information obtained from shooting information is acquired and set as a shooting light source. Various light sources are assumed in the situation where the image was taken. For example, there are an A light source (tungsten light source), a black body radiation light source assuming a shade on a sunny day (color temperature of about 7,500 to 10,000 [K]), an F1 to 12 light source assuming an indoor fluorescent lamp, and the like.
In this embodiment, the light source recorded in the tag name of the light source in the shooting information of the image file is read, and the B light source: 4,870 [K] is set as Ddst.

次に、画像処理装置における目標となる光源の種類を一つ選択して、これを目標光源として設定する。目標光源の例としては、例えば、D55(相対色温度5,500[K])、D65(同6,500[K])などの昼光色や、人工的に作られたシミュレータ光源であるC光源(同6,740[K])などが挙げられる。
本実施例としては、モニタの標準信号としてsRGB空間を想定し、光源としてD65光源の6,500[K]、蛍光体の輝度:80cd/m2 におけるマンセル色票(マンセルブック)の3刺激値XYZDsrcを算出した。算出例を前記表3に示す。
Next , one type of target light source in the image processing apparatus is selected and set as a target light source. Examples of target light sources include daylight colors such as D55 (relative color temperature 5,500 [K]) and D65 (6,500 [K]), and C light sources (6,740 [K] as artificially created simulator light sources). ]).
In the present embodiment, an sRGB space is assumed as a standard signal of the monitor, the tristimulus value XYZ Dsrc of the Munsell color chart (Munsell book) at 6,500 [K] of the D65 light source as the light source and the luminance of the phosphor: 80 cd / m 2 . Was calculated. An example of calculation is shown in Table 3 above.

続いてはじめに設定した撮影光源下での領域推定される画像信号の出力値を該撮影光源下での色の見えに適合させ、3刺激値XYZDdst(前記「2−2.領域分割方法(ステップS240)」のXm、Ym、Zm)を、異なる光源下での色の見えのXYZ’Dsrc(前記手順(i)〜(v)のXm’、Ym’、Zm’)に変換する。この異なる照明下での色の見えの算出方法は、Von・Kriesモデルを適用する。ここでの算出は、前記手順(i)〜(v)に従う。
なお、このときの異なる照明下での色の見えには種々のモデル(CIECAM97s,FairChildモデル)適用することが可能である。なお、本算出法は、実施例1と同様であるためその説明を省略する。
Subsequently , the output value of the image signal estimated for the area under the photographing light source set first is adapted to the appearance of the color under the photographing light source, and the tristimulus value XYZ Ddst (see “2-2. Xm, Ym, Zm) of step S240) ”is converted into XYZ ′ Dsrc (Xm ′, Ym ′, Zm ′ of the procedures (i) to (v)) of color appearance under different light sources. A Von · Kries model is applied to this color appearance calculation method under different illumination. The calculation here follows the procedures (i) to (v).
Note that various models (CIECAM97s, FairChild model) can be applied to the color appearance under different illuminations at this time. Since this calculation method is the same as that of the first embodiment, the description thereof is omitted.

そして前述した三刺激値XYZDsrc値、及び三刺激値XYZ’Dsrcを比較する。最も近いXYZDdst値の識別番号を識別子として付与する(推定情報No)。この際の比較は、前述の式(9)に示す色空間における相対距離:ΔDなどが挙げられる。
なお、予め記憶部に保持された記憶色の色情報を含む有彩色を含む色情報の例としては、上記のマンセル色票以外の公知の情報を用いることが可能であり、例えば、マクベスカラーチェッカー、CIE13.3で規定される分光反射率色票、SOCS(JIS-TR X 0012、色再現評価用標準物体色分光データベース(SOCS)(1998))で規定される分光反射率色票などが挙げられる。また、原画像データの特徴量として、各分割領域ごとの物理量を算出する。このときの算出式としては、前述の式(10)、(11)、あるいは実施例2におけるテクスチャ量などを例示することができる。
以上の処理を操作を経ることで、表5の列「識別子」の欄、およびその領域の特徴量を記載したテーブルを得ることができる。
Then , the above-described tristimulus value XYZ Dsrc value and tristimulus value XYZ ′ Dsrc are compared. The identification number of the closest XYZ Ddst value is assigned as an identifier (estimation information No). The comparison at this time includes the relative distance ΔD in the color space shown in the above formula (9).
In addition, as an example of color information including chromatic colors including color information of memory colors stored in the storage unit in advance, publicly known information other than the above Munsell color chart can be used. For example, Macbeth Color Checker Spectral reflectance color charts defined by CIE 13.3, spectral reflectance color charts defined by SOCS (JIS-TR X 0012, Standard Object Color Spectroscopy Database for Color Reproduction Evaluation (SOCS) (1998)), etc. It is done. Also, a physical quantity for each divided area is calculated as a feature quantity of the original image data. As a calculation formula at this time, the above-described formulas (10) and (11), the texture amount in the second embodiment, and the like can be exemplified.
By performing the above processing, it is possible to obtain a table in which the column “identifier” in Table 5 and the feature amount of the region are described.

上記、領域分割、識別子の付与情報、および撮影情報とに応じて平滑化処理を施す。以下にその詳細を記す。本実施例では、原画像データ図14−(a)に対して、撮影情報、および画像領域の統計情報データを用いて、平滑化処理を適用した例について説明する。
なお、平滑化フィルタについては、本実施例1と同様であるため説明は省略し、以下ではそのしきい値THRについての説明を記述する。
A smoothing process is performed in accordance with the region division, identifier assignment information, and shooting information. The details are described below. In the present embodiment, an example will be described in which smoothing processing is applied to original image data FIG. 14- (a) using shooting information and statistical information data of image areas.
Since the smoothing filter is the same as that of the first embodiment, the description thereof will be omitted, and the description of the threshold value THR will be described below.

(しきい値の取得方法)
Exif情報の撮影モード、シャッタースピード、画像の特徴量、および印刷設定とから平滑化フィルタのしきい値を算出する。しきい値THRの算出方法としては、次式(16)などを例示することができる。
THR = f(B,S.speed)
+h(O.size/I.size)・・・(16)
ただし、
S.speed:シャッタースピード
B :Bデータ
O.size :出力サイズ
I.size :入力サイズ
である。
(Threshold acquisition method)
The smoothing filter threshold value is calculated from the Exif information shooting mode, shutter speed, image feature amount, and print settings. As a method for calculating the threshold value THR, the following equation (16) can be exemplified.
THR = f (B, S.speed)
+ H (O.size / I.size) (16)
However,
S. speed: Shutter speed B: B data O.D. size: output size size: Input size.

(16)式の独立変数のBデータの値、およびシャッタースピードのとり得る範囲は実施例1と同様であり、説明は割愛する。ここで、これらを用いたしきい値THRの値は、単純な除算で表した場合には、第1項はおよそ101 〜104 、第2項はおよそ10-2〜102 オーダーの値を取る。また、このときの算出式には、APEX(Additive System of Photographic Exposure)なる単位を用いて算出することも好適である。APEXとISO感度との関係は、基本的に次の関係(****)からなっている。
Ev = Av+Tv
= Bv+I.Sensitivity(Sv)・・・(****)
ここで、
Av:絞り値,
Tv:シャッタースピード,
Bv:輝度値
である。
なお、式(16)で示したように、これらの独立変数を用いたしきい値の算出には、撮影モードに応じた線形の直線式、非線形な多項式等を用いることも可能である。さらに、このしきい値の算出法は予め、画像ファイルに固定値をテーブル形式で保有することも好適である。
The value of the B data of the independent variable of the equation (16) and the range that the shutter speed can take are the same as those in the first embodiment, and the description is omitted. Here, when the threshold value THR using these is expressed by simple division, the first term has a value of about 10 1 to 10 4 , and the second term has a value of about 10 −2 to 10 2. take. In addition, it is also preferable that the calculation formula at this time is calculated using a unit of APEX (Additive System of Photographic Exposure). The relationship between APEX and ISO sensitivity basically consists of the following relationship (***).
Ev = Av + Tv
= Bv + I. Sensitivity (Sv) ... (***)
here,
Av: Aperture value,
Tv: Shutter speed,
Bv: a luminance value.
Note that, as shown by the equation (16), for calculating the threshold value using these independent variables, a linear linear equation, a nonlinear polynomial, or the like corresponding to the shooting mode can be used. Furthermore, it is also preferable that the threshold value calculation method stores in advance a fixed value in an image file in a table format.

以上の処理方法に従えば、先に説明した電子カメラ11によって生成された画像ファイル100の原画像データにノイズを含まず、高画質化を達成でき、さらに記憶色の再現に優れる処理を施した画像を出力することができる。
なお、上記実施例では、カラープリンタ13にて画像処理を施す形態を例示した。この動作は、予めプリンタのROM等の記憶領域に画像データ処理アプリケーション(プログラム)に、本実施例で説明した画像処理機能を持たせることによって実現される。
また、他の実施例として、実施例1と同様の形態、すなわち、画増処理をパーソナルコンピュータ11にて、適宜処理を施し、カラープリンタは出力処理のみを実行する形態も挙げられる。
According to the above processing method, the original image data of the image file 100 generated by the electronic camera 11 described above does not contain noise, can achieve high image quality, and is subjected to processing excellent in reproducing the memory color. An image can be output.
In the above embodiment, the color printer 13 performs image processing. This operation is realized in advance by providing the image data processing application (program) with the image processing function described in this embodiment in a storage area such as the ROM of the printer.
Further, as another embodiment, there is a form similar to that of the first embodiment, that is, a form in which the image enlargement process is appropriately performed by the personal computer 11 and the color printer performs only the output process.

(効果)
以上の説明から明らかなように、原画像データと撮影情報より構成される画像ファイルから出力用画像データを生成する画像生成工程と、前記画像生成工程にて、前記撮影情報の光源情報及び感度情報に基づいた平滑化処理を施す平滑化工程とを有することにより、ノイズを軽減しつつ、高感度な画像ファイルを生成することが可能となる。
(effect)
As is clear from the above description, an image generation step of generating output image data from an image file composed of original image data and shooting information, and light source information and sensitivity information of the shooting information in the image generation step With the smoothing process for performing the smoothing process based on the above, it is possible to generate a highly sensitive image file while reducing noise.

また、前記平滑化工程は、原画像データの画像特徴量を算出する算出工程と、前記画像の特徴量に基づいて、ノイズ除去フィルタのしきい値を演算する演算工程と、前記演算結果に基づいて平滑化を施すこと第2の平滑化工程とを有することにより、ノイズを軽減しつつ、高感度な画像ファイルを生成することが可能となる。   Further, the smoothing step includes a calculation step of calculating an image feature amount of the original image data, a calculation step of calculating a threshold value of a noise removal filter based on the feature amount of the image, and the calculation result. By providing the second smoothing step, it is possible to generate a highly sensitive image file while reducing noise.

また、前記算出工程は、前記原画像データを分割する分割工程と、前記分割領域に対して、原画像データの色情報(3刺激値)の重心値、再頻値、標準偏差、などの統計量、あるいは面積率、テクスチャ度等の物理量を少なくとも1つ算出する第2の算出工程とを有することにより、画像の特性に応じて、適切な平滑化処理を施すことが可能となる。   In addition, the calculation step includes a division step of dividing the original image data, and statistics such as a centroid value, frequency value, and standard deviation of color information (tristimulus values) of the original image data for the divided region. By having a second calculation step that calculates at least one physical quantity such as the quantity, area ratio, and texture level, it becomes possible to perform an appropriate smoothing process according to the characteristics of the image.

また、前記演算工程は、前記原画像データの統計量、物理量に基き優先順位を決定する決定工程と、前記分割した分割領域に対して、撮影情報と予め記憶した記憶色に関する色情報とから識別子を付与する付与工程と、前記決定工程及び前記付与工程の結果より重視する分割領域を推定する推定工程とを有することにより、画像の特性に応じて、適切な平滑化処理を施すことが可能となる。   In addition, the calculation step includes an identifier based on a determination step of determining a priority order based on a statistic amount and a physical amount of the original image data, and photographing information and color information related to a memory color stored in advance for the divided areas. It is possible to perform an appropriate smoothing process in accordance with the characteristics of the image by including an applying step for applying the image and an estimating step for estimating a divided region that is more important than the results of the determining step and the applying step. Become.

また、前記付与工程は、前記記憶色に関する色情報を、撮影情報の光源情報における色情報(3刺激値)に変換する変換工程と、前記記憶色と分割領域における色情報の相対距離を算出する第3の算出工程と、前記相対距離が最小となる識別子を分割領域の識別子と決定する決定工程とを有することにより、記憶色の色再現に適した平滑化を施すことが可能となる。   The adding step calculates a relative distance between the color information regarding the memory color and color information (tristimulus values) in the light source information of the photographing information, and the color information in the divided area and the memory color. By including the third calculation step and the determination step of determining the identifier having the smallest relative distance as the identifier of the divided region, smoothing suitable for the color reproduction of the memory color can be performed.

本発明における画像処理システムの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image processing system according to the present invention. 本発明における原画像データを示す図である(その1)。It is a figure which shows the original image data in this invention (the 1). 本発明における原画像データを示す図である(その2)。It is a figure which shows the original image data in this invention (the 2). 本発明における画像ファイルの構成の一例を概念的に示す図である。It is a figure which shows notionally an example of a structure of the image file in this invention. 本発明における撮影情報データの一例を示す図である。It is a figure which shows an example of the imaging | photography information data in this invention. 本発明における画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method in this invention. 本発明におけるxy色度図上の特性値を算出する方法を示す概念図である。It is a conceptual diagram which shows the method of calculating the characteristic value on xy chromaticity diagram in this invention. 本発明における平滑化フィルタ処理の概念を示す図である。It is a figure which shows the concept of the smoothing filter process in this invention. 本発明における画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method in this invention. 本発明における領域分割の方法を示すフローチャートである。It is a flowchart which shows the method of the area | region division in this invention. 本発明における原画像データを示す図である。It is a figure which shows the original image data in this invention. 本発明における原画像データのラプラシアン演算、非線形演算を示す図である。It is a figure which shows the Laplacian calculation of the original image data in this invention, and a nonlinear calculation. 本発明における画像処理システムの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image processing system according to the present invention. 本発明における原画像データを示す図である。It is a figure which shows the original image data in this invention. 感度と知覚されるノイズ量の相関関係を示す図である。It is a figure which shows the correlation of a sensitivity and the noise amount perceived. 電子カメラの要部を示すフローチャートである。It is a flowchart which shows the principal part of an electronic camera. 画像信号3原色に対する相対感度を示す特性図である。It is a characteristic view which shows the relative sensitivity with respect to three primary colors of an image signal.

符号の説明Explanation of symbols

11 電子カメラ(ディジタルカメラ)
12 パーソナルコンピュータ(情報処理装置)
13 カラープリンタ
100 画像ファイル
101 原画像データ格納領域
102 撮影情報格納領域
11 Electronic camera (digital camera)
12 Personal computer (information processing equipment)
13 Color Printer 100 Image File 101 Original Image Data Storage Area 102 Shooting Information Storage Area

Claims (2)

原画像データと、該原画像データの撮影情報と、から構成される画像ファイルに基づいて出力用画像データを生成する画像処理方法であって、
原画像データを分割する原画像データ分割工程と、前記分割した各領域に対して原画像データの色情報(3刺激値)の統計量及び物理量の少なくとも1つを算出する統計量算出工程と、を含み、原画像データの画像特徴量を算出する画像特徴量算出工程と、
前記撮影情報に含まれる感度情報と前記算出された画像特徴量とに基づいてノイズ除去フィルタのしきい値を演算するしきい値演算工程と、
前記原画像データの統計量又は物理量に基づいて平滑化の優先順位を決定する優先順位決定工程と、前記分割した各領域に対して前記撮影情報に含まれる光源情報と予め記憶した記憶色に関する色情報とから識別子を付与する識別子付与工程と、前記優先順位決定工程及び前記識別子付与工程の結果より重視する分割領域を推定する重視領域推定工程と、を含み、前記演算されたしきい値に基づいて平滑化を施す平滑化工程と、
を有することを特徴とする画像処理方法。
An image processing method for generating output image data based on an image file composed of original image data and shooting information of the original image data,
An original image data dividing step for dividing the original image data, and a statistic calculating step for calculating at least one of a statistic and a physical quantity of color information (tristimulus values) of the original image data for each of the divided regions; An image feature amount calculating step for calculating an image feature amount of the original image data,
A threshold value calculating step for calculating a threshold value of a noise removal filter based on the sensitivity information included in the photographing information and the calculated image feature amount ;
A priority order determining step for determining a priority order of smoothing based on a statistic or a physical quantity of the original image data, and light source information included in the photographing information for each of the divided areas and a color relating to a memory color stored in advance An identifier providing step for assigning an identifier from information, and an important region estimation step for estimating a divided region to be emphasized based on the results of the priority determination step and the identifier assigning step, and based on the calculated threshold value Smoothing process for smoothing,
An image processing method comprising:
前記識別子付与工程は、
前記記憶色に関する色情報を、撮影情報の光源情報における色情報(3刺激値)に変換する色情報変換工程と、
前記記憶色と前記分割工程により分割した各領域における色情報の相対距離を算出する相対距離算出工程と、
前記相対距離が最小となる識別子を前記分割工程により分割した各領域の識別子と決定する識別子決定工程と、
を有することを特徴とする請求項記載の画像処理方法。
The identifier giving step includes
A color information conversion step of converting color information relating to the memory color into color information (tristimulus values) in light source information of photographing information;
A relative distance calculating step of calculating a relative distance of color information in each region divided by the memory color and the dividing step;
An identifier determination step for determining an identifier having the smallest relative distance as an identifier of each region divided by the division step;
The image processing method according to claim 1, further comprising :
JP2003385622A 2003-11-14 2003-11-14 Image processing method and image processing apparatus Expired - Fee Related JP4415650B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003385622A JP4415650B2 (en) 2003-11-14 2003-11-14 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003385622A JP4415650B2 (en) 2003-11-14 2003-11-14 Image processing method and image processing apparatus

Publications (3)

Publication Number Publication Date
JP2005151163A JP2005151163A (en) 2005-06-09
JP2005151163A5 JP2005151163A5 (en) 2006-06-15
JP4415650B2 true JP4415650B2 (en) 2010-02-17

Family

ID=34693619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003385622A Expired - Fee Related JP4415650B2 (en) 2003-11-14 2003-11-14 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4415650B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150172513A1 (en) * 2013-12-18 2015-06-18 Nokia Corporation Methods And Apparatus For Color Balance Correction
JP2016071808A (en) * 2014-10-02 2016-05-09 ソニー株式会社 Image processor, image processing method and program
CN114363534B (en) * 2022-01-19 2024-02-23 深圳市资福医疗技术有限公司 Image brightness compensation method and device and computer storage medium

Also Published As

Publication number Publication date
JP2005151163A (en) 2005-06-09

Similar Documents

Publication Publication Date Title
US7076119B2 (en) Method, apparatus, and program for image processing
EP2074814B1 (en) System and method for processing images using predetermined tone reproduction curves
US7835569B2 (en) System and method for raw image processing using conversion matrix interpolated from predetermined camera characterization matrices
JP2005295508A (en) Conversion of color image into monochrome image
KR101248858B1 (en) Image processing apparatus and image processing method
EP1241870A2 (en) Output image adjustment method, apparatus and computer program product for image files
US20100271505A1 (en) System and Method for RAW Image Processing
EP1432237B1 (en) Image processing device, electronic camera, and image processing program
EP1187068A2 (en) Apparatus, method, signal and computer program product configured to provide output image adjustment of an image file
JP4529888B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005210526A (en) Image processing apparatus, method, and program, image pickup device, and image data outputting method and program
US8125533B2 (en) Undeveloped image data developing apparatus, method for developing undeveloped image data, and computer program for developing undeveloped image data
EP1130899B1 (en) Method, apparatus and recording medium for image processing
JP2005318523A (en) Image processing device, its method and its program
JP2005293555A (en) Identification of skin area in image
KR20120118383A (en) Image compensation device, image processing apparatus and methods thereof
JP2005210495A (en) Image processing apparatus, method, and program
JP2001128191A (en) Method and device for processing image and recording medium
US7034959B1 (en) Method, apparatus and recording medium for image processing
JP2004088345A (en) Image forming method, image processor, print preparation device, and storage medium
JP4752421B2 (en) Image retouching method, image retouching device, and image retouching program
JP3925476B2 (en) Judgment of shooting scene and image processing according to shooting scene
JP4415650B2 (en) Image processing method and image processing apparatus
JP2004336521A (en) Image processing method, image processor, and image recording apparatus
JP2002368982A (en) Picture processor, picture processing method and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060411

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131204

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees