JP6210898B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6210898B2
JP6210898B2 JP2014021534A JP2014021534A JP6210898B2 JP 6210898 B2 JP6210898 B2 JP 6210898B2 JP 2014021534 A JP2014021534 A JP 2014021534A JP 2014021534 A JP2014021534 A JP 2014021534A JP 6210898 B2 JP6210898 B2 JP 6210898B2
Authority
JP
Japan
Prior art keywords
image
gain
gain map
value
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014021534A
Other languages
Japanese (ja)
Other versions
JP2015149612A (en
Inventor
学 市川
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014021534A priority Critical patent/JP6210898B2/en
Publication of JP2015149612A publication Critical patent/JP2015149612A/en
Application granted granted Critical
Publication of JP6210898B2 publication Critical patent/JP6210898B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像の色相や彩度を変更する画像処理装置、画像処理方法、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for changing the hue and saturation of an image.

近年市販されているデジタルカメラは、画像の色調や階調を変更したり、画像にノイズやボカシ等を加えたりすることにより、特殊効果を施した画像を得る機能を備えたものがある。こうした特殊効果は、デジタルカメラ以外の機器、例えば、スマートフォンやパーソナルコンピュータ(PC)においてソフトウェアを実行することによっても得ることが可能である。   Some digital cameras on the market in recent years have a function of obtaining an image with a special effect by changing the color tone or gradation of the image or adding noise or blur to the image. Such special effects can also be obtained by executing software in a device other than a digital camera, such as a smartphone or a personal computer (PC).

特殊効果を得る技術の一例として、特開2013−175960号公報には、原画像データから輝度成分画像を抽出し、抽出した輝度成分画像をセピア色に着色加工してセピア調の画像を生成し、生成したセピア調画像を原画像と合成することにより、現実に印刷された写真と同様の風合い、つまり現実感を残した特殊効果を付与する技術が記載されている。   As an example of a technique for obtaining a special effect, JP2013-175960A discloses a luminance component image extracted from original image data, and the extracted luminance component image is colored into a sepia color to generate a sepia tone image. A technique is described in which a generated sepia-tone image is combined with an original image to give a special effect that leaves a feeling similar to that of an actually printed photograph, that is, a sense of reality.

ところで、プリント写真は、経年変化により色あせする、あるいは日光により日焼けする等の色変化(以下では適宜、この色変化を代表して「日焼け」ということにする)が生じることがある。   By the way, a color change such as fading due to secular change or tanning by sunlight (hereinafter referred to as “sunburn” as appropriate for this color change) may occur in a printed photograph.

特開2013−175960号公報JP 2013-175960 A

上述したような日焼けの効果をデジタルカメラで撮影された画像において実現しようとする場合に、上記特開2013−175960号公報に記載された技術を利用すれば、日焼けしたような風合いをある程度実現することができる。   In the case where the effect of sunburn as described above is to be realized in an image taken with a digital camera, using the technique described in Japanese Patent Application Laid-Open No. 2013-175960, a sunburned texture is realized to some extent. be able to.

しかし、実際のプリント写真の日焼けは、全体の色変化が均一ではない(例えば、一部のみが色変化する等のムラが生じた色変化となる)だけでなく、1枚の写真毎に生じる色変化が異なるものとなるのに対して、上記公報に記載された技術で得られる画像は、常に一定の効果が加えられた画像となるために、日焼け効果がどのように適用されるかをユーザーが容易に予想できてしまい、意外性がなくつまらないものになってしまうと考えられる。   However, the actual sunburn of the printed photograph is not only uniform in the overall color change (for example, a color change in which unevenness such as only a part of the color changes occurs), but also occurs for each photo. Whereas the color change is different, the image obtained by the technique described in the above publication is always an image with a certain effect added, so how the sunburn effect is applied. It is thought that the user can easily predict it and it will be unexpected and boring.

そこで対策として、乱数を用いて写真毎に異なる日焼け効果を適用することも考えられるが、この場合には、例えば連写で得られた画像のような、互いに類似した、あるいは互いに関連性がある画像などに対して、それぞれ別個の効果が適用されてしまうことになるために、鑑賞する際に違和感を感じ、利便性が低い機能になってしまう可能性がある。   Therefore, as a countermeasure, it may be possible to apply a different tanning effect for each photo using random numbers. In this case, for example, images obtained by continuous shooting are similar to each other or related to each other. Since separate effects are applied to images and the like, there is a possibility that the user feels uncomfortable when viewing and becomes a function with low convenience.

本発明は上記事情に鑑みてなされたものであり、結果を容易に予想することができず意外性を生じる余地がありながら、ランダムではなく利便性の高い画像の色変更を行うことができる画像処理装置、画像処理方法、プログラムを提供することを目的としている。   The present invention has been made in view of the above circumstances, and it is possible to change the color of an image that is not random but highly convenient, while the result cannot be easily predicted and there is room for unexpectedness. An object is to provide a processing device, an image processing method, and a program.

本発明のある態様による画像処理装置は、画像の部分領域を構成する複数の画素の輝度信号から抽出した画素値に基づき該部分領域に対応する代表値を算出することを複数の部分領域に対して行い、算出した複数の代表値と複数の上記部分領域の配置とに基づき代表値の配置を得る解析部と、上記代表値の配置に基づいて、上記画像を構成する各画素に対応するゲイン値を与えるゲインマップであって、該ゲイン値が最大となる領域が上記代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを得るゲインマップ生成部と、上記ゲインマップに基づいて、上記画像の色相と彩度との少なくとも一方を変更する色変更処理部と、を具備する。 An image processing apparatus according to an aspect of the present invention is configured to calculate a representative value corresponding to a partial area based on pixel values extracted from luminance signals of a plurality of pixels constituting the partial area of the image. And an analysis unit for obtaining a representative value arrangement based on the calculated representative values and the arrangement of the partial areas, and a gain corresponding to each pixel constituting the image based on the representative value arrangement. A gain map generating unit that obtains a gain map in which a region where the gain value is maximum corresponds to a partial region other than the partial region where the representative value is maximum; and And a color change processing unit that changes at least one of hue and saturation of the image.

本発明のある態様による画像処理方法は、画像の部分領域を構成する複数の画素の輝度信号から抽出した画素値に基づき該部分領域に対応する代表値を算出することを複数の部分領域に対して行い、算出した複数の代表値と複数の上記部分領域の配置とに基づき代表値の配置を得る解析ステップと、上記代表値の配置に基づいて、上記画像を構成する各画素に対応するゲイン値を与えるゲインマップであって、該ゲイン値が最大となる領域が上記代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを得るゲインマップ生成ステップと、上記ゲインマップに基づいて、上記画像の色相と彩度との少なくとも一方を変更する色変更処理ステップと、を有する。 An image processing method according to an aspect of the present invention is to calculate a representative value corresponding to a partial area based on pixel values extracted from luminance signals of a plurality of pixels constituting the partial area of the image. And an analysis step for obtaining a representative value arrangement based on the calculated representative values and a plurality of partial area arrangements, and a gain corresponding to each pixel constituting the image based on the representative value arrangement A gain map generating step for obtaining a gain map in which a region where the gain value is maximum corresponds to a partial region other than the partial region where the representative value is maximum; and And a color change processing step for changing at least one of hue and saturation of the image.

本発明のある態様によるプログラムは、コンピュータに画像処理を行わせるためのプログラムであって、コンピュータに、画像の部分領域を構成する複数の画素の輝度信号から抽出した画素値に基づき該部分領域に対応する代表値を算出することを複数の部分領域に対して行い、算出した複数の代表値と複数の上記部分領域の配置とに基づき代表値の配置を得る解析ステップと、上記代表値の配置に基づいて、上記画像を構成する各画素に対応するゲイン値を与えるゲインマップであって、該ゲイン値が最大となる領域が上記代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを得るゲインマップ生成ステップと、上記ゲインマップに基づいて、上記画像の色相と彩度との少なくとも一方を変更する色変更処理ステップと、を実行させるためのプログラムである。 A program according to an aspect of the present invention is a program for causing a computer to perform image processing, and causes a computer to perform image processing on a partial area based on pixel values extracted from luminance signals of a plurality of pixels constituting the partial area of the image. A corresponding representative value is calculated for a plurality of partial areas, and an analysis step for obtaining a representative value arrangement based on the calculated representative values and a plurality of the partial area arrangements; and the representative value arrangement And a gain map for giving a gain value corresponding to each pixel constituting the image, such that a region where the gain value is maximum corresponds to a partial region other than the partial region where the representative value is maximum. A gain map generation step for obtaining a correct gain map, and a color change processing step for changing at least one of hue and saturation of the image based on the gain map. When a program for execution.

本発明の画像処理装置、画像処理方法、プログラムによれば、結果を容易に予想することができず意外性を生じる余地がありながら、ランダムではなく利便性の高い画像の色変更を行うことが可能となる。   According to the image processing apparatus, the image processing method, and the program of the present invention, it is possible to change the color of an image that is not random but highly convenient, while the result cannot be easily predicted and there is room for unexpectedness. It becomes possible.

本発明の実施形態1における撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus according to Embodiment 1 of the present invention. 上記実施形態1における特殊画像処理部の構成を示すブロック図。FIG. 2 is a block diagram showing a configuration of a special image processing unit in the first embodiment. 上記実施形態1において、解析部による解析の対象となる、SDRAMに記憶されている画像データにより表される画像の一例を示す図。FIG. 3 is a diagram illustrating an example of an image represented by image data stored in an SDRAM that is an analysis target by an analysis unit in the first embodiment. 上記実施形態1の画像において、代表値を算出する対象の第1〜第4部分領域を示す図。The figure which shows the 1st-4th partial area | region of the object which calculates a representative value in the image of the said Embodiment 1. FIG. 上記実施形態1において、第1〜第4部分領域の配置と代表値とに基づき解析部により得られた代表値の配置を示す図。In the said Embodiment 1, the figure which shows arrangement | positioning of the representative value obtained by the analysis part based on arrangement | positioning and a representative value of the 1st-4th partial area | region. 上記実施形態1において、ゲインマップ生成部により図5の配置を異ならせて作られた代表値の配置を示す図。In the said Embodiment 1, the figure which shows arrangement | positioning of the representative value produced by changing the arrangement | positioning of FIG. 5 by the gain map production | generation part. 上記実施形態1において、図6の配置に基づきゲインマップ生成部により算出されたゲインマップを示す図。The figure which shows the gain map calculated by the gain map production | generation part based on arrangement | positioning of FIG. 6 in the said Embodiment 1. FIG. 上記実施形態1の画像において、代表値を算出する対象の第1〜第6部分領域を示す図。The figure which shows the 1st-6th partial area | region of the object which calculates a representative value in the image of the said Embodiment 1. FIG. 上記実施形態1において、第1〜第6部分領域の配置と代表値とに基づき解析部により得られた代表値の配置を示す図。In the said Embodiment 1, the figure which shows arrangement | positioning of the representative value obtained by the analysis part based on arrangement | positioning and a representative value of the 1st-6th partial area | region. 上記実施形態1において、ゲインマップ生成部により図9の配置を異ならせて作られた代表値の配置を示す図。In the said Embodiment 1, the figure which shows arrangement | positioning of the representative value produced by changing the arrangement | positioning of FIG. 9 by the gain map production | generation part. 上記実施形態1において、図10の配置に基づきゲインマップ生成部により算出されたゲインマップを示す図。The figure which shows the gain map computed by the gain map production | generation part based on arrangement | positioning of FIG. 10 in the said Embodiment 1. FIG. 上記実施形態1の撮像装置におけるメイン処理の流れを示すフローチャート。3 is a flowchart showing a flow of main processing in the imaging apparatus according to the first embodiment. 上記実施形態1の撮像装置の画像処理部により行われる画像処理の流れを示すフローチャート。3 is a flowchart showing a flow of image processing performed by an image processing unit of the imaging apparatus according to the first embodiment. 上記実施形態1の撮像装置の色変更処理部により行われる色変更処理を示すフローチャート。3 is a flowchart illustrating color change processing performed by a color change processing unit of the imaging apparatus according to the first embodiment. 本発明の実施形態2において、撮像装置が予め記憶している基本ゲインマップの例を示す図表。6 is a chart showing an example of a basic gain map stored in advance in the imaging apparatus according to the second embodiment of the present invention. 上記実施形態2において、ゲインマップ生成部により選択された基本ゲインマップを示す図。The figure which shows the basic gain map selected by the gain map production | generation part in the said Embodiment 2. FIG. 上記実施形態2において、図16に示す基本ゲインマップを補間して作成されたゲインマップを示す図。The figure which shows the gain map produced by interpolating the basic gain map shown in FIG. 16 in the said Embodiment 2. FIG. 上記実施形態2において、撮像装置が予め記憶している基本ゲインマップの変形例を示す図。FIG. 10 is a diagram showing a modification of the basic gain map stored in advance in the imaging apparatus in the second embodiment. 本発明の実施形態3において、撮像装置が予め記憶している補正係数マップの例を示す図。FIG. 10 is a diagram illustrating an example of a correction coefficient map stored in advance by an imaging apparatus in Embodiment 3 of the present invention. 上記実施形態3において、ゲインマップを補正係数マップに基づき補正して得られた補正ゲインマップの例を示す図。The figure which shows the example of the correction gain map obtained by correct | amending a gain map based on the correction coefficient map in the said Embodiment 3. FIG.

以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]

図1から図14は本発明の実施形態1を示したものであり、図1は撮像装置の構成を示すブロック図である。   1 to 14 show Embodiment 1 of the present invention, and FIG. 1 is a block diagram showing a configuration of an imaging apparatus.

本実施形態は、画像処理装置を撮像装置に適用したものとなっていて、撮像装置は、具体例としてはデジタルカメラとして構成されたものとなっている。   In this embodiment, the image processing apparatus is applied to an imaging apparatus, and the imaging apparatus is configured as a digital camera as a specific example.

すなわち、この撮像装置は、図1に示すように、交換式レンズ1と、カメラ本体2と、をインタフェース(I/F)3を介して通信可能に接続して構成されている。   That is, as shown in FIG. 1, this imaging apparatus is configured by connecting an interchangeable lens 1 and a camera body 2 via an interface (I / F) 3 so that they can communicate with each other.

次に、交換式レンズ1は、例えばレンズマウントを介してカメラ本体2に対し着脱自在に装着されるようになっており、レンズマウントに形成した電気接点(交換式レンズ1側に設けられた電気接点およびカメラ本体2側に設けられた電気接点)等によりインタフェース3が構成されている。こうして、交換式レンズ1は、インタフェース3を介してカメラ本体2と通信可能となっている。   Next, the interchangeable lens 1 is detachably attached to the camera body 2 via, for example, a lens mount, and an electrical contact formed on the lens mount (electricity provided on the interchangeable lens 1 side). The interface 3 is composed of contacts and electrical contacts provided on the camera body 2 side. Thus, the interchangeable lens 1 can communicate with the camera body 2 via the interface 3.

交換式レンズ1は、レンズ11と、絞り12と、ドライバ13と、マイクロコンピュータ14と、フラッシュメモリ15と、を備えている。   The interchangeable lens 1 includes a lens 11, a diaphragm 12, a driver 13, a microcomputer 14, and a flash memory 15.

レンズ11は、被写体の光学像をカメラ本体2の後述する撮像素子23上に結像するための撮影光学系である。   The lens 11 is a photographic optical system for forming an optical image of a subject on an image sensor 23 described later of the camera body 2.

絞り12は、レンズ11を通過する光束の通過範囲を制御する光学絞りである。   The diaphragm 12 is an optical diaphragm that controls the passage range of the light beam that passes through the lens 11.

ドライバ13は、マイクロコンピュータ14からの指令に基づき、レンズ11を駆動してフォーカス位置の調整を行い、レンズ11が電動ズームレンズ等である場合にはさらに焦点距離の変更も行う。加えて、ドライバ13は、マイクロコンピュータ14からの指令に基づき、絞り12を駆動して開口径を変化させる。この絞り12の駆動により、被写体の光学像の明るさが変化し、ボケの大きさなども変化する。   The driver 13 adjusts the focus position by driving the lens 11 based on a command from the microcomputer 14 and further changes the focal length when the lens 11 is an electric zoom lens or the like. In addition, the driver 13 drives the diaphragm 12 based on a command from the microcomputer 14 to change the aperture diameter. By driving the diaphragm 12, the brightness of the optical image of the subject changes, and the size of the blur also changes.

マイクロコンピュータ14は、いわゆるレンズ側コンピュータであり、ドライバ13、フラッシュメモリ15、およびインタフェース3と接続されている。そして、マイクロコンピュータ14は、インタフェース3を介して後述する本体側コンピュータであるマイクロコンピュータ41と通信し、マイクロコンピュータ41からの指令を受けて、フラッシュメモリ15に記憶されている情報の読込/書込を行い、ドライバ13を制御する。さらに、マイクロコンピュータ14は、この交換式レンズ1に関する各種の情報をマイクロコンピュータ41へ送信する。   The microcomputer 14 is a so-called lens-side computer, and is connected to the driver 13, the flash memory 15, and the interface 3. The microcomputer 14 communicates with a microcomputer 41, which is a main body computer, which will be described later, via the interface 3, receives an instruction from the microcomputer 41, and reads / writes information stored in the flash memory 15 And the driver 13 is controlled. Further, the microcomputer 14 transmits various information regarding the interchangeable lens 1 to the microcomputer 41.

フラッシュメモリ15は、マイクロコンピュータ14により実行される制御プログラムや、交換式レンズ1に関する各種の情報を不揮発に記憶する記憶媒体である。   The flash memory 15 is a storage medium that stores a control program executed by the microcomputer 14 and various types of information regarding the interchangeable lens 1 in a nonvolatile manner.

インタフェース3は、交換式レンズ1のマイクロコンピュータ14と、カメラ本体2のマイクロコンピュータ41とを、双方向に通信可能に接続する。   The interface 3 connects the microcomputer 14 of the interchangeable lens 1 and the microcomputer 41 of the camera body 2 so as to be capable of bidirectional communication.

続いて、カメラ本体2は、シャッタ21と、撮像部22と、RAW縮小処理部26と、画像処理部27と、AE処理部30と、AF処理部31と、画像圧縮伸張部32と、LCDドライバ33と、LCD34と、メモリインタフェース(メモリI/F)35と、記録媒体36と、SDRAM37と、操作部38と、フラッシュメモリ39と、バス40と、マイクロコンピュータ41と、を備えている。   Subsequently, the camera body 2 includes a shutter 21, an imaging unit 22, a RAW reduction processing unit 26, an image processing unit 27, an AE processing unit 30, an AF processing unit 31, an image compression / decompression unit 32, and an LCD. The driver 33, the LCD 34, a memory interface (memory I / F) 35, a recording medium 36, an SDRAM 37, an operation unit 38, a flash memory 39, a bus 40, and a microcomputer 41 are provided.

シャッタ21は、レンズ11からの光束が撮像素子23へ到達する時間を制御するものであり、例えばシャッタ幕を走行させる構成のメカニカルシャッタとなっている。ただし、メカニカルシャッタに代えて素子シャッタを用いても構わないし、メカニカルシャッタと素子シャッタとを併用しても良い。このシャッタ21は、マイクロコンピュータ41の指令により駆動されて、撮像素子23に光束が到達している時間、つまり撮像素子23による被写体の露光時間を制御する。   The shutter 21 controls the time required for the light flux from the lens 11 to reach the image sensor 23, and is, for example, a mechanical shutter configured to run a shutter curtain. However, an element shutter may be used instead of the mechanical shutter, or a mechanical shutter and an element shutter may be used in combination. The shutter 21 is driven by a command from the microcomputer 41 to control the time during which the light beam reaches the image sensor 23, that is, the exposure time of the subject by the image sensor 23.

撮像部22は、被写体を撮影して画像データを取得するものであり、撮像素子23と、アナログ処理部24と、アナログ/デジタル変換部(A/D変換部)25と、を備えている。   The imaging unit 22 captures a subject and acquires image data, and includes an imaging element 23, an analog processing unit 24, and an analog / digital conversion unit (A / D conversion unit) 25.

撮像素子23は、レンズ11および絞り12を介して結像された被写体の光学像を光電変換してアナログ画像信号を生成するものである。この撮像素子23は、例えば、垂直方向および水平方向に配列された複数の画素の前面にベイヤー配列のカラーフィルタを配置した単板式の撮像素子として構成されている。なお、撮像素子23は、単板式の撮像素子に限らないことは勿論であり、例えば基板厚み方向に色成分を分離するような積層式の撮像素子であっても良い。   The image sensor 23 photoelectrically converts an optical image of a subject formed through the lens 11 and the diaphragm 12 to generate an analog image signal. The image sensor 23 is configured as a single-plate image sensor in which a Bayer array color filter is arranged in front of a plurality of pixels arranged in the vertical direction and the horizontal direction, for example. Needless to say, the image sensor 23 is not limited to a single-plate image sensor, and may be, for example, a stacked image sensor that separates color components in the substrate thickness direction.

アナログ処理部24は、撮像素子23から読み出されたアナログ画像信号に対して、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるようにゲインアップを行う。   The analog processing unit 24 shapes the waveform of the analog image signal read from the image sensor 23 while reducing reset noise and the like, and further increases the gain so that the target brightness is obtained.

A/D変換部25は、アナログ処理部24から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。このA/D変換部25から出力される画像データは、いわゆるRAW画像データである。   The A / D conversion unit 25 converts the analog image signal output from the analog processing unit 24 into a digital image signal (hereinafter referred to as image data). The image data output from the A / D converter 25 is so-called RAW image data.

RAW縮小処理部26は、必要に応じてRAW画像データのサイズ(画素数)を縮小するものであり、RAW画像データを例えば間引く、画素加算する、あるいは補間する等により縮小されたRAW画像データを生成する。なお、RAW縮小処理部26は、A/D変換部25から出力される画像データを縮小しても良いが、SDRAM37に一旦記憶されたRAW画像データを縮小しても構わない。   The RAW reduction processing unit 26 reduces the size (number of pixels) of the RAW image data as necessary. The RAW reduction processing unit 26 reduces the RAW image data reduced by, for example, thinning, adding pixels, or interpolating the RAW image data. Generate. The RAW reduction processing unit 26 may reduce the image data output from the A / D conversion unit 25, but may reduce the RAW image data temporarily stored in the SDRAM 37.

A/D変換部25から出力されたRAW画像データ(あるいはさらにRAW縮小処理部26から出力された縮小RAW画像データ)は、バス40を介して転送され、SDRAM37に一旦記憶される。   The RAW image data output from the A / D conversion unit 25 (or the reduced RAW image data output from the RAW reduction processing unit 26) is transferred via the bus 40 and temporarily stored in the SDRAM 37.

画像処理部27は、RAW画像データ(あるいは縮小RAW画像データ、以下、明示はしないが同様)に対して種々の画像処理を行うものであり、基本画像処理部28と、特殊画像処理部29と、を備えている。   The image processing unit 27 performs various types of image processing on the RAW image data (or reduced RAW image data, hereinafter not shown), and includes a basic image processing unit 28, a special image processing unit 29, It is equipped with.

基本画像処理部28は、RAW画像データに対して基本的な画像処理を行うものである。この基本画像処理部28が行う画像処理としては、例えば、オプティカルブラック(OB)減算処理、ホワイトバランス(WB)処理、同時化処理、色再現処理、輝度変更処理、エッジ強調処理、ノイズリダクション処理などが挙げられる。この基本画像処理部28によって各処理が行われた後の画像データは、SDRAM37に再び記憶される。   The basic image processing unit 28 performs basic image processing on the RAW image data. Examples of the image processing performed by the basic image processing unit 28 include optical black (OB) subtraction processing, white balance (WB) processing, synchronization processing, color reproduction processing, luminance change processing, edge enhancement processing, noise reduction processing, and the like. Is mentioned. The image data after each processing is performed by the basic image processing unit 28 is stored in the SDRAM 37 again.

また、特殊画像処理部29は、上述した基本的な画像処理に該当しない画像処理、例えば画像の加工に関する処理を行うものである。本実施形態における特殊画像処理部29は、画像の色相と彩度との少なくとも一方を変更する色変更処理を含む処理を行うものとなっている。具体的に、本実施形態における特殊画像処理部29は、色変更処理として、プリント写真が経年変化により色あせする、あるいは日光により日焼けする等の場合のような色の変更を画像データに対して与える処理を行う。この特殊画像処理部29によって処理された画像データは、SDRAM37に記憶される。   The special image processing unit 29 performs image processing that does not correspond to the basic image processing described above, for example, processing related to image processing. The special image processing unit 29 in the present embodiment performs processing including color change processing for changing at least one of hue and saturation of an image. Specifically, the special image processing unit 29 according to the present embodiment gives the image data color change as in the case where the printed photograph fades due to secular change or sunburns due to sunlight as the color change processing. Process. The image data processed by the special image processing unit 29 is stored in the SDRAM 37.

AE処理部30は、RAW画像データに基づき、被写体輝度を算出する。ここで算出された被写体輝度は、自動露出(AE)制御、すなわち、絞り12の制御やシャッタ21の制御、撮像素子23の露光タイミング制御等に用いられる。なお、被写体輝度を算出するためのデータとして、ここではRAW画像データ等を利用したが、これに代えて、専用の測光センサを撮像装置に設けて、この測光センサから得られたデータを利用するようにしても構わない。   The AE processing unit 30 calculates subject brightness based on the RAW image data. The subject brightness calculated here is used for automatic exposure (AE) control, that is, control of the diaphragm 12, control of the shutter 21, control of the exposure timing of the image sensor 23, and the like. Note that RAW image data or the like is used here as data for calculating the subject brightness, but instead, a dedicated photometric sensor is provided in the imaging apparatus and data obtained from the photometric sensor is used. It doesn't matter if you do.

AF処理部31は、RAW画像データから高周波成分のデータを抽出して、AF(オートフォーカス)積算処理により、合焦評価値を取得する。ここで取得された合焦評価値は、レンズ11のAF駆動に用いられる。なお、AFがこのようなコントラストAFに限定されないことは勿論であり、例えば専用のAFセンサ(あるいは撮像素子23上のAF用画素など)を用いて位相差AFを行うようにしても構わない。   The AF processing unit 31 extracts high-frequency component data from the RAW image data, and acquires a focus evaluation value by AF (autofocus) integration processing. The focus evaluation value acquired here is used for AF driving of the lens 11. Needless to say, the AF is not limited to such contrast AF. For example, a phase difference AF may be performed using a dedicated AF sensor (or an AF pixel on the image sensor 23).

画像圧縮伸張部32は、画像データを記録する際には、SDRAM37から画像データを読み出して、読み出した画像データを例えば静止画の場合にはJPEG圧縮方式、動画の場合にはJPEG圧縮方式またはH.264圧縮方式等の圧縮方式に従って圧縮し、圧縮した画像データをSDRAM37に一旦記憶させる。こうしてSDRAM37に記憶された圧縮された画像データは、マイクロコンピュータ41により、ファイルを構成するために必要なヘッダが付加されて記録用のデータとして整えられる。そして、マイクロコンピュータ41の制御に基づき、整えられた記録用のデータが、メモリI/F35を介して記録媒体36に記録される。なお、本実施形態の撮像装置は、記録媒体36へ記録する画像の画素数を例えば複数の選択肢の中から選択して設定可能となっているものとする。   The image compression / decompression unit 32 reads the image data from the SDRAM 37 when recording the image data, and the read image data is, for example, a JPEG compression method for a still image, a JPEG compression method or an H for a moving image. . The compressed image data is temporarily stored in the SDRAM 37 according to a compression method such as the H.264 compression method. The compressed image data stored in the SDRAM 37 in this way is arranged as recording data by adding a header necessary for composing a file by the microcomputer 41. Based on the control of the microcomputer 41, the prepared recording data is recorded on the recording medium 36 via the memory I / F 35. In the imaging apparatus according to the present embodiment, the number of pixels of an image to be recorded on the recording medium 36 can be selected and set from, for example, a plurality of options.

また、画像圧縮伸張部32は、読み出された画像データの伸張も行う。すなわち、記録済み画像の再生を行う場合には、マイクロコンピュータ41の制御に基づき、例えばJPEGファイルがメモリI/F35を介して記録媒体36から読み出され、SDRAM37に一旦記憶される。画像圧縮伸張部32は、SDRAM37に記憶されたJPEG画像データを読み出して、読み出したJPEG画像データをJPEG伸張方式に従って伸張し、伸張した画像データをSDRAM37に記憶させる。   The image compression / decompression unit 32 also decompresses the read image data. That is, when a recorded image is played back, for example, a JPEG file is read from the recording medium 36 via the memory I / F 35 based on the control of the microcomputer 41 and temporarily stored in the SDRAM 37. The image compression / decompression unit 32 reads the JPEG image data stored in the SDRAM 37, expands the read JPEG image data according to the JPEG expansion method, and stores the expanded image data in the SDRAM 37.

LCDドライバ33は、SDRAM37に記憶されている画像データを読み出して、読み出した画像データを映像信号へ変換し、LCD34を駆動制御して映像信号に基づく画像をLCD34に表示させる。このLCDドライバ33により行われる画像表示には、撮影直後の画像データを短時間だけ表示するレックビュー表示、記録媒体36に記録されたJPEGファイルの再生表示、およびライブビュー表示等における動画表示などが含まれる。なお、ライブビュー表示やレックビュー表示は、上述した縮小RAW画像データを利用して行うと処理時間を短縮し処理負荷を軽減できて良い。   The LCD driver 33 reads the image data stored in the SDRAM 37, converts the read image data into a video signal, controls the drive of the LCD 34, and causes the LCD 34 to display an image based on the video signal. The image display performed by the LCD driver 33 includes a rec view display that displays image data immediately after shooting for a short time, a playback display of a JPEG file recorded on the recording medium 36, a moving image display in a live view display, and the like. included. When live view display or REC view display is performed using the above-described reduced RAW image data, the processing time may be shortened and the processing load may be reduced.

LCD34は液晶パネルや有機ELパネル等の画像を表示可能なパネルであり、上述したようなLCDドライバ33の駆動制御により、画像を表示すると共に、この撮像装置に係る各種の情報を表示する。   The LCD 34 is a panel capable of displaying an image such as a liquid crystal panel or an organic EL panel. The LCD 34 displays an image and various types of information related to the imaging apparatus by the drive control of the LCD driver 33 as described above.

メモリI/F35は、上述したように、画像データ等の情報の記録媒体36への書き込み、および記録媒体36からの画像データ等の情報の読み出しを行う。   As described above, the memory I / F 35 writes information such as image data to the recording medium 36 and reads information such as image data from the recording medium 36.

記録媒体36は、画像データ等の情報を不揮発に記憶するものであり、例えばカメラ本体2に着脱可能なメモリカード等により構成されている。ただし、記録媒体36は、メモリカードに限定されるものではなく、ディスク状の記録媒体、カメラ本体2に固定された記録媒体、あるいは通信回線を介して接続された離隔した位置にある記録媒体でも良いし、その他の適宜の記録媒体であっても構わない。こうして記録媒体36は、撮像装置に固有の構成である必要はない。   The recording medium 36 stores information such as image data in a non-volatile manner, and is composed of, for example, a memory card that can be attached to and detached from the camera body 2. However, the recording medium 36 is not limited to a memory card, and may be a disk-shaped recording medium, a recording medium fixed to the camera body 2, or a recording medium at a remote position connected via a communication line. It may be any other suitable recording medium. Thus, the recording medium 36 does not have to have a configuration unique to the imaging apparatus.

SDRAM37は、上述したRAW画像データ、あるいは画像処理部27、画像圧縮伸張部32等において処理された画像データ等の各種データを一時的に記憶する記憶部である。   The SDRAM 37 is a storage unit that temporarily stores various data such as the above-described RAW image data or image data processed by the image processing unit 27, the image compression / decompression unit 32, and the like.

操作部38は、この撮像装置に対する各種の操作入力を行うためのものであり、撮像装置の電源をオン/オフするための電源ボタン、画像の撮影開始を指示するための例えば1st(ファースト)レリーズスイッチおよび2nd(セカンド)レリーズスイッチを有して構成されている2段式操作ボタンでなるレリーズボタン、記録画像の再生を行うための再生ボタン、撮像装置の設定等を行うためのメニューボタン、動画撮影を行うための動画ボタン、項目の選択操作に用いられる十字キーや選択項目の確定操作に用いられるOKボタン等の操作ボタンなどを含んでいる。この操作部38に対して操作が行われると、操作内容に応じた信号がマイクロコンピュータ41へ出力される。   The operation unit 38 is for performing various operation inputs to the image pickup apparatus, such as a power button for turning on / off the power supply of the image pickup apparatus, for example, a 1st (first) release for instructing start of image capturing. Release button consisting of a two-stage operation button having a switch and a 2nd (second) release switch, a playback button for playing back a recorded image, a menu button for setting an imaging device, and a moving image It includes an operation button such as a moving image button for shooting, a cross key used for an item selection operation, an OK button used for a selection item determination operation, and the like. When the operation unit 38 is operated, a signal corresponding to the operation content is output to the microcomputer 41.

フラッシュメモリ39は、マイクロコンピュータ41により実行される処理プログラムや、この撮像装置に係る各種の情報を不揮発に記憶する記憶媒体である。ここに、フラッシュメモリ39が記憶する情報としては、例えば、ホワイトバランスモードに応じたホワイトバランスゲイン等の撮像装置の動作に必要な各種パラメータ、および撮像装置を特定するための型式番号や製造番号などが幾つかの例として挙げられる。このフラッシュメモリ39が記憶する情報は、マイクロコンピュータ41により読み取られる。   The flash memory 39 is a storage medium that stores processing programs executed by the microcomputer 41 and various types of information related to the imaging apparatus in a nonvolatile manner. Here, the information stored in the flash memory 39 includes, for example, various parameters necessary for the operation of the imaging apparatus such as a white balance gain according to the white balance mode, and a model number and a manufacturing number for specifying the imaging apparatus. Are some examples. Information stored in the flash memory 39 is read by the microcomputer 41.

バス40は、撮像装置内のある場所で発生した各種のデータや制御信号を、撮像装置内の他の場所へ転送するための転送路である。本実施形態におけるバス40は、A/D変換部25と、RAW縮小処理部26と、画像処理部27と、AE処理部30と、AF処理部31と、画像圧縮伸張部32と、LCDドライバ33と、メモリI/F35と、SDRAM37と、マイクロコンピュータ41と、に接続されている。   The bus 40 is a transfer path for transferring various data and control signals generated at a certain location in the imaging apparatus to another location in the imaging apparatus. The bus 40 in this embodiment includes an A / D conversion unit 25, a RAW reduction processing unit 26, an image processing unit 27, an AE processing unit 30, an AF processing unit 31, an image compression / decompression unit 32, and an LCD driver. 33, a memory I / F 35, an SDRAM 37, and a microcomputer 41.

マイクロコンピュータ41は、カメラ本体2内の各部を制御すると共に、インタフェース3を介してマイクロコンピュータ14に指令を送信し交換式レンズ1を制御するものであり、この撮像装置を統括的に制御する制御部である。マイクロコンピュータ41は、ユーザにより操作部38から操作入力が行われると、フラッシュメモリ39に記憶されている処理プログラムに従って、フラッシュメモリ39から処理に必要なパラメータを読み込んで、操作内容に応じた各種シーケンスを実行する。   The microcomputer 41 controls each part in the camera body 2 and transmits a command to the microcomputer 14 via the interface 3 to control the interchangeable lens 1. The microcomputer 41 controls the image pickup apparatus in an integrated manner. Part. When the user performs an operation input from the operation unit 38, the microcomputer 41 reads parameters necessary for processing from the flash memory 39 according to a processing program stored in the flash memory 39, and performs various sequences according to the operation content. Execute.

次に図2は、特殊画像処理部29の構成を示すブロック図である。   Next, FIG. 2 is a block diagram illustrating a configuration of the special image processing unit 29.

特殊画像処理部29は、解析部45と、ゲインマップ生成部46と、色変更処理部47と、を備えている。   The special image processing unit 29 includes an analysis unit 45, a gain map generation unit 46, and a color change processing unit 47.

解析部45は、画像の部分領域を構成する画素の画素値に基づき部分領域に対応する代表値を算出することを複数の部分領域に対して行い、算出した複数の代表値と複数の部分領域の配置とに基づき代表値の配置を得る。   The analysis unit 45 calculates a representative value corresponding to the partial region based on the pixel values of the pixels constituting the partial region of the image, and calculates the plurality of representative values and the plurality of partial regions. The representative value arrangement is obtained based on the arrangement of

ゲインマップ生成部46は、解析部45により得られた代表値の配置に基づいて、画像を構成する各画素に対応するゲイン値を与えるゲインマップであって、ゲイン値が最大となる領域が代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを得る。ここに、ゲインマップ生成部46は、ゲイン値の空間分布が滑らかに変化するようなゲインマップを得るものとなっている。さらに、ゲインマップ生成部46は、ゲインマップ上のゲイン値のヒストグラムが平坦化(ただし、完全に平坦であることを意味するわけではなく、偏りが比較的小さいという意味)された分布となるようなゲインマップ、つまり、小さいゲイン値の画素が多い偏り、あるいは大きいゲイン値の画素が多い偏り、等の偏りが比較的小さいゲインマップを得るものとなっていることが好ましい。   The gain map generation unit 46 is a gain map that gives a gain value corresponding to each pixel constituting the image based on the arrangement of the representative values obtained by the analysis unit 45, and the region where the gain value is maximum is the representative. A gain map corresponding to a partial region other than the partial region having the maximum value is obtained. Here, the gain map generator 46 obtains a gain map in which the spatial distribution of gain values changes smoothly. Furthermore, the gain map generation unit 46 has a distribution in which the histogram of gain values on the gain map is flattened (however, it does not mean that the gain map is completely flat, and that the bias is relatively small). It is preferable to obtain a large gain map, that is, a bias map with a relatively small bias such as a bias with many pixels with a small gain value or a bias with many pixels with a large gain value.

具体的に、本実施形態のゲインマップ生成部46は、代表値の配置を異ならせるように、複数の代表値をゲインマップ上の複数の所定の画素位置に配置し、所定の画素位置から任意の画素位置までの距離に基づいて任意の画素位置のゲイン値を補間することによりゲインマップを算出するようになっている。ここでゲインマップ生成部46により算出されたゲインマップは、SDRAM37に記憶される。   Specifically, the gain map generation unit 46 of the present embodiment arranges a plurality of representative values at a plurality of predetermined pixel positions on the gain map so as to vary the arrangement of the representative values, and arbitrarily selects from the predetermined pixel positions. The gain map is calculated by interpolating the gain value at an arbitrary pixel position based on the distance to the pixel position. Here, the gain map calculated by the gain map generator 46 is stored in the SDRAM 37.

色変更処理部47は、ゲインマップ生成部46から出力されたゲインマップに基づいて、画像の色相と彩度との少なくとも一方を変更する。   The color change processing unit 47 changes at least one of hue and saturation of the image based on the gain map output from the gain map generation unit 46.

具体的に、画像における画素位置を(x,y)とし、画像を表現する色空間の成分の内の、色相または彩度に係る成分の少なくとも1つをCにより表すとすると、画素位置に依存しない所定の定数をC_cntとし、画素位置(x,y)における、色変更処理部47による色変更前の成分をC_in(x,y)、色変更後の成分をC_out(x,y)、ゲインマップのゲイン値をG(x,y)とすれば、色変更処理部47は、例えば、
C_out(x,y)=C_in(x,y)+C_cnt×G(x,y)
の演算を全ての画素位置(x,y)に対して行うことにより、画像の色変更を行うものとなっている。従って、ゲイン値G(x,y)が大きい程、色の変更量が大きくなる(一方、ゲイン値G(x,y)が0であれば、色は変更されない)。
Specifically, if the pixel position in the image is (x, y) and at least one of the components of the color space representing the image is represented by C, it depends on the pixel position. The predetermined constant is C_cnt, the component before the color change by the color change processing unit 47 at the pixel position (x, y) is C_in (x, y), the component after the color change is C_out (x, y), and the gain If the gain value of the map is G (x, y), the color change processing unit 47, for example,
C_out (x, y) = C_in (x, y) + C_cnt × G (x, y)
By performing this calculation for all pixel positions (x, y), the color of the image is changed. Therefore, the larger the gain value G (x, y), the larger the amount of color change (On the other hand, if the gain value G (x, y) is 0, the color is not changed).

この特殊画像処理部29により行われるゲインマップ作成処理の一例について、図3〜図7を参照して説明する。   An example of gain map creation processing performed by the special image processing unit 29 will be described with reference to FIGS.

図3は、解析部45による解析の対象となる、SDRAM37に記憶されている画像データにより表される画像Pの一例を示す図である。   FIG. 3 is a diagram illustrating an example of an image P represented by image data stored in the SDRAM 37, which is an object of analysis by the analysis unit 45.

SDRAM37に記憶されている画像データは、例えば、撮像部22から出力または記録媒体36から読み出されたRAW画像データ、RAW縮小処理部26により生成または記録媒体36から読み出された縮小RAW画像データ、基本画像処理部28により基本画像処理がなされた画像データ、記録媒体36から読み出されて画像圧縮伸張部32により伸張された画像データ、等の内の何れかである。図3に示す画像Pの例えば中央部には、主要被写体OBJが写っており、主要被写体OBJの背景における左上側は輝度が低い部分、右下側は輝度が高い部分となっているものとする(ここに、図面上において滑らかな階調を表現することが難しいためにそのように見えないが、左上側の輝度が低い部分から右下側の輝度が高い部分へは滑らかに階調が変化しているものとする、以下同様)。   The image data stored in the SDRAM 37 is, for example, RAW image data output from the imaging unit 22 or read from the recording medium 36, or reduced RAW image data generated by the RAW reduction processing unit 26 or read from the recording medium 36. Any one of image data that has undergone basic image processing by the basic image processing unit 28, image data that has been read from the recording medium 36 and expanded by the image compression / decompression unit 32, and the like. For example, the main subject OBJ is shown in the center of the image P shown in FIG. 3, and the upper left side of the background of the main subject OBJ is a portion with low luminance, and the lower right side is a portion with high luminance. (Here, it is difficult to express smooth gradation on the drawing, but it does not look like that, but the gradation changes smoothly from the low-brightness area on the upper left to the high-luminance area on the lower right. The same shall apply hereinafter).

解析部45は、図3に示すような画像Pの輝度信号(あるいは、近似的に輝度信号と見なし得るような輝度相当信号、以下同様)を抽出する。そして、解析部45は、抽出した輝度信号に係る画像Pを例えば縦横それぞれ1/8に分割し、分割により得られる合計64個の部分領域の内の、例えば左上角の第1部分領域R1、右上角の第2部分領域R2、左下角の第3部分領域R3、および右下角の第4部分領域R4を、代表値を算出する対象の部分領域とする。ここに、図4は、画像Pにおいて、代表値を算出する対象の第1〜第4部分領域R1〜R4を示す図である。   The analysis unit 45 extracts a luminance signal of the image P as shown in FIG. 3 (or a luminance equivalent signal that can be approximately regarded as a luminance signal, and so on). Then, the analysis unit 45 divides the image P related to the extracted luminance signal into, for example, 1/8 each of the vertical and horizontal directions, out of a total of 64 partial regions obtained by the division, for example, the first partial region R1 at the upper left corner, The second partial region R2 in the upper right corner, the third partial region R3 in the lower left corner, and the fourth partial region R4 in the lower right corner are set as partial regions for which representative values are calculated. FIG. 4 is a diagram illustrating first to fourth partial regions R1 to R4 for which representative values are calculated in the image P.

そして、解析部45は、第1〜第4部分領域R1〜R4のそれぞれについて、部分領域内の画素値を積算して部分領域内の画素数で割ることにより平均画素値を算出し、算出した平均画素値を各部分領域R1〜R4それぞれの代表値V1〜V4とする。ここで得られた代表値V1〜V4の大きさが、例えば、V4>V2>V3>V1となっているものとする。   Then, the analysis unit 45 calculates and calculates an average pixel value for each of the first to fourth partial regions R1 to R4 by integrating the pixel values in the partial region and dividing by the number of pixels in the partial region. The average pixel value is set as representative values V1 to V4 of the partial regions R1 to R4. It is assumed that the representative values V1 to V4 obtained here are, for example, V4> V2> V3> V1.

なお、ここでは部分領域の平均画素値を代表値としたが、部分領域の画素値の中央値を代表値としても良いし、部分領域の画素値の例えば最大値を代表値とすることも考えられ、より一般には代表値の算出方法はこれらに限定されるものではない。   Although the average pixel value of the partial region is used as the representative value here, the median value of the pixel values of the partial region may be used as the representative value, and for example, the maximum value of the pixel values of the partial region may be used as the representative value. More generally, the representative value calculation method is not limited to these.

図5は、第1〜第4部分領域R1〜R4の配置と代表値V1〜V4とに基づき解析部45により得られた代表値の配置を示す図である。   FIG. 5 is a diagram illustrating the arrangement of representative values obtained by the analysis unit 45 based on the arrangement of the first to fourth partial regions R1 to R4 and the representative values V1 to V4.

図5に示す代表値の2×2配置において、左上角の第1部分領域R1の代表値V1は左上に配置され、右上角の第2部分領域R2の代表値V2は右上に配置され、左下角の第3部分領域R3の代表値V3は左下に配置され、および右下角の第4部分領域R4の代表値V4は右下に配置されている。   In the 2 × 2 arrangement of representative values shown in FIG. 5, the representative value V1 of the first partial region R1 at the upper left corner is arranged at the upper left, the representative value V2 of the second partial region R2 at the upper right corner is arranged at the upper right, and the lower left The representative value V3 of the third partial region R3 at the corner is arranged at the lower left, and the representative value V4 of the fourth partial region R4 at the lower right corner is arranged at the lower right.

ゲインマップ生成部46は、解析部45により得られた図5のような代表値の配置に基づいて、最大の代表値V4以外の代表値V1〜V3に対応する部分領域R1〜R3の何れかに、最大の代表値V4が割り当てられるように、代表値の配置を異ならせる。このような処理を行う理由は、より高い色変更効果を得るためである。つまり、最大の代表値V4が得られた第4部分領域R4は、輝度が高い領域であり、輝度が高いと白色(色飽和した状態)に近付いて色の表現範囲が狭くなるために、色変更処理を行っても得られる効果が低いからである。具体的に、ゲインマップ生成部46は、例えば、図5に示す代表値の配置を、反時計回りに90度回転する。ここに図6は、ゲインマップ生成部46により図5の配置を異ならせて作られた代表値の配置を示す図である。   The gain map generation unit 46 is one of the partial regions R1 to R3 corresponding to the representative values V1 to V3 other than the maximum representative value V4 based on the arrangement of the representative values as shown in FIG. The representative values are arranged differently so that the maximum representative value V4 is allocated. The reason for performing such processing is to obtain a higher color change effect. That is, the fourth partial region R4 in which the maximum representative value V4 is obtained is a region with high luminance. When the luminance is high, the color expression range becomes narrower as it approaches white (color saturation state). This is because the effect obtained even if the change process is performed is low. Specifically, the gain map generation unit 46 rotates the representative value arrangement shown in FIG. 5 by 90 degrees counterclockwise, for example. FIG. 6 is a diagram showing the arrangement of representative values created by the gain map generation unit 46 by changing the arrangement of FIG.

次に、ゲインマップ生成部46は、図6に示す変更後の代表値の配置において、代表値が所定の範囲内の値になるよう正規化を行う。この正規化は、例えば、最大の代表値V4を1、最小の代表値V1を0とし、それ以外の代表値V2,V3がそれぞれの値に応じて0よりも大きく1未満の範囲の値となるようにする処理である。この正規化を行うと、生成されたゲインマップにおけるゲイン値のヒストグラムは、この正規化を行わずに生成したゲインマップにおけるゲイン値のヒストグラムに比べて、ゲイン値のダイナミックレンジがより広くなる可能性がある(例えば、画素値が取り得るダイナミックレンジが0〜1023であって、最小の代表値が10、最大の代表値が1000である場合に、0〜1023を単純に0〜1に変換すると、最小の代表値は約0.01、最大の代表値は約0.98となるが、本実施形態の正規化を用いれば最小の代表値は0.0、最大の代表値は1.0となるため)。ただし、色変更処理における変更量の大きさは、ゲイン値に対して乗算される定数値(上述した所定の定数C_cnt)の大きさを変えることによっても変更可能であるために、その場合にはこの正規化の処理を省略することも可能である。   Next, the gain map generation unit 46 performs normalization so that the representative value becomes a value within a predetermined range in the changed representative value arrangement shown in FIG. In this normalization, for example, the maximum representative value V4 is set to 1, the minimum representative value V1 is set to 0, and the other representative values V2 and V3 are in the range of more than 0 and less than 1 depending on the respective values. It is processing to become. With this normalization, the gain value histogram in the generated gain map may have a wider dynamic range of gain values than the gain value histogram in the gain map generated without this normalization. (For example, when the dynamic range that a pixel value can take is 0 to 1023, the minimum representative value is 10, and the maximum representative value is 1000, 0 to 1023 is simply converted to 0 to 1. The minimum representative value is about 0.01 and the maximum representative value is about 0.98. However, when the normalization of this embodiment is used, the minimum representative value is 0.0 and the maximum representative value is 1.0. To be). However, since the magnitude of the change amount in the color change process can be changed by changing the magnitude of the constant value multiplied by the gain value (the predetermined constant C_cnt described above), in that case This normalization process can be omitted.

続いて、ゲインマップ生成部46は、変更後の(あるいはさらに正規化後の)代表値の配置に基づいて、画像を構成する各画素に対応するゲイン値を与えるゲインマップを作成する。このゲインマップは、例えば、基本画像処理部28により基本処理が行われた画像に対して適用されるために、つまり基本処理が行われた画像の画素構成に一対一に対応する画素構成のマップを作成する。   Subsequently, the gain map generation unit 46 generates a gain map that gives a gain value corresponding to each pixel constituting the image, based on the arrangement of the representative values after change (or after normalization). This gain map is applied to, for example, an image that has undergone basic processing by the basic image processing unit 28, that is, a pixel configuration map that has a one-to-one correspondence with the pixel configuration of the image that has undergone basic processing. Create

具体的に、図6に示す、左上角の代表値V2をゲインマップの左上角の画素のゲイン値、右上角の代表値V4をゲインマップの右上角の画素のゲイン値、左下角の代表値V1をゲインマップの左下角の画素のゲイン値、右下角の代表値V3をゲインマップの右下角の画素のゲイン値として、これら4つの所定の画素位置から任意の画素位置までの距離に基づいて、任意の画素位置のゲイン値を補間(例えば、線形補間)することによりゲインマップを算出する。ここに、距離に基づいてゲインマップを算出しているのは、グラデーションが滑らかなゲインマップを作成することが好ましいためであるが、補間方法には種々の方法があるために、他の適宜の方法を用いても勿論構わない。そして、算出されたゲインマップは、例えばSDRAM37に記憶される。   Specifically, as shown in FIG. 6, the upper left corner representative value V2 is the gain value of the upper left corner pixel of the gain map, the upper right corner representative value V4 is the gain value of the upper right corner pixel of the gain map, and the lower left corner representative value. Based on the distance from these four predetermined pixel positions to any pixel position, where V1 is the gain value of the pixel in the lower left corner of the gain map and the representative value V3 of the lower right corner is the gain value of the pixel in the lower right corner of the gain map The gain map is calculated by interpolating (for example, linear interpolation) the gain value at an arbitrary pixel position. Here, the reason why the gain map is calculated based on the distance is that it is preferable to create a gain map with a smooth gradation. However, since there are various interpolation methods, other appropriate maps are used. Of course, the method may be used. The calculated gain map is stored in the SDRAM 37, for example.

図7は、図6の配置に基づきゲインマップ生成部46により算出されたゲインマップGMを示す図である。   FIG. 7 is a diagram showing the gain map GM calculated by the gain map generator 46 based on the arrangement of FIG.

この図7に示すゲインマップGMは、図6に示した変更後の代表値の配置に基づき算出されたものであるために、左下の部分のゲイン値が低く、右上の部分のゲイン値が高く、それ以外の部分は所定の画素位置である4つの角からの距離に応じた中間のゲイン値となっている。   The gain map GM shown in FIG. 7 is calculated based on the changed representative value arrangement shown in FIG. 6, and therefore, the gain value in the lower left part is low and the gain value in the upper right part is high. The other portions have intermediate gain values corresponding to the distances from the four corners that are predetermined pixel positions.

また、特殊画像処理部29により行われるゲインマップ作成処理の他の例について、図8〜図11を参照して説明する。   Another example of gain map creation processing performed by the special image processing unit 29 will be described with reference to FIGS.

図4に示した例では4つの角の第1〜第4部分領域R1〜R4に基づき図5に示した代表値の2×2配置を得たが、ここでは図8に示すように、さらに、矩形をなす画像Pの長辺方向に沿った中間位置の部分領域R5およびR6を用いて代表値の3×2配置を得るようにしている。このように、代表値を算出する対象の部分領域の数は4に限るものではなく、適宜の複数であれば良い。   In the example shown in FIG. 4, the 2 × 2 arrangement of the representative values shown in FIG. 5 is obtained based on the first to fourth partial regions R1 to R4 of the four corners, but here, as shown in FIG. A 3 × 2 arrangement of representative values is obtained by using partial regions R5 and R6 at intermediate positions along the long side direction of the image P having a rectangular shape. As described above, the number of partial regions for which the representative value is calculated is not limited to four, and may be any appropriate plural number.

図8は、画像Pにおいて、代表値を算出する対象の第1〜第6部分領域R1〜R6を示す図である。   FIG. 8 is a diagram illustrating first to sixth partial regions R1 to R6 for which representative values are calculated in the image P.

第5部分領域R5は、第1部分領域R1と第2部分領域R2との中間に位置し、第6部分領域R6は、第3部分領域R3と第4部分領域R4との中間に位置している。解析部45は、上述と同様に代表値V1〜V4を算出するだけでなく、さらに、第5部分領域R5から代表値V5を、第6部分領域R6から代表値V6を、それぞれ算出する。そして、解析部45は、代表値の配置を図9に示すように取得する。   The fifth partial region R5 is located in the middle between the first partial region R1 and the second partial region R2, and the sixth partial region R6 is located in the middle between the third partial region R3 and the fourth partial region R4. Yes. The analysis unit 45 calculates not only the representative values V1 to V4 as described above, but also calculates the representative value V5 from the fifth partial region R5 and the representative value V6 from the sixth partial region R6. And the analysis part 45 acquires arrangement | positioning of a representative value as shown in FIG.

ここに、図9は、第1〜第6部分領域R1〜R6の配置と代表値V1〜V6とに基づき解析部45により得られた代表値の配置を示す図である。   FIG. 9 is a diagram illustrating the arrangement of representative values obtained by the analysis unit 45 based on the arrangement of the first to sixth partial regions R1 to R6 and the representative values V1 to V6.

この図9に示す例では、代表値V5は例えば代表値V1と代表値V2との中間の値、代表値V6は例えば代表値V3と代表値V4との中間の値となっている。   In the example shown in FIG. 9, the representative value V5 is, for example, an intermediate value between the representative value V1 and the representative value V2, and the representative value V6 is, for example, an intermediate value between the representative value V3 and the representative value V4.

ゲインマップ生成部46は、例えば、図9に示す代表値の配置を、例えば時計回りに135度回転する。図10は、ゲインマップ生成部46により図9の配置を異ならせて作られた代表値の配置を示す図である。さらに、ゲインマップ生成部46は、図10に示す変更後の代表値の配置において、必要に応じて、代表値の正規化を上述したように行う。   For example, the gain map generation unit 46 rotates the representative value arrangement shown in FIG. 9 by 135 degrees clockwise, for example. FIG. 10 is a diagram illustrating the arrangement of representative values created by the gain map generation unit 46 by changing the arrangement of FIG. 9. Furthermore, the gain map generation unit 46 performs normalization of the representative values as described above in the arrangement of the changed representative values shown in FIG. 10 as necessary.

このように、代表値の配置を異ならせる処理は、90度単位の回転に限るものではなく、任意角度の回転により行っても良い。このときの回転方向や回転角度は、例えば、最大の代表値と、最大の代表値に隣接する代表値と、の位置関係や代表値同士の値の大きさの関係に基づいて決定するようにしても良い(後述する実施形態2も参照)。   As described above, the process of changing the arrangement of the representative values is not limited to the rotation in units of 90 degrees, and may be performed by rotation at an arbitrary angle. The rotation direction and rotation angle at this time are determined based on, for example, the positional relationship between the maximum representative value and the representative value adjacent to the maximum representative value and the relationship between the values of the representative values. (See also Embodiment 2 described later).

さらに、代表値の変更を回転により行うに限るものではなく、鏡面対称に反転させることにより行っても良いし、1組の代表値同士を交換することを1回、もしくは異なる組み合わせに対して2回以上実行することにより行っても構わない。   Furthermore, the change of the representative value is not limited to the rotation, but may be performed by reversing the mirror symmetry, and one set of representative values may be exchanged once or two different combinations. You may perform by performing more than once.

続いて、ゲインマップ生成部46は、変更後の(あるいはさらに正規化後の)代表値の配置に基づいて、図11に示すように、ゲインマップGMを作成する。図11は、図10の配置に基づきゲインマップ生成部46により算出されたゲインマップGMを示す図である。   Subsequently, the gain map generation unit 46 creates a gain map GM as shown in FIG. 11 based on the arrangement of the representative values after change (or after normalization). FIG. 11 is a diagram showing the gain map GM calculated by the gain map generator 46 based on the arrangement of FIG.

この図11に示すゲインマップGMは、図10に示した変更後の代表値の配置に基づき算出されたものであるために、ゲイン値が、左側ほど高く、右側ほど低い分布となっている。   Since the gain map GM shown in FIG. 11 is calculated based on the changed arrangement of the representative values shown in FIG. 10, the gain value is distributed higher on the left side and lower on the right side.

上述したように、代表値を算出する対象の部分領域の数は適宜の複数で良く、代表値の配置の変更方法も特定の方法に限定されるものではないが、作成されるゲインマップGMが、中央部に比べて周辺部における何れか部分のゲイン値が高くなるような分布であると良い。これは、中央部のゲイン値が高い(つまり、中央部の色変更が大きい)と画像全体の色合いが変色したかのような不自然な印象を受けることがあり、こうした画像となるのを防ぐためである。   As described above, the number of partial areas for which the representative value is calculated may be an appropriate plural number, and the method for changing the arrangement of the representative value is not limited to a specific method. The distribution may be such that the gain value in any part in the peripheral part is higher than in the central part. This is because when the gain value in the center is high (that is, the color change in the center is large), the color of the whole image may appear unnatural and prevent such an image from appearing. Because.

なお、図7や図11に示したようなゲインマップGMを作成するための画像データとして、例えば縮小RAW画像データを利用する場合には、RAW画像データに比べて画素数が少ないために処理を高速かつ低負荷で行うことができる。また、縮小RAW画像データに設定する部分領域の大きさ(部分領域に含まれる画素数)を、縮小していないRAW画像データに設定する部分領域の大きさと同じにする場合には、画像に占める部分領域の大きさの割合が縮小していないRAW画像データの場合よりも大きくなるために、ノイズや僅かな画角変更の影響を受け難くなり、安定したゲインマップGMを作成することができる利点がある。   For example, when reduced RAW image data is used as the image data for creating the gain map GM as shown in FIG. 7 or FIG. 11, the processing is performed because the number of pixels is smaller than that of the RAW image data. It can be performed at high speed and with low load. Further, if the size of the partial area set in the reduced RAW image data (the number of pixels included in the partial area) is the same as the size of the partial area set in the unreduced RAW image data, it occupies the image. Since the ratio of the size of the partial area is larger than that in the case of unreduced RAW image data, it is less susceptible to noise and slight changes in the angle of view, and an advantage that a stable gain map GM can be created. There is.

また、縮小RAW画像データまたはRAW画像データを用いるときに、撮像素子23のカラーフィルタにおいて最も感度の高いフィルタに対応する画素のデータを輝度相当信号として抽出して用いることにより、全ての色のカラーフィルタに対応する画素のデータから輝度信号を生成して用いる場合よりも、処理を低負荷に行うことができる。   Further, when using the reduced RAW image data or the RAW image data, the pixel data corresponding to the most sensitive filter in the color filter of the image sensor 23 is extracted and used as a luminance-corresponding signal. The processing can be performed at a lower load than when a luminance signal is generated from the pixel data corresponding to the filter and used.

上述したようにゲインマップGMが作成されたら、色変更処理部47は、ゲインマップGMの各画素位置のゲイン値Gを用いて、基本画像処理が行われた画像の色相と彩度との少なくとも一方を変更する。   When the gain map GM is created as described above, the color change processing unit 47 uses at least the hue and saturation of the image subjected to the basic image processing using the gain value G at each pixel position of the gain map GM. Change one.

具体的に、基本画像処理が行われた画像がRGB画像、つまり画像を表現する色空間がRGB色空間であり、色相または彩度に係る成分Cが、R,G,Bである場合について説明する。   Specifically, the case where the image that has undergone the basic image processing is an RGB image, that is, the color space that represents the image is the RGB color space, and the components C related to hue or saturation are R, G, and B will be described. To do.

成分Cについて上述したのと同様に、画素位置を(x,y)とし、色変更処理部47による色変更前の各色成分の画素値をR_in(x,y),G_in(x,y),B_in(x,y)、色変更後の各色成分の画素値をR_out(x,y),G_out(x,y),B_out(x,y)、各色成分に対する画素位置に依存しない所定の定数をR_cnt,G_cnt,B_cnt、ゲインマップGMにおける画素位置に応じたゲイン値をG(x,y)とすると、色変更処理部47は、
R_out(x,y)=R_in(x,y)+R_cnt×G(x,y)
G_out(x,y)=G_in(x,y)+G_cnt×G(x,y)
B_out(x,y)=B_in(x,y)+B_cnt×G(x,y)
の演算を行うことにより、色変更処理を行う。
As described above for the component C, the pixel position is (x, y), and the pixel values of the respective color components before color change by the color change processing unit 47 are R_in (x, y), G_in (x, y), B_in (x, y), pixel values of each color component after color change are R_out (x, y), G_out (x, y), B_out (x, y), and predetermined constants that do not depend on the pixel position for each color component. When the gain value corresponding to the pixel position in R_cnt, G_cnt, B_cnt and gain map GM is G (x, y), the color change processing unit 47
R_out (x, y) = R_in (x, y) + R_cnt × G (x, y)
G_out (x, y) = G_in (x, y) + G_cnt × G (x, y)
B_out (x, y) = B_in (x, y) + B_cnt × G (x, y)
The color change process is performed by performing the above calculation.

ここに、この色変更処理が色相と彩度との少なくとも一方を変更する処理となるためには、
R_cnt≠G_cnt
G_cnt≠B_cnt
B_cnt≠R_cnt
の内の少なくとも1つが成立していることが必要である。
In order for this color change process to be a process that changes at least one of hue and saturation,
R_cnt ≠ G_cnt
G_cnt ≠ B_cnt
B_cnt ≠ R_cnt
It is necessary that at least one of the above holds.

このような所定の定数の値の一例は、
(R_cnt,G_cnt,B_cnt)=(25,−15,−10)
である。この定数値は、画像にマゼンタの色合いを加えるための値となっている。従って、元の画像に加えたい色合いに応じて、定数(R_cnt,G_cnt,B_cnt)を適切に選ぶと良い。この定数は、フレーム単位で変更しても良いし、撮影シーンに応じて変更しても構わない。
An example of the value of such a predetermined constant is
(R_cnt, G_cnt, B_cnt) = (25, -15, -10)
It is. This constant value is a value for adding magenta color to the image. Accordingly, constants (R_cnt, G_cnt, B_cnt) may be appropriately selected according to the color to be added to the original image. This constant may be changed in units of frames or may be changed according to the shooting scene.

なお、ここでは画像を表現する色空間としてRGB色空間を例に挙げたが、YCbCr色空間、YUV色空間、YPbPr色空間、L*a*b*色空間、HSV色空間などの各種の色空間においても同様の色変更処理を行うことが可能である。例えば、YCbCr色空間、YUV色空間、YPbPr色空間、あるいはL*a*b*色空間は、何れも輝度成分と色差成分とに分けられているために、少なくとも色差成分の1つに対して上述したような処理を行えば良い(輝度成分については行っても良いし、行わなくても構わない)。また、HSV色空間の場合には、色相Hと彩度Sとの少なくとも一方に対して上述したような処理を行えば良い(明度Vについては行っても良いし、行わなくても構わない)。   Here, the RGB color space is exemplified as a color space for representing an image, but various colors such as a YCbCr color space, a YUV color space, a YPbPr color space, an L * a * b * color space, and an HSV color space are used. Similar color change processing can be performed in the space. For example, since the YCbCr color space, YUV color space, YPbPr color space, or L * a * b * color space are all divided into luminance components and color difference components, at least one of the color difference components is used. The processing as described above may be performed (the luminance component may or may not be performed). In the case of the HSV color space, the above-described process may be performed on at least one of the hue H and the saturation S (the brightness V may or may not be performed). .

次に、図12〜図14を参照して、撮像装置の処理を説明する。   Next, processing of the imaging apparatus will be described with reference to FIGS.

まず、図12は撮像装置におけるメイン処理の流れを示すフローチャートである。この図12に示す処理は、マイクロコンピュータ41の制御に基づき行われる。   First, FIG. 12 is a flowchart showing a flow of main processing in the imaging apparatus. The process shown in FIG. 12 is performed based on the control of the microcomputer 41.

操作部38の電源ボタンがオン操作されて撮像装置の電源がオンになると、このメイン処理が開始され、まず撮像装置の初期化を行う(ステップS11)。この初期化において、動画記録中であるか否かを示す記録中フラグもオフにリセットされる。   When the power button of the operation unit 38 is turned on to turn on the image pickup apparatus, this main process is started, and the image pickup apparatus is first initialized (step S11). In this initialization, a recording flag indicating whether or not a moving image is being recorded is also reset to off.

次に、マイクロコンピュータ41は、操作部38の再生ボタンが操作されたか否かを判定する(ステップS12)。   Next, the microcomputer 41 determines whether or not the playback button of the operation unit 38 has been operated (step S12).

ここで再生ボタンが操作された場合には、再生・編集処理を行う(ステップS13)。この再生・編集処理は、記録媒体36に記録されているファイルの一覧を表示して、ユーザーからの選択操作を待ち、選択決定されたファイルを再生し、または選択されている画像を編集する処理である。   If the playback button is operated here, playback / editing processing is performed (step S13). In this reproduction / editing process, a list of files recorded on the recording medium 36 is displayed, a selection operation from the user is waited for, the selected file is reproduced, or the selected image is edited. It is.

ステップS12において再生ボタンが操作されていないか、あるいはステップS13の処理が行われた場合には、操作部38のメニューボタンが操作されて、撮像装置に関するカメラ設定が選択されたか否かを判定する(ステップS14)。   If the playback button has not been operated in step S12, or if the process in step S13 has been performed, it is determined whether the menu button of the operation unit 38 has been operated and camera settings relating to the imaging device have been selected. (Step S14).

ここでカメラ設定が選択された場合には、カメラ設定を変更するメニューをLCD34に表示して、カメラ設定を変更するユーザ操作が操作部38からなされるのを待機する。ここに、カメラ設定の幾つかの例としては、
仕上がり:ナチュラル、ビビッド、フラット、モノトーン
エフェクト:日焼け効果
静止画記録モード:JPEG記録、TIFF記録、
JPEG+RAW記録、RAW記録
動画記録モード:Motion JPEG、H.264
画質:ファイン、ノーマル
などが挙げられるが、これらに限るものではない。
When the camera setting is selected here, a menu for changing the camera setting is displayed on the LCD 34, and a user operation for changing the camera setting is awaited from the operation unit 38. Here are some examples of camera settings:
Finish: Natural, Vivid, Flat, Monotone Effect: Sunburn effect Still image recording mode: JPEG recording, TIFF recording,
JPEG + RAW recording, RAW recording Movie recording mode: Motion JPEG, H.264 H.264
Image quality: Fine, normal, etc., but not limited to these.

そして、ユーザ操作がなされた場合には、操作内容に応じてカメラ設定を行う(ステップS15)。このカメラ設定において、エフェクトとして、上述したようなプリント写真の経年変化や日光による退色を再現する色変更処理である日焼け効果をオンに設定する場合には、さらに、どの色合いの日焼け効果を得るようにするかをユーザが所望に選択設定することができるようにしても良い。   When a user operation is performed, camera settings are performed according to the operation content (step S15). In this camera setting, when the tanning effect, which is a color changing process that reproduces the aging of the printed photograph and fading due to sunlight as described above, is turned on, which shade of tanning effect is further obtained. The user may be able to select and set as desired.

ステップS14においてカメラ設定が選択されていないか、あるいはステップS15の処理が行われた場合には、操作部38の動画ボタンが操作されたか否かを判定する(ステップS16)。   If no camera setting is selected in step S14 or if the process of step S15 is performed, it is determined whether or not the moving image button of the operation unit 38 has been operated (step S16).

ここで、動画ボタンが操作された場合には、まず、記録中フラグを反転(つまり、オンであればオフに、オフであればオンに)して(ステップS17)、記録中フラグがオンであるかオフであるかに基づき、動画記録中であるか否かを判定する(ステップS18)。   Here, when the moving image button is operated, first, the recording flag is reversed (that is, turned off if turned on, turned on if turned off) (step S17), and the recording flag is turned on. It is determined whether or not the moving image is being recorded based on whether it is off or not (step S18).

ここで動画記録中である場合には記録開始されたことになるために動画像ファイルを生成し、画像データを記録できるように準備する(ステップS19)。   If the moving image is being recorded, the recording is started, so that a moving image file is generated and prepared so that image data can be recorded (step S19).

また、動画記録中でない場合には、記録終了することになるために、動画像ファイルのヘッダにフレーム数を記録する等を行って動画像ファイルとして再生可能な状態にし、ファイル書き込みを終了して動画像ファイルを閉じる(ステップS20)。   If the movie is not being recorded, the recording ends, so the number of frames is recorded in the header of the moving image file so that it can be played back as a moving image file, and the file writing is completed. The moving image file is closed (step S20).

ステップS16において動画ボタンが操作されていないか、あるいはステップS19またはステップS20の処理が行われた場合には、ステップS18と同様に記録中フラグに基づき動画記録中であるか否かを判定する(ステップS21)。   If the moving image button is not operated in step S16, or if the processing in step S19 or step S20 is performed, it is determined whether or not moving image recording is performed based on the recording flag as in step S18 ( Step S21).

ここで動画記録中でない場合には、レリーズボタンがオフから1段階目の押圧状態(いわゆる半押状態)である1stレリーズオンの状態へ遷移したか否かを判定する(ステップS22)。   If the moving image is not being recorded, it is determined whether or not the release button has transitioned from the OFF state to the 1st release on state, which is the first-stage pressing state (so-called half-pressed state) (step S22).

ここで1stレリーズオンの状態へ遷移した場合には、この遷移したタイミングにおいて、静止画像を撮影するための自動露出(AE)制御をAE処理部30により行うと共に、自動焦点制御(AF)をAF処理部31により行う(ステップS23)。これにより、1stレリーズボタンが押圧された以降は、いわゆるAEロックおよびAFロックが行われる。   When transitioning to the state where the first release is on, automatic exposure (AE) control for capturing a still image is performed by the AE processing unit 30 and automatic focus control (AF) is performed at AF at the transition timing. This is performed by the processing unit 31 (step S23). Thus, after the 1st release button is pressed, so-called AE lock and AF lock are performed.

一方、ステップS22において1stレリーズオンの状態へ遷移していない場合には、レリーズボタンが2段階目の押圧状態である2ndレリーズオンの状態(いわゆる全押状態)となっているか否かを判定する(ステップS24)。   On the other hand, if the transition to the first release on state has not been made in step S22, it is determined whether or not the release button is in the second release on state (the so-called full press state), which is the second-stage press state. (Step S24).

ここで2ndレリーズオンの状態となっている場合には、絞り12を駆動しシャッタ21を開いて撮像素子23により露光する一連の撮影処理を実行する(ステップS25)。   Here, when the 2nd release is in the on state, a series of photographing processing is performed in which the diaphragm 12 is driven, the shutter 21 is opened, and exposure is performed by the image sensor 23 (step S25).

続いて、撮影により得られた画像に対して、後で図13を参照して説明するような画像処理を行う(ステップS26)。   Subsequently, image processing as will be described later with reference to FIG. 13 is performed on the image obtained by photographing (step S26).

その後、画像処理された静止画像は、例えばレックビューとしてLCD34に表示されると共に、カメラ設定されている型式で静止画像ファイルとして記録媒体36に記録される(ステップS27)。具体例を挙げれば、静止画記録モードとしてJPEG記録が設定されている場合には、YC422形式でJPEG圧縮してJPEGファイルを作成し記録を行う。また、静止画記録モードとしてTIFF記録が設定されている場合には、RGBデータに変換してRGB形式でTIFFファイルを作成し記録を行う。さらに、RAW記録を行うように設定されている場合には、ステップS25で撮影して得たRAW画像をRAWファイルとして記録する。   Thereafter, the still image that has been subjected to image processing is displayed on the LCD 34 as, for example, a rec view, and is recorded on the recording medium 36 as a still image file in a camera-set format (step S27). As a specific example, when JPEG recording is set as the still image recording mode, JPEG compression is performed in the YC422 format to create and record a JPEG file. If TIFF recording is set as the still image recording mode, it is converted into RGB data to create a TIFF file in the RGB format and perform recording. Further, if it is set to perform RAW recording, the RAW image obtained by shooting in step S25 is recorded as a RAW file.

そして、ステップS21において動画記録中である場合、またはステップS24において2ndレリーズオンの状態となっていない場合には、シャッタ21を開放状態にして、動画撮影またはライブビュー用の自動露出(AE)制御をAE処理部30により行い(ステップS28)、電子シャッタによる1フレーム(あるいは1フィールド等)の画像撮影を行う(ステップS29)。   If the moving image is being recorded in step S21, or if the 2nd release is not turned on in step S24, the shutter 21 is opened and automatic exposure (AE) control for moving image shooting or live view is performed. Is performed by the AE processing unit 30 (step S28), and one frame (or one field, etc.) image is captured by the electronic shutter (step S29).

こうして撮影された画像に対して、後で図13を参照して説明するような画像処理を行い(ステップS30)、LCD34にライブビュー表示を行う(ステップS31)。   Image processing as described later with reference to FIG. 13 is performed on the image thus captured (step S30), and live view display is performed on the LCD 34 (step S31).

次に、動画記録中であるか否かを判定して(ステップS32)、動画記録中である場合には撮影して得られたフレーム画像を画像圧縮伸張部32で圧縮して記録媒体36へ記録(追記)する(ステップS33)。   Next, it is determined whether or not the moving image is being recorded (step S32). If the moving image is being recorded, the frame image obtained by shooting is compressed by the image compression / decompression unit 32 to the recording medium 36. Recording (addition) is performed (step S33).

ステップS23、ステップS27、あるいはステップS33の処理を行うか、またはステップS32において動画記録中でない場合には、電源ボタンがオフ操作されたか否かを判定する(ステップS34)。   Whether the process of step S23, step S27, or step S33 is performed, or if the moving image is not being recorded in step S32, it is determined whether or not the power button is turned off (step S34).

ここで、電源ボタンがオフ操作されていない場合には、ステップS12へ戻って上述したような処理を繰り返して行い、電源ボタンがオフ操作された場合には、このメイン処理を終了する。   If the power button has not been turned off, the process returns to step S12 to repeat the above-described processing. If the power button has been turned off, the main process is terminated.

次に図13は、撮像装置の画像処理部27により行われる画像処理の流れを示すフローチャートである。   Next, FIG. 13 is a flowchart illustrating a flow of image processing performed by the image processing unit 27 of the imaging apparatus.

この処理に入ると、OB減算処理を行い、画像データからオプティカルブラック値を減算する(ステップS41)。   Upon entering this process, an OB subtraction process is performed to subtract the optical black value from the image data (step S41).

続いて、例えばベイヤー配列となっている画像データに対して、予めユーザーが設定したホワイトバランスモードに応じたRゲインとBゲインをカメラ本体のフラッシュメモリ39から読み出して、読み出したRゲインをR画素値に、BゲインをB画素値にそれぞれ乗算することによりホワイトバランス(WB)補正を行う(ステップS42)。なお、ホワイトバランスモードとしてオートホワイトバランスが選択されている場合には、撮影した画像データを解析することによりRゲインとBゲインを算出し、算出したRゲインとBゲインを用いてホワイトバランス補正を行う。   Subsequently, for example, R gain and B gain corresponding to the white balance mode set in advance by the user are read from the flash memory 39 of the camera body with respect to image data having a Bayer array, and the read R gain is set to R pixel. White balance (WB) correction is performed by multiplying the value by the B gain and the B pixel value, respectively (step S42). When auto white balance is selected as the white balance mode, R gain and B gain are calculated by analyzing captured image data, and white balance correction is performed using the calculated R gain and B gain. Do.

そして、1画素につきRGB成分の内の1色成分のみが存在するベイヤー配列の画像データから、着目画素に存在しない色成分を周辺画素から補間して求めることにより、全画素がRGBの3色成分を全て備える画像データに変換する同時化処理を行う(ステップS43)。   Then, from the image data of the Bayer array in which only one color component of the RGB components per pixel exists, the color components that do not exist in the pixel of interest are interpolated and obtained from the surrounding pixels, so that all the pixels are RGB three color components. Is synchronized (step S43).

さらに、設定されているホワイトバランスモードに応じたカラーマトリクス係数を本体のフラッシュメモリ39から読み出して画像データに乗算すると共に、色相や彩度に応じて適切な色再現になるように色を補正することにより、色再現処理を行う(ステップS44)。   Further, the color matrix coefficient corresponding to the set white balance mode is read from the flash memory 39 of the main body and multiplied by the image data, and the color is corrected so as to achieve an appropriate color reproduction according to the hue and saturation. Thus, color reproduction processing is performed (step S44).

次に、RGBデータをそれぞれガンマ変換してから、YCbCrデータに色変換した後に、輝度データYに対してさらにガンマ変換することにより、輝度変更処理を行う(ステップS45)。   Next, after each RGB data is gamma-converted and then color-converted to YCbCr data, the luminance data Y is further gamma-converted to perform luminance change processing (step S45).

続いて、バンドパスフィルタにより画像データからエッジ成分を抽出して、抽出したエッジ成分に、エッジ強調度に応じた係数を乗算して画像データに加算することにより、エッジ強調処理を行う(ステップS46)。   Subsequently, an edge component is extracted from the image data by a band pass filter, and an edge enhancement process is performed by multiplying the extracted edge component by a coefficient corresponding to the degree of edge enhancement and adding it to the image data (step S46). ).

加えて、画像データを周波数分解して、周波数に応じてコアリング処理などを行うことにより、ノイズを低減するノイズリダクション処理を行う(ステップS47)。   In addition, the image data is subjected to frequency decomposition, and a noise reduction process for reducing noise is performed by performing a coring process or the like according to the frequency (step S47).

上述したステップS41〜S47の処理が、基本画像処理部28により行われる基本画像処理である。   The processing in steps S41 to S47 described above is basic image processing performed by the basic image processing unit 28.

続いて、操作部38からの入力設定により、日焼け効果がオンに設定されているか否かを判定する(ステップS48)。   Subsequently, it is determined whether or not the sunburn effect is set to ON by input setting from the operation unit 38 (step S48).

ここで日焼け効果がオンに設定されている場合には、特殊画像処理部29により以下に説明するステップS49〜S51の処理を行う。   Here, when the sunburn effect is set to ON, the special image processing unit 29 performs the processes of steps S49 to S51 described below.

すなわち、解析部45が、図3に示すような画像Pから輝度信号(あるいは輝度相当信号)を抽出し、図4(または図8)に示したような部分領域を設定して、図5(または図9)に示したような代表値の配置を算出する(ステップS49)。   That is, the analysis unit 45 extracts a luminance signal (or luminance equivalent signal) from the image P as shown in FIG. 3, sets a partial region as shown in FIG. 4 (or FIG. 8), and FIG. Alternatively, the arrangement of representative values as shown in FIG. 9) is calculated (step S49).

次に、ゲインマップ生成部46が、図5(または図9)に示したような代表値の配置に基づいて、図6(または図10)に示したように配置を変更し、変更された代表値の配置に基づいて図7(または図11)に示したようなゲインマップGMを作成する(ステップS50)。   Next, the gain map generator 46 changes the arrangement as shown in FIG. 6 (or FIG. 10) based on the arrangement of the representative values as shown in FIG. 5 (or FIG. 9). A gain map GM as shown in FIG. 7 (or FIG. 11) is created based on the arrangement of the representative values (step S50).

その後、色変更処理部47が、後で図14を参照してするような色変更処理を行う(ステップS51)。   Thereafter, the color change processing unit 47 performs color change processing as will be described later with reference to FIG. 14 (step S51).

このステップS51の処理を行うか、またはステップS48において日焼け効果のエフェクトがオンでない場合には、この処理からリターンする。   When the process of step S51 is performed or when the effect of the sunburn effect is not on in step S48, the process returns from this process.

続いて図14は、撮像装置の色変更処理部47により行われる色変更処理を示すフローチャートである。   Next, FIG. 14 is a flowchart illustrating color change processing performed by the color change processing unit 47 of the imaging apparatus.

この処理に入ると、色変更処理部47は、基本画像処理が行われてSDRAM37に記憶されている画像データから、例えば画素配列の順序に従った画素位置(x,y)における1画素の画素値を取得する(ステップS61)。   Upon entering this process, the color change processing unit 47 performs pixel image processing on the pixel position (x, y) according to the pixel arrangement order, for example, from the image data that has been subjected to basic image processing and stored in the SDRAM 37. A value is acquired (step S61).

次に、取得した画素がRGB色空間で表現されていない場合には、RGB色空間の画素値(R_in(x,y),G_in(x,y),B_in(x,y))に変換する(ステップS62)。   Next, when the acquired pixel is not expressed in the RGB color space, it is converted into a pixel value (R_in (x, y), G_in (x, y), B_in (x, y)) in the RGB color space. (Step S62).

そして、ステップS61において画素値を取得した画素と同一画素位置(x,y)のゲイン値G(x,y)を、SDRAM37に記憶されているゲインマップGMから取得する(ステップS63)。   Then, the gain value G (x, y) at the same pixel position (x, y) as the pixel from which the pixel value has been acquired in step S61 is acquired from the gain map GM stored in the SDRAM 37 (step S63).

続いて、所定の定数R_cnt,G_cnt,B_cntにゲイン値G(x,y)を乗算することにより、画素値に対する色変更量であるオフセット(R_cnt×G(x,y),G_cnt×G(x,y),B_cnt×G(x,y))を算出する(ステップS64)。   Subsequently, by multiplying predetermined constants R_cnt, G_cnt, and B_cnt by a gain value G (x, y), offsets (R_cnt × G (x, y), G_cnt × G (x , Y), B_cnt × G (x, y)) is calculated (step S64).

さらに、画素値(R_in(x,y),G_in(x,y),B_in(x,y))にオフセット(R_cnt×G(x,y),G_cnt×G(x,y),B_cnt×G(x,y))を加算することにより、色変更処理を行う(ステップS65)。   Further, offsets (R_cnt × G (x, y), G_cnt × G (x, y), B_cnt × G) are added to the pixel values (R_in (x, y), G_in (x, y), B_in (x, y)). (X, y)) is added to perform the color change process (step S65).

加えて、ステップS62と逆の色空間変換を必要に応じて行って、元の色空間の表現に戻す(ステップS66)。   In addition, color space conversion opposite to that in step S62 is performed as necessary to return to the original color space representation (step S66).

その後、全画素の処理が完了したか否かを判定して(ステップS67)、まだ全画素の処理が完了していない場合にはステップS61へ戻って次の画素位置について同様の処理を行い、全画素の処理が完了した場合にはこの処理からリターンする。   Thereafter, it is determined whether or not the processing for all the pixels has been completed (step S67). If the processing for all the pixels has not been completed, the process returns to step S61 to perform the same processing for the next pixel position. When processing for all pixels is completed, the process returns from this processing.

このような実施形態1によれば、画像の部分領域を構成する画素の画素値に基づきゲインマップを作成して画像の色相と彩度との少なくとも一方を変更しているために、ランダムではないのに画像毎に異なる色変更を行うことができ、結果を容易に予想することができず意外性を生じる余地がある色変更画像を得ることができる。そして、画像の画素値を利用しておりランダムな処理ではないために、連写や動画などにおけるフレーム間の相関性をある程度維持することができ、不自然な画像群となるのを避けることができる。従って、利便性の高い画像の色変更を行うことが可能となる。   According to the first embodiment, since the gain map is created based on the pixel values of the pixels constituting the partial region of the image and at least one of the hue and saturation of the image is changed, it is not random. However, different color changes can be performed for each image, and a color-changed image that cannot be predicted easily and has room for unexpectedness can be obtained. And since the pixel value of the image is used and it is not a random process, the correlation between frames in continuous shooting or moving images can be maintained to some extent, and it is possible to avoid an unnatural image group. it can. Therefore, it is possible to change the color of an image with high convenience.

また、ゲイン値が最大となる領域が、代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを作成しているために、大きな色変更を行う領域が色飽和した輝度の高い領域となるのを避けることができ、より効果的な色変更となる。   In addition, since the gain map is created so that the area where the gain value is the maximum corresponds to the partial area other than the partial area where the representative value is the maximum, the area where the large color change is performed has a color saturation luminance. It is possible to avoid a high area, and the color change is more effective.

さらに、ゲイン値の空間分布が滑らかに変化するようなゲインマップを得るようにしているために、隣接する画素間で色が急激に変化することはない。また、ゲイン値のヒストグラムが平坦化された分布となるようなゲインマップを生成するようにしているために、画像全体がほぼ均一に強く色変更されたり、あるいは画像全体の色変更がほとんどなかったりするような処理を避けることができる。こうして、色変更が滑らかに生じ、色変更が比較的大きい部分と比較的小さい部分とが程良く分布した自然な風合いの色変更画像を得ることができる。   Furthermore, since a gain map is obtained in which the spatial distribution of gain values changes smoothly, the color does not change abruptly between adjacent pixels. Also, since the gain map is generated so that the histogram of gain values has a flattened distribution, the color of the entire image is strongly changed almost uniformly, or there is almost no color change of the entire image. Can be avoided. In this way, it is possible to obtain a color-change image having a natural texture in which color change occurs smoothly and a portion where the color change is relatively large and a portion where the color change is relatively well distributed.

そして、配置を異ならせた複数の代表値をゲインマップ上の複数の所定の画素位置に配置し、所定の画素位置から任意の画素位置までの距離に基づいて任意の画素位置のゲイン値を補間するようにしたために、色合いの変化に不自然な段差等が生じることのない、自然なグラデーションで色合いが変化した色変更画像を得ることができる。   A plurality of representative values having different arrangements are arranged at a plurality of predetermined pixel positions on the gain map, and a gain value at an arbitrary pixel position is interpolated based on a distance from the predetermined pixel position to the arbitrary pixel position. As a result, it is possible to obtain a color-changed image in which the hue is changed with a natural gradation without causing an unnatural step or the like in the hue change.

加えて、ゲイン値に所定の定数を乗算したオフセットを画像に加算することで色変更画像を算出しているために、コンピュータでの演算処理に適しており、高速な処理が可能となる。このとき、ゲイン値に乗算する定数を選択することにより、所望の色合いの色変更を行うことが可能となり、日焼けしたような画像を得る用途だけでなく、その他の様々な用途に対応することも可能となる。
[実施形態2]
In addition, since the color-changed image is calculated by adding an offset obtained by multiplying the gain value by a predetermined constant to the image, it is suitable for calculation processing by a computer, and high-speed processing is possible. At this time, by selecting a constant to multiply the gain value, it is possible to change the color of the desired hue, and not only for obtaining an image that looks sunburned, but also for various other uses. It becomes possible.
[Embodiment 2]

図15から図18は本発明の実施形態2を示したものであり、図15は撮像装置が予め記憶している基本ゲインマップの例を示す図表である。   FIGS. 15 to 18 show the second embodiment of the present invention, and FIG. 15 is a chart showing an example of a basic gain map stored in advance in the imaging apparatus.

この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。   In the second embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted as appropriate, and only different points will be mainly described.

本実施形態においては、基本的なゲイン値の分布を示す基本ゲインマップが、例えばフラッシュメモリ39に予め(例えば、撮像装置の製造工程において)記憶されている。   In the present embodiment, a basic gain map indicating a basic gain value distribution is stored in advance in, for example, the flash memory 39 (for example, in the manufacturing process of the imaging device).

ここで上述したように、記録媒体36へ記録する画像の画素数(画素構成)は、複数の選択肢の中から選択して設定可能である。しかし、記録可能な全ての画素構成に合わせて基本ゲインマップを予め多数用意しておくことは、フラッシュメモリ39として大容量のものが必要となるために現実的でない。そこで、基本ゲインマップは、記録画像の最大画素数以下の画素構成、例えば記録画像の最小画素数と同程度かあるいはそれよりも小さい画素構成のデータとして構成されているものとする。このような構成により、フラッシュメモリ39の記憶容量を削減することが可能となる。   As described above, the number of pixels (pixel configuration) of an image to be recorded on the recording medium 36 can be selected and set from a plurality of options. However, it is not realistic to prepare a large number of basic gain maps in advance for all recordable pixel configurations because the flash memory 39 needs a large capacity. Therefore, it is assumed that the basic gain map is configured as data having a pixel configuration equal to or less than the maximum number of pixels of the recorded image, for example, a pixel configuration that is equal to or smaller than the minimum number of pixels of the recorded image. With such a configuration, the storage capacity of the flash memory 39 can be reduced.

図15に示す例においては、右上角の高いゲイン値(例えばゲイン値1)から左下角の低いゲイン値(例えばゲイン値0)へ向けて滑らかなグラデーションをなす基本ゲインマップBGM1と、右下角の高いゲイン値(例:1)から左上角の低いゲイン値(例:0)へ向けて滑らかなグラデーションをなす基本ゲインマップBGM2と、左下角の高いゲイン値(例:1)から右上角の低いゲイン値(例:0)へ向けて滑らかなグラデーションをなす基本ゲインマップBGM3と、左上角の高いゲイン値(例:1)から右下角の低いゲイン値(例:0)へ向けて滑らかなグラデーションをなす基本ゲインマップBGM4と、がフラッシュメモリ39に記憶されている。   In the example shown in FIG. 15, a basic gain map BGM1 that forms a smooth gradation from a high gain value (for example, gain value 1) in the upper right corner toward a lower gain value (for example, gain value 0) in the lower left corner, A basic gain map BGM2 that forms a smooth gradation from a high gain value (example: 1) to a low gain value (example: 0) in the upper left corner, and a lower upper right corner from a gain value that is high in the lower left corner (example: 1) A basic gain map BGM3 that forms a smooth gradation toward a gain value (example: 0) and a smooth gradation from a high gain value (example: 1) in the upper left corner to a lower gain value (example: 0) in the lower right corner The basic gain map BGM4 forming the following is stored in the flash memory 39.

これらの基本ゲインマップBGM1〜BGM4は、ゲイン値の空間分布が滑らかに変化し、さらに、ゲイン値のヒストグラムが平坦化された分布となるような(つまり、高いゲイン値や低いゲイン値などの特定のゲイン値の画素数が偏って多かったり少なかったりすることのない)ゲインマップとなっている。   In these basic gain maps BGM1 to BGM4, the spatial distribution of gain values changes smoothly, and the gain value histogram becomes a flattened distribution (that is, identification of high gain values, low gain values, etc.). The gain map does not have a large or small number of pixels of the gain value.

このような構成において、解析部45が画像データを解析して例えば図5に示したような代表値の配置を得るのは上述した実施形態1と同様である。   In such a configuration, the analysis unit 45 analyzes the image data to obtain, for example, the arrangement of representative values as shown in FIG. 5, as in the first embodiment described above.

ゲインマップ生成部46は、解析部45により得られた代表値の配置に基づき、フラッシュメモリ39に記憶されている基本ゲインマップBGM1〜BGM4の中から、使用する基本ゲインマップを選択する。このときの選択は、例えば以下のように行う。   The gain map generator 46 selects a basic gain map to be used from the basic gain maps BGM1 to BGM4 stored in the flash memory 39 based on the arrangement of the representative values obtained by the analyzer 45. The selection at this time is performed as follows, for example.

上述したように、輝度が高い領域は白色(色飽和した状態)に近く色の表現範囲が狭い。一方、輝度が低い領域は黒色に近いために同様に色の表現範囲が狭い。一般に、色の表現範囲が広いのは、輝度が中庸の領域である。   As described above, the high luminance region is close to white (color saturation state) and the color expression range is narrow. On the other hand, since the low luminance region is close to black, the color expression range is similarly narrow. In general, the color expression range is wide in the region where the luminance is moderate.

そこでゲインマップ生成部46は、例えば図5のように得られた代表値V1〜V4の内から、代表値のダイナミックレンジ(つまり、画素値のダイナミックレンジであり、例えば10ビットである場合には0〜1023)の中央値(例えば512)に最も近い代表値を選択する。   Therefore, the gain map generation unit 46, for example, from the representative values V1 to V4 obtained as shown in FIG. 5, for example, the dynamic range of the representative value (that is, the dynamic range of the pixel value, for example, 10 bits) The representative value closest to the median value (for example, 512) of 0 to 1023) is selected.

図5に示す例において、ダイナミックレンジの中央値に最も近い代表値がV2であったものとする。   In the example shown in FIG. 5, it is assumed that the representative value closest to the median value of the dynamic range is V2.

すると、ゲインマップ生成部46は、代表値V2の配置である右上に高いゲイン値が配分されるように、図16に示すような基本ゲインマップBGM1を選択する。ここに図16は、ゲインマップ生成部46により選択された基本ゲインマップBGM1を示す図である。   Then, the gain map generation unit 46 selects a basic gain map BGM1 as shown in FIG. 16 so that a high gain value is distributed in the upper right which is the arrangement of the representative value V2. FIG. 16 is a diagram showing the basic gain map BGM1 selected by the gain map generator 46. As shown in FIG.

選択された基本ゲインマップBGM1は、上述したように、色変更処理の対象となる画像データよりも小さい画素構成である場合が多い。そこで、ゲインマップ生成部46は、基本ゲインマップBGM1を補間(例えば線形補間)することにより、色変更処理の対象となる画像データと同一の画素構成のゲインマップGMを生成する。ここに図17は、図16に示す基本ゲインマップBGM1を補間して作成されたゲインマップGMを示す図である。   As described above, the selected basic gain map BGM1 often has a pixel configuration smaller than that of the image data to be subjected to color change processing. Therefore, the gain map generation unit 46 generates a gain map GM having the same pixel configuration as that of the image data to be subjected to the color change process by interpolating (for example, linear interpolation) the basic gain map BGM1. FIG. 17 is a diagram showing the gain map GM created by interpolating the basic gain map BGM1 shown in FIG.

補間元の基本ゲインマップBGM1が、上述したようにゲイン値の空間分布が滑らかに変化し、ゲイン値のヒストグラムが平坦化された分布であるために、線形補間等により作成されたゲインマップGMもゲイン値の空間分布が滑らかに変化し、ゲイン値のヒストグラムが平坦化された分布となる。   Since the basic gain map BGM1 of the interpolation source is a distribution in which the spatial distribution of gain values changes smoothly and the gain value histogram is flattened as described above, the gain map GM created by linear interpolation or the like is also used. The spatial distribution of gain values changes smoothly, and the gain value histogram is flattened.

また、図18は、撮像装置が予め記憶している基本ゲインマップの変形例を示す図である。   FIG. 18 is a diagram illustrating a modification of the basic gain map stored in advance in the imaging apparatus.

図15に示した例では基本ゲインマップBGM1〜BGM4をフラッシュメモリ39に記憶させたが、これらは90度単位の回転対称性を備えている。従って、この図18に示す例では、基本ゲインマップBGM1〜BGM4の内の1つの基本ゲインマップ、ここでは例えば基本ゲインマップBGM4に相当する基本ゲインマップBGMのみをフラッシュメモリ39に記憶させて、その他の基本ゲインマップBGM1〜BGM3が必要となった場合には基本ゲインマップBGMを回転させることにより得るようにしている。   In the example shown in FIG. 15, the basic gain maps BGM1 to BGM4 are stored in the flash memory 39, but these have a rotational symmetry of 90 degrees. Therefore, in the example shown in FIG. 18, only one basic gain map out of the basic gain maps BGM1 to BGM4, for example, the basic gain map BGM corresponding to the basic gain map BGM4 is stored in the flash memory 39, and the others. When the basic gain maps BGM1 to BGM3 are required, the basic gain map BGM is obtained by rotating.

このような構成を採用すれば、フラッシュメモリ39における基本ゲインマップの記憶容量を図15に示した例よりも例えば1/4に低減することができる。また、行方向および列方向にゲイン値が配列された基本ゲインマップBGMを90度単位で回転させることは、基本ゲインマップBGMの読出開始位置および読出順序を変更すれば容易に実行できるために、処理負荷がほとんど増加することがない利点もある。   By adopting such a configuration, the storage capacity of the basic gain map in the flash memory 39 can be reduced to, for example, 1/4 compared with the example shown in FIG. Further, rotating the basic gain map BGM in which gain values are arranged in the row direction and the column direction in units of 90 degrees can be easily executed by changing the reading start position and the reading order of the basic gain map BGM. There is also an advantage that the processing load hardly increases.

なお、上述では基本的なゲイン値の分布を示す基本ゲインマップを予めフラッシュメモリ39に記憶しておいたが、これに代えて、ゲインマップを作成可能な数式やアルゴリズム等をフラッシュメモリ39に予め記憶しておき、代表値の配置に基づき使用する数式やアルゴリズムを選択してゲインマップを作成するようにしても構わない。ゲインマップは比較的単純な数式等により表現可能である場合が多いために、このような構成を採用すればフラッシュメモリ39の記憶容量をより削減することが可能となる。   In the above description, the basic gain map indicating the basic gain value distribution is stored in the flash memory 39 in advance, but instead of this, mathematical formulas and algorithms that can create a gain map are stored in the flash memory 39 in advance. The gain map may be created by selecting a mathematical formula or algorithm to be used based on the representative value arrangement. Since the gain map can often be expressed by a relatively simple mathematical expression or the like, the storage capacity of the flash memory 39 can be further reduced by adopting such a configuration.

このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、ゲイン値の空間分布が滑らかに変化し、ゲイン値のヒストグラムが平坦化された分布となっている基本ゲインマップに基づいてゲインマップGMを生成するようにしたために、画像全体がほぼ均一に強く色変更されたり、あるいは画像全体の色変更がほとんどなかったりするような処理を避けることができる。こうして、色変更が滑らかに生じ、色変更が比較的大きい部分と比較的小さい部分とが程良く分布した自然な風合いの色変更画像を得ることができる。
[実施形態3]
According to the second embodiment, the same effects as those of the first embodiment described above are obtained, the spatial distribution of gain values changes smoothly, and the gain value histogram is a flattened distribution. Since the gain map GM is generated based on the gain map, it is possible to avoid a process in which the entire image is strongly and uniformly color-changed or there is almost no color change of the entire image. In this way, it is possible to obtain a color-change image having a natural texture in which color change occurs smoothly and a portion where the color change is relatively large and a portion where the color change is relatively well distributed.
[Embodiment 3]

図19および図20は本発明の実施形態3を示したものであり、図19は撮像装置が予め記憶している補正係数マップの例を示す図である。   FIGS. 19 and 20 show Embodiment 3 of the present invention, and FIG. 19 is a diagram showing an example of a correction coefficient map stored in advance by the imaging apparatus.

この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。   In the third embodiment, the same parts as those in the first and second embodiments are denoted by the same reference numerals and the description thereof is omitted as appropriate, and only different points will be mainly described.

本実施形態においては、上述した実施形態1で説明したように作成されたゲインマップGMを補正するための補正係数の分布を示す補正係数マップCCMが、例えばフラッシュメモリ39に予め(例えば、撮像装置の製造工程において)記憶されている。この補正係数マップCCMは、図19に示すように、特定の画素位置(例えば画像中央部分)が最も小さな値となり、特定の画素位置から離隔するほど(例えば画像周辺に行くほど)大きな値となる補正係数の分布となっている。さらに、補正係数マップCCMは、演算を簡単にするために、補正係数の取り得る範囲が0以上1以下となるように正規化されているものとする。   In the present embodiment, a correction coefficient map CCM indicating the distribution of correction coefficients for correcting the gain map GM created as described in the first embodiment is stored in the flash memory 39 in advance (for example, an imaging device). In the manufacturing process). As shown in FIG. 19, the correction coefficient map CCM has the smallest value at a specific pixel position (for example, the central portion of the image), and has a larger value as the distance from the specific pixel position (for example, the closer to the periphery of the image). The distribution of correction coefficients. Further, it is assumed that the correction coefficient map CCM is normalized so that the range that the correction coefficient can take is 0 or more and 1 or less in order to simplify the calculation.

なお、補正係数マップCCMは、被写体に応じて、一部を切り出すあるいは値を変更するようにしても良い。例えば、主要被写体を識別して、主要被写体部分は補正係数がより小さくなるような補正係数マップCCMを、一部の切り出しあるいは値の変更により生成するようにしても良い。   Note that a part of the correction coefficient map CCM may be cut out or the value may be changed according to the subject. For example, the main subject may be identified, and a correction coefficient map CCM in which the correction coefficient of the main subject portion becomes smaller may be generated by partially cutting out or changing the value.

この補正係数マップCCMは、上述した実施形態2の基本ゲインマップと同様に、記録画像の最大画素数以下の画素構成、例えば記録画像の最小画素数と同程度かあるいはそれよりも小さい画素構成のデータとして構成し、色変更処理の対象となる画像データの画素構成に応じて補間等を行うようにすると良い。このような構成により、フラッシュメモリ39の記憶容量を削減することが可能となるのは上述と同様である。   Similar to the basic gain map of the second embodiment described above, the correction coefficient map CCM has a pixel configuration equal to or smaller than the minimum pixel number of the recorded image, for example, a pixel configuration equal to or smaller than the maximum pixel number of the recorded image. It is preferable to configure as data and perform interpolation or the like according to the pixel configuration of the image data to be subjected to color change processing. With this configuration, the storage capacity of the flash memory 39 can be reduced as described above.

このような構成において、解析部45が画像データを解析して例えば図5に示したような代表値の配置を得るのは上述した実施形態1と同様である。   In such a configuration, the analysis unit 45 analyzes the image data to obtain, for example, the arrangement of representative values as shown in FIG. 5, as in the first embodiment described above.

さらに、ゲインマップ生成部46が、解析部45により得られた代表値の配置を例えば図6に示したように異ならせてから、補間処理することにより、例えば図7に示したようなゲインマップGMを算出する点も、上述した実施形態1と同様である。   Further, the gain map generation unit 46 performs the interpolation process after changing the arrangement of the representative values obtained by the analysis unit 45 as shown in FIG. 6, for example, as shown in FIG. 7. The point of calculating GM is also the same as in the first embodiment.

本実施形態においてはさらに、ゲインマップ生成部46は、例えば図7に示したように作成したゲインマップGMの補正を行う。   In the present embodiment, the gain map generator 46 further corrects the gain map GM created as shown in FIG. 7, for example.

すなわち、ゲインマップ生成部46は、フラッシュメモリ39から図19に示すような補正係数マップCCMを読み出して、読み出した補正係数マップCCMの画素構成が色変更処理の対象となる画像データの画素構成(ひいてはゲインマップGMの画素構成)と異なる場合には、補正係数マップCCMを補間(例えば線形補間)することにより、ゲインマップGMの画素構成と同じ画素構成の補正係数マップCCMを取得する。   That is, the gain map generation unit 46 reads out the correction coefficient map CCM as shown in FIG. 19 from the flash memory 39, and the pixel configuration of the image data for which the pixel configuration of the read correction coefficient map CCM is the target of color change processing ( If it is different from the pixel configuration of the gain map GM), the correction coefficient map CCM having the same pixel configuration as that of the gain map GM is obtained by interpolating the correction coefficient map CCM (for example, linear interpolation).

次に、ゲインマップ生成部46は、ゲインマップGM上の各ゲイン値に対して、補正係数マップCCM上における同一画素位置の補正係数を乗算することにより、図20に示すような補正ゲインマップCGMを生成する。ここに、図20はゲインマップGMを補正係数マップCCMに基づき補正して得られた補正ゲインマップCGMの例を示す図である。   Next, the gain map generation unit 46 multiplies each gain value on the gain map GM by a correction coefficient at the same pixel position on the correction coefficient map CCM, thereby correcting a correction gain map CGM as shown in FIG. Is generated. FIG. 20 shows an example of the correction gain map CGM obtained by correcting the gain map GM based on the correction coefficient map CCM.

そして、色変更処理部47は、補正ゲインマップCGMに基づいて、画像の色相と彩度との少なくとも一方を、上述したように変更する。   The color change processing unit 47 then changes at least one of the hue and saturation of the image as described above based on the correction gain map CGM.

なお、上述した実施形態2の構成の場合には、図19に示した補正係数マップCCMにより補正された後の基本ゲインマップをフラッシュメモリ39に予め記憶させておくようにすれば良いために、補正係数マップCCMを別途に記憶させておく必要はない。   In the case of the configuration of the second embodiment described above, the basic gain map corrected by the correction coefficient map CCM shown in FIG. 19 may be stored in the flash memory 39 in advance. It is not necessary to store the correction coefficient map CCM separately.

このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、色変更処理を、特定の画素位置が最も小さな値となり、特定の画素位置から離隔するほど大きな値となる補正係数により補正した補正ゲインマップCGMに基づき行うようにしたために、例えば主要被写体OBJなどの色変更を抑制することができ、画像全体が色被りしてしまったような印象の画像となるのを防止して、好ましい色変更画像を得ることができる。   According to the third embodiment, the same effects as those of the first and second embodiments described above can be obtained, and the color change processing is performed so that the specific pixel position has the smallest value and the distance from the specific pixel position increases. Since the correction is performed based on the correction gain map CGM corrected by the correction coefficient to be a value, for example, the color change of the main subject OBJ or the like can be suppressed, and an image having an impression that the entire image is covered with color Therefore, a preferable color-change image can be obtained.

なお、上述では主として画像処理装置について説明したが、画像処理装置と同様の処理を行う画像処理方法であっても良いし、コンピュータを制御して画像処理装置と同様の処理を行うためのプログラム、該プログラムを記録するコンピュータにより読み取り可能な一時的でない記録媒体、等であっても構わない。   Although the image processing apparatus has been mainly described above, an image processing method that performs the same processing as the image processing apparatus may be used, or a program for controlling the computer to perform the same processing as the image processing apparatus, It may be a non-temporary recording medium readable by a computer for recording the program.

また、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope in the implementation stage. In addition, various aspects of the invention can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

1…交換式レンズ
2…カメラ本体
3…インタフェース(I/F)
11…レンズ
12…絞り
13…ドライバ
14…マイクロコンピュータ
15…フラッシュメモリ
21…シャッタ
22…撮像部
23…撮像素子
24…アナログ処理部
25…A/D変換部
26…RAW縮小処理部
27…画像処理部
28…基本画像処理部
29…特殊画像処理部
30…AE処理部
31…AF処理部
32…画像圧縮伸張部
33…LCDドライバ
34…LCD
35…メモリインタフェース(メモリI/F)
36…記録媒体
37…SDRAM
38…操作部
39…フラッシュメモリ
40…バス
41…マイクロコンピュータ(制御部)
45…解析部
46…ゲインマップ生成部
47…色変更処理部
DESCRIPTION OF SYMBOLS 1 ... Interchangeable lens 2 ... Camera body 3 ... Interface (I / F)
DESCRIPTION OF SYMBOLS 11 ... Lens 12 ... Aperture 13 ... Driver 14 ... Microcomputer 15 ... Flash memory 21 ... Shutter 22 ... Imaging part 23 ... Imaging element 24 ... Analog processing part 25 ... A / D conversion part 26 ... Raw reduction processing part 27 ... Image processing Unit 28 ... Basic image processing unit 29 ... Special image processing unit 30 ... AE processing unit 31 ... AF processing unit 32 ... Image compression / decompression unit 33 ... LCD driver 34 ... LCD
35 ... Memory interface (memory I / F)
36 ... Recording medium 37 ... SDRAM
38 ... Operation part 39 ... Flash memory 40 ... Bus 41 ... Microcomputer (control part)
45 ... Analysis unit 46 ... Gain map generation unit 47 ... Color change processing unit

Claims (7)

画像の部分領域を構成する複数の画素の輝度信号から抽出した画素値に基づき該部分領域に対応する代表値を算出することを複数の部分領域に対して行い、算出した複数の代表値と複数の上記部分領域の配置とに基づき代表値の配置を得る解析部と、
上記代表値の配置に基づいて、上記画像を構成する各画素に対応するゲイン値を与えるゲインマップであって、該ゲイン値が最大となる領域が上記代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを得るゲインマップ生成部と、
上記ゲインマップに基づいて、上記画像の色相と彩度との少なくとも一方を変更する色変更処理部と、
を具備することを特徴とする画像処理装置。
The representative value corresponding to the partial area is calculated based on the pixel value extracted from the luminance signal of the plurality of pixels constituting the partial area of the image, and the calculated representative value and the plurality of representative values are calculated. An analysis unit for obtaining an arrangement of representative values based on the arrangement of the partial areas of
A gain map that gives a gain value corresponding to each pixel constituting the image based on the arrangement of the representative value, wherein a region where the gain value is maximum is a portion other than the partial region where the representative value is maximum A gain map generator for obtaining a gain map corresponding to the region;
A color change processing unit that changes at least one of hue and saturation of the image based on the gain map;
An image processing apparatus comprising:
上記ゲインマップ生成部は、上記ゲインマップ上のゲイン値の空間分布が滑らかに変化するような該ゲインマップを得ることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the gain map generation unit obtains the gain map such that a spatial distribution of gain values on the gain map changes smoothly. 上記ゲインマップ生成部は、上記代表値の配置を異ならせるように、複数の上記代表値を上記ゲインマップ上の複数の所定の画素位置に配置し、該所定の画素位置から任意の画素位置までの距離に基づいて該任意の画素位置のゲイン値を補間することにより上記ゲインマップを算出することを特徴とする請求項2に記載の画像処理装置。   The gain map generation unit arranges a plurality of representative values at a plurality of predetermined pixel positions on the gain map so as to vary the arrangement of the representative values, and from the predetermined pixel position to an arbitrary pixel position. The image processing apparatus according to claim 2, wherein the gain map is calculated by interpolating a gain value at the arbitrary pixel position based on the distance of the image. 上記ゲインマップ生成部は、上記ゲインマップ上の各ゲイン値に対して、特定の画素位置が最も小さな値となり、該特定の画素位置から離隔するほど大きな値となる補正係数を乗算することにより、補正されたゲインマップを生成し、
上記色変更処理部は、上記補正されたゲインマップに基づいて、上記画像の色相と彩度との少なくとも一方を変更することを特徴とする請求項2に記載の画像処理装置。
The gain map generation unit multiplies each gain value on the gain map by a correction coefficient that has a smallest specific pixel position and a larger value as the distance from the specific pixel position increases. Generate a corrected gain map,
The image processing apparatus according to claim 2, wherein the color change processing unit changes at least one of hue and saturation of the image based on the corrected gain map.
上記画像における画素位置を(x,y)とし、上記画像を表現する色空間の成分の内の、色相または彩度に係る成分の少なくとも1つをCにより表すとすると、画素位置に依存しない所定の定数をC_cntとし、画素位置(x,y)における、上記色変更処理部による色変更前の成分をC_in(x,y)、色変更後の成分をC_out(x,y)、上記ゲインマップのゲイン値をG(x,y)とすれば、上記色変更処理部は、
C_out(x,y)=C_in(x,y)+C_cnt×G(x,y)
の演算を全ての画素位置(x,y)に対して行うことにより、上記画像の色変更を行うことを特徴とする請求項1に記載の画像処理装置。
If the pixel position in the image is (x, y) and at least one of the components of the color space expressing the image is represented by C, C is a predetermined value that does not depend on the pixel position. , C_cnt, the component before color change by the color change processing unit at the pixel position (x, y) is C_in (x, y), the component after color change is C_out (x, y), and the gain map If the gain value is G (x, y), the color change processing unit
C_out (x, y) = C_in (x, y) + C_cnt × G (x, y)
The image processing apparatus according to claim 1, wherein the color of the image is changed by performing the above calculation on all pixel positions (x, y).
画像の部分領域を構成する複数の画素の輝度信号から抽出した画素値に基づき該部分領域に対応する代表値を算出することを複数の部分領域に対して行い、算出した複数の代表値と複数の上記部分領域の配置とに基づき代表値の配置を得る解析ステップと、
上記代表値の配置に基づいて、上記画像を構成する各画素に対応するゲイン値を与えるゲインマップであって、該ゲイン値が最大となる領域が上記代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを得るゲインマップ生成ステップと、
上記ゲインマップに基づいて、上記画像の色相と彩度との少なくとも一方を変更する色変更処理ステップと、
を有することを特徴とする画像処理方法。
The representative value corresponding to the partial area is calculated based on the pixel value extracted from the luminance signal of the plurality of pixels constituting the partial area of the image, and the calculated representative value and the plurality of representative values are calculated. An analysis step for obtaining an arrangement of representative values based on the arrangement of the partial areas of
A gain map that gives a gain value corresponding to each pixel constituting the image based on the arrangement of the representative value, wherein a region where the gain value is maximum is a portion other than the partial region where the representative value is maximum A gain map generation step for obtaining a gain map corresponding to the region;
A color change processing step for changing at least one of hue and saturation of the image based on the gain map;
An image processing method comprising:
コンピュータに画像処理を行わせるためのプログラムであって、
コンピュータに、
画像の部分領域を構成する複数の画素の輝度信号から抽出した画素値に基づき該部分領域に対応する代表値を算出することを複数の部分領域に対して行い、算出した複数の代表値と複数の上記部分領域の配置とに基づき代表値の配置を得る解析ステップと、
上記代表値の配置に基づいて、上記画像を構成する各画素に対応するゲイン値を与えるゲインマップであって、該ゲイン値が最大となる領域が上記代表値が最大となる部分領域以外の部分領域に対応するようなゲインマップを得るゲインマップ生成ステップと、
上記ゲインマップに基づいて、上記画像の色相と彩度との少なくとも一方を変更する色変更処理ステップと、
を実行させるためのプログラム。
A program for causing a computer to perform image processing,
On the computer,
The representative value corresponding to the partial area is calculated based on the pixel value extracted from the luminance signal of the plurality of pixels constituting the partial area of the image, and the calculated representative value and the plurality of representative values are calculated. An analysis step for obtaining an arrangement of representative values based on the arrangement of the partial areas of
A gain map that gives a gain value corresponding to each pixel constituting the image based on the arrangement of the representative value, wherein a region where the gain value is maximum is a portion other than the partial region where the representative value is maximum A gain map generation step for obtaining a gain map corresponding to the region;
A color change processing step for changing at least one of hue and saturation of the image based on the gain map;
A program for running
JP2014021534A 2014-02-06 2014-02-06 Image processing apparatus, image processing method, and program Active JP6210898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014021534A JP6210898B2 (en) 2014-02-06 2014-02-06 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014021534A JP6210898B2 (en) 2014-02-06 2014-02-06 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015149612A JP2015149612A (en) 2015-08-20
JP6210898B2 true JP6210898B2 (en) 2017-10-11

Family

ID=53892670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014021534A Active JP6210898B2 (en) 2014-02-06 2014-02-06 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6210898B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141678A (en) * 2007-12-06 2009-06-25 Fujifilm Corp Digital photo frame, and image display method thereof
JP2012247873A (en) * 2011-05-25 2012-12-13 Sony Corp Image processing apparatus and method
JP6202238B2 (en) * 2012-02-27 2017-09-27 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2015149612A (en) 2015-08-20

Similar Documents

Publication Publication Date Title
US10440285B2 (en) Imaging apparatus and imaging method
JP5633550B2 (en) Image processing apparatus, image processing method, and program
JP6317577B2 (en) Video signal processing apparatus and control method thereof
US9684988B2 (en) Imaging device, image processing method, and recording medium
KR102158844B1 (en) Apparatus and method for processing image, and computer-readable recording medium
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP2013055567A (en) Imaging apparatus
US9402037B2 (en) Imaging apparatus, image processing apparatus, and image processing method for generating random special effects
JP6049425B2 (en) Imaging apparatus, image processing apparatus, and control method
JP2018042200A (en) Imaging apparatus and imaging method
US9413974B2 (en) Information processing apparatus, image sensing apparatus, control method, and recording medium for conversion processing
JP5836138B2 (en) Imaging apparatus, image processing method, and program
JP2004129065A (en) Digital camera
JP6210898B2 (en) Image processing apparatus, image processing method, and program
JP2010283504A (en) Imaging device, imaging method, and imaging program
JP5530304B2 (en) Imaging apparatus and captured image display method
JP2006238369A (en) Digital camera, custom white balance setting method, and imaging control method and program
JP5904753B2 (en) Image processing apparatus and image processing apparatus control method
JP2020036162A (en) Image processing device, imaging device, image processing method, and program
JP6202238B2 (en) Image processing apparatus, image processing method, and program
JP2019009551A (en) Projection apparatus, control method of the same, and program
JP2014103644A (en) Imaging apparatus, image processing apparatus and color correcting method
JP5911253B2 (en) Imaging device
JP6072191B2 (en) Image processing apparatus and image processing apparatus control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170912

R151 Written notification of patent or utility model registration

Ref document number: 6210898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250