JP2012130076A - Image processing method, image processing device, and imaging device - Google Patents

Image processing method, image processing device, and imaging device Download PDF

Info

Publication number
JP2012130076A
JP2012130076A JP2012062200A JP2012062200A JP2012130076A JP 2012130076 A JP2012130076 A JP 2012130076A JP 2012062200 A JP2012062200 A JP 2012062200A JP 2012062200 A JP2012062200 A JP 2012062200A JP 2012130076 A JP2012130076 A JP 2012130076A
Authority
JP
Japan
Prior art keywords
saturation
image data
image
correction
hue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012062200A
Other languages
Japanese (ja)
Other versions
JP5539428B2 (en
JP2012130076A5 (en
Inventor
Kotaro Kitajima
光太郎 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012062200A priority Critical patent/JP5539428B2/en
Publication of JP2012130076A publication Critical patent/JP2012130076A/en
Publication of JP2012130076A5 publication Critical patent/JP2012130076A5/ja
Application granted granted Critical
Publication of JP5539428B2 publication Critical patent/JP5539428B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of making discrimination of whether an inputted image is a vivid scene or not closer to a human sense.SOLUTION: The image processing method comprises: an image acquisition step to acquire image data; a first correction step to correct saturation information of the image data based on at least one of hue information and brightness information of the image data; a discrimination step to discriminate, from saturation information corrected in the first correction step, whether an image of the image data is a vivid scene or not; and an output step to output a discrimination result in the discrimination step.

Description

本発明は、入力された画像のシーンを判別し、判別したシーンに応じた画像処理を行う画像処理方法、画像処理装置及び撮像装置に関するものである。   The present invention relates to an image processing method, an image processing apparatus, and an imaging apparatus that determine a scene of an input image and perform image processing according to the determined scene.

従来、画像のシーンや被写体の種類を判別し、判別したシーン(被写体の種類)に応じた画像処理を行う画像処理装置があった。   2. Description of the Related Art Conventionally, there has been an image processing apparatus that determines an image scene and a subject type and performs image processing according to the determined scene (subject type).

例えば、特許文献1では、入力された画像データが鮮やかなシーン(被写体)であるか判別し、鮮やかなシーンの画像は高解像度で出力する画像出力装置が開示されている。   For example, Patent Document 1 discloses an image output apparatus that determines whether input image data is a vivid scene (subject) and outputs an image of a vivid scene with high resolution.

特開2000−259372号公報JP 2000-259372 A

上述の特許文献に開示された従来技術では、彩度の高い画素が所定の閾値よりも多いか否かで鮮やかなシーンであるか判別していた。   In the prior art disclosed in the above-mentioned patent document, it is determined whether the scene is vivid depending on whether or not the number of pixels having high saturation is greater than a predetermined threshold.

しかしながら、人間の色感度や自然界の被写体の分布によって、同じ彩度であっても色味によっては鮮やかな被写体と感じやすい色と感じにくい色がある。そのため、全ての色に対して一律の彩度の閾値で処理してしまうと、画面全体に草が写っているような鮮やかな被写体と感じにくいシーンでも鮮やかなシーンと判定してしまうという課題があった。   However, depending on the color sensitivity of human beings and the distribution of subjects in the natural world, there are colors that are easy to perceive as vivid subjects and colors that are difficult to perceive depending on the color even with the same saturation. For this reason, if all the colors are processed with a uniform saturation threshold, it is determined that a vivid subject with grass on the entire screen is judged to be a vivid scene even if it is difficult to feel. there were.

そこで、本発明の目的は、入力された画像が鮮やかなシーンであるかの判別を、より人間の感覚に近づけることができる画像処理装置を提供することである。   Accordingly, an object of the present invention is to provide an image processing apparatus capable of making it closer to a human sense to determine whether an input image is a vivid scene.

上記目的を達成するために、本発明の画像処理方法は、請求項1に記載の通り、画像データを取得する画像取得ステップと、前記画像データの色相情報及び輝度情報の少なくとも1つに基づいて、前記画像データの彩度情報を補正する第1の補正ステップと、前記第1の補正ステップで補正された彩度情報から、前記画像データの画像が鮮やかなシーンであるか否かを判別する判別ステップと、前記判別ステップでの判別結果に応じて、画像データの彩度補正を行う第2の補正ステップと、を有することを特徴とする。   In order to achieve the above object, an image processing method of the present invention is based on an image acquisition step of acquiring image data, and at least one of hue information and luminance information of the image data, as described in claim 1. From the first correction step for correcting the saturation information of the image data and the saturation information corrected in the first correction step, it is determined whether or not the image of the image data is a vivid scene. And a second correction step for correcting the saturation of the image data in accordance with the determination result in the determination step.

また、本発明の画像処理装置は、請求項11に記載の通り、画像データを取得する取得手段と、前記画像データの色相情報及び輝度情報の少なくとも1つに基づいて、前記画像データの彩度情報を補正する第1の補正手段と、前記第1の補正手段で補正された彩度情報から、前記画像データの画像が鮮やかなシーンであるか否かを判別する判別手段と、前記判別手段での判別結果に応じて、前記画像データの彩度補正を行う第2の補正手段と、を有することを特徴とする。   The image processing apparatus according to the present invention, as set forth in claim 11, is based on at least one of acquisition means for acquiring image data and hue information and luminance information of the image data. A first correction unit that corrects information; a determination unit that determines whether the image of the image data is a vivid scene from the saturation information corrected by the first correction unit; and the determination unit And a second correction unit that corrects the saturation of the image data according to the determination result.

また、本発明の撮像装置は、請求項12に記載の通り、被写体を撮像し、画像データを出力する撮像手段と、前記画像データの色相情報及び輝度情報の少なくとも1つに基づいて、前記画像データの彩度情報を補正する第1の補正手段と、前記第1の補正手段で補正された彩度情報から、前記画像データの画像が鮮やかなシーンであるか否かを判別する判別手段と、前記判別手段での判別結果に応じて、前記画像データの彩度補正を行う第2の補正手段と、を有することを特徴とする。   The imaging device according to the present invention is the imaging device according to claim 12, wherein the image is picked up based on at least one of hue information and luminance information of the image data, and imaging means for imaging a subject and outputting image data. First correction means for correcting the saturation information of the data, and determination means for determining whether or not the image of the image data is a vivid scene from the saturation information corrected by the first correction means; And a second correction unit that corrects the saturation of the image data in accordance with the determination result of the determination unit.

本発明によれば、入力画像の色相、輝度に応じて彩度を補正することで、より人間の感覚に近づけた、鮮やかなシーンであるかの判別を行うことができる。   According to the present invention, it is possible to determine whether the scene is a vivid scene closer to a human sense by correcting the saturation according to the hue and luminance of the input image.

第1の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment. 画像信号のブロック分割を示す図である。It is a figure which shows the block division of an image signal. 第1の実施形態の彩度補正部の処理を示すフローチャートである。It is a flowchart which shows the process of the saturation correction | amendment part of 1st Embodiment. 第1の実施形態の彩度補正部の特性を示すグラフである。It is a graph which shows the characteristic of the saturation correction | amendment part of 1st Embodiment. シーン判別部の処理を示すフローチャートである。It is a flowchart which shows the process of a scene discrimination | determination part. シーン判別部のシーン判別の特性を示すグラフである。It is a graph which shows the characteristic of the scene discrimination | determination of a scene discrimination | determination part. 第2の実施形態の彩度補正部の処理を示すフローチャートである。It is a flowchart which shows the process of the saturation correction | amendment part of 2nd Embodiment. 第2の実施形態の彩度補正部の処理の例を示す図である。It is a figure which shows the example of a process of the saturation correction | amendment part of 2nd Embodiment. 第2の実施形態の彩度補正部の特性を示すグラフである。It is a graph which shows the characteristic of the saturation correction | amendment part of 2nd Embodiment. 第3の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 3rd Embodiment. 第3の実施形態の彩度補正部の処理を示すフローチャートである。It is a flowchart which shows the process of the saturation correction | amendment part of 3rd Embodiment. 第3の実施形態の彩度補正部の特性を示すグラフである。It is a graph which shows the characteristic of the saturation correction | amendment part of 3rd Embodiment.

(第1の実施形態)
以下、図1〜図6を参照して、第1の実施形態による、画像処理装置の一例である撮像装置について説明する。
(First embodiment)
Hereinafter, an imaging apparatus as an example of an image processing apparatus according to the first embodiment will be described with reference to FIGS.

図1は撮影した画像のシーンを検出する機能を備え、シーンに応じた画像補正処理を行う撮像装置の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus that has a function of detecting a scene of a captured image and performs image correction processing according to the scene.

図1の各ブロックについて説明する。図1において、101は被写体の光束を結像するレンズである。102はレンズからの光束を撮像素子に導く際に絞る絞りである。103は入射された光束を光電変換して画像信号として出力する撮像素子である。104は撮像素子103からの信号を適正レベルに増幅するオートゲインコントロールアンプ(AGC)である。   Each block in FIG. 1 will be described. In FIG. 1, reference numeral 101 denotes a lens that forms an image of a luminous flux of a subject. Reference numeral 102 denotes an aperture stop that is used to guide the light flux from the lens to the image sensor. An image sensor 103 photoelectrically converts an incident light beam and outputs it as an image signal. An auto gain control amplifier (AGC) 104 amplifies the signal from the image sensor 103 to an appropriate level.

105は輝度・色信号生成部であり、撮像素子103で生成された信号を輝度信号(Y)及び色信号(R,G,B)に変換する。106はホワイトバランス増幅部であり、輝度・色信号生成部105から出力される色信号(R,G,B)をホワイトバランスゲインに従って増幅し、増幅色信号(R’,G’,B’)を生成する。107は色差信号生成部であり、色差信号(R’−Y,B’−Y)を生成する。108は、色差信号に対してゲインをかけるなどの補正を行う色差信号補正部、109は標準テレビ信号等に変換するエンコーダである。   A luminance / color signal generation unit 105 converts a signal generated by the image sensor 103 into a luminance signal (Y) and a color signal (R, G, B). A white balance amplifying unit 106 amplifies the color signals (R, G, B) output from the luminance / color signal generation unit 105 according to the white balance gain, and amplifies the color signals (R ′, G ′, B ′). Is generated. A color difference signal generation unit 107 generates color difference signals (R′−Y, B′−Y). Reference numeral 108 denotes a color difference signal correction unit that performs correction such as applying gain to the color difference signal, and 109 denotes an encoder that converts the color difference signal into a standard television signal or the like.

110は信号分割部であり、輝度信号(Y)、色差信号(R−Y,B−Y)を所定の小ブロックに分割する。111は、色差信号(R−Y,B−Y)から色相、彩度信号(Hue,Chroma)を算出する色相・彩度算出部、112は撮像システム全体を制御するカメラ制御部であり、図示していないが撮像装置中の各部に指示を送り、処理を行わせることができる。113は入力画像のシーンを判別するシーン判別部、114は彩度値を補正する彩度補正部である。   A signal dividing unit 110 divides the luminance signal (Y) and the color difference signals (RY, BY) into predetermined small blocks. Reference numeral 111 denotes a hue / saturation calculation unit that calculates the hue and saturation signals (Hue, Chroma) from the color difference signals (RY, BY), and 112 denotes a camera control unit that controls the entire imaging system. Although not shown, it is possible to send an instruction to each unit in the imaging apparatus to perform processing. 113 is a scene discriminating unit that discriminates the scene of the input image, and 114 is a chroma correction unit that corrects the chroma value.

次に、図1の撮像装置の撮影動作について説明する。撮像素子103に入射した光は、光電変換され、AGCアンプ104で適正レベルに増幅された後、輝度・色信号生成部105に出力される。輝度・色信号生成部105では、撮像素子103で結像した画像信号から輝度信号(Y)及び色信号(R,G,B)を生成し、このうち色信号(R,G,B)をホワイトバランス増幅部106に出力する。   Next, the shooting operation of the image pickup apparatus in FIG. 1 will be described. The light incident on the image sensor 103 is photoelectrically converted, amplified to an appropriate level by the AGC amplifier 104, and then output to the luminance / color signal generation unit 105. The luminance / color signal generation unit 105 generates a luminance signal (Y) and a color signal (R, G, B) from the image signal formed by the image sensor 103, and among these, the color signal (R, G, B) is generated. Output to the white balance amplifier 106.

ホワイトバランス増幅部106では、カメラ制御部112によって算出されたホワイトバランスゲインに基づいて色信号(R,G,B)を増幅し、増幅した色信号(R’,G’,B’)を色差信号生成部107に出力する。色差信号生成部107では、色信号(R’,G’,B’)から色差信号(R−Y,B−Y)を生成し、色差信号補正部108及び信号分割部110に出力する。色差信号補正部108では、色差信号(R−Y,B−Y)に対して、カメラ制御部112によって算出されたゲインG(Gは1以上。ゲインの強度に関しては後述する)をかけ補正する。即ち、補正後の色差は(R−Y)’=G×(R−Y)、(B−Y)’=G×(B−Y)となる。また、補正後の色差信号(R−Y)’,(B−Y)’をエンコーダ109に出力する。   The white balance amplification unit 106 amplifies the color signals (R, G, B) based on the white balance gain calculated by the camera control unit 112, and the amplified color signals (R ′, G ′, B ′) are color-differenced. The signal is output to the signal generator 107. The color difference signal generation unit 107 generates color difference signals (RY, BY) from the color signals (R ′, G ′, B ′), and outputs them to the color difference signal correction unit 108 and the signal division unit 110. The color difference signal correcting unit 108 corrects the color difference signals (R−Y, B−Y) by applying a gain G (G is equal to or greater than 1. The gain intensity will be described later) calculated by the camera control unit 112. . That is, the corrected color difference is (R−Y) ′ = G × (R−Y) and (B−Y) ′ = G × (B−Y). Further, the corrected color difference signals (R−Y) ′ and (B−Y) ′ are output to the encoder 109.

エンコーダ109では、輝度信号(Y)及び色差信号(R−Y)’,(B−Y)’からNTSC等の標準テレビジョン信号を生成し、出力する。   The encoder 109 generates and outputs a standard television signal such as NTSC from the luminance signal (Y) and the color difference signals (R−Y) ′ and (B−Y) ′.

以上が、撮像時の基本的な処理である。以上の処理のうち、撮影した画像のシーンを検出し、シーンに応じた画像補正処理を行う処理の概要を示したものが図1(b)のフローチャート図である。この処理はカメラ制御部112によって、またはカメラ制御部112の指示によって各部で行われる。   The above is the basic processing at the time of imaging. Among the processes described above, the flowchart of FIG. 1B shows an outline of a process for detecting a scene of a captured image and performing an image correction process corresponding to the scene. This process is performed by the camera control unit 112 or by each unit according to an instruction from the camera control unit 112.

ステップS101では、色差信号生成部107から出力された画像データを色差信号補正部108に取得する(画像取得ステップ)。ステップS102では、より人間の感覚に近い判別ができるよう、画像データの特性に応じて画像データから得られる彩度に重みを付ける彩度重み決定処理を行う(第1の補正ステップ)。ステップS103では、重み付けが行われた後の彩度情報と輝度情報を用いて、得られた画像データの画像が鮮やかなシーンであるか否かの判別を行う鮮やか判別処理を行う(判別ステップ)。ステップS104では、ステップS103の判別結果に基づいて画像データの彩度を補正する鮮やか補正処理を行い(第2の補正ステップ)、処理を終了する。彩度重み決定処理、鮮やか判別処理、鮮やか補正処理の詳細については後述する。   In step S101, the image data output from the color difference signal generation unit 107 is acquired by the color difference signal correction unit 108 (image acquisition step). In step S102, a saturation weight determination process for weighting the saturation obtained from the image data in accordance with the characteristics of the image data is performed (first correction step) so that a determination closer to a human sense can be made. In step S103, a vividness discrimination process is performed in which it is determined whether or not the image of the obtained image data is a vivid scene using the saturation information and luminance information after weighting (discrimination step). . In step S104, a vivid correction process for correcting the saturation of the image data based on the determination result in step S103 is performed (second correction step), and the process ends. Details of the saturation weight determination process, the vividness determination process, and the vividness correction process will be described later.

ここで、本実施形態では、シーン判別結果に用いた画像データに対して、その判別結果を反映させ出力しているが、発明としては特にこれに限定されるものではない。すなわち、あるフレーム(画像データ)に対する判別結果に応じた補正処理を、その次のフレーム以降に反映させることなども当然可能である。また、複数フレーム鮮やかなシーン判別結果が続いたときに初めてシーンを特定したり、複数フレーム中、鮮やかなシーンと判別された割合が高い場合にシーンを特定したりと、複数フレームの判別結果からシーンを特定することも考えられる。このとき、判別結果に応じた補正処理は、それら複数フレームや、以降のフレームに反映させることが考えられる。   Here, in the present embodiment, the image data used for the scene discrimination result is output by reflecting the discrimination result, but the invention is not particularly limited to this. In other words, it is naturally possible to reflect the correction processing corresponding to the determination result for a certain frame (image data) in the subsequent frames. In addition, the scene is identified for the first time when a multi-frame vivid scene discrimination result continues, or the scene is identified when the ratio of vivid scenes is high in multiple frames. It is also possible to specify a scene. At this time, it is conceivable that the correction process according to the determination result is reflected in the plurality of frames and the subsequent frames.

具体的に想定される状況としては、静止画撮影が可能な撮像装置や画像データに画像処理を施すPCなどの情報処理装置において、撮影された画像データ(フレーム)に対して処理を行う状況がある。また、ライブビュー表示または動画撮影が可能な撮像装置や動画に画像処理を施すPCなどの情報処理装置において、複数フレームにまたがった上記のような処理が想定される。   The situation that is specifically assumed is a situation in which processing is performed on captured image data (frames) in an imaging apparatus capable of capturing a still image or an information processing apparatus such as a PC that performs image processing on image data. is there. In addition, in an information processing apparatus such as an imaging apparatus capable of live view display or moving image shooting or a PC that performs image processing on a moving image, the above-described processing over a plurality of frames is assumed.

また、本実施形態では、シーン判別部114によって出力された判別結果を用いて画像データに対して彩度の補正をかけているが、判別結果の利用法としてはこれに限らない。例えば、判別結果を不図示の表示手段に表示させ、ユーザに知らしめたり、画像データを保存する際に、判別結果に対応した情報をヘッダなどに付帯して、保存後に画像データの撮影されたシーンが特定できるようにしたりもできる。また、補正1つをとってみても、彩度以外を補正することで鮮やかさを強調するようにしてもよい。このような処理には例えば、輝度を上げる補正や輪郭の強調処理などが考えられる。   In this embodiment, the saturation correction is applied to the image data using the determination result output by the scene determination unit 114, but the method of using the determination result is not limited to this. For example, when the determination result is displayed on a display means (not shown) to inform the user or save the image data, information corresponding to the determination result is attached to a header or the like, and the image data is captured after the storage. You can also specify the scene. Even if one correction is taken, the vividness may be enhanced by correcting other than the saturation. Such processing includes, for example, correction for increasing luminance and contour enhancement processing.

次に、画像信号の特性の解析処理について説明する。信号分割部110では、画像信号を図2に示すような複数のブロック(8×8ブロック)に分割し、ブロック毎の輝度信号(Y)、色差信号(R−Y,B−Y)の平均値を算出し、色相・彩度算出部111に出力する。   Next, image signal characteristic analysis processing will be described. The signal dividing unit 110 divides the image signal into a plurality of blocks (8 × 8 blocks) as shown in FIG. 2 and averages the luminance signal (Y) and color difference signals (RY, BY) for each block. The value is calculated and output to the hue / saturation calculation unit 111.

色相・彩度算出部111は色差信号(R−Y,B−Y)から各ブロックの色相情報・彩度情報を演算により取得する。色相(Hue)および彩度(Chroma)は以下の式に基づき算出する。   The hue / saturation calculation unit 111 acquires the hue information / saturation information of each block from the color difference signals (RY, BY) by calculation. Hue (Hue) and saturation (Chroma) are calculated based on the following equations.

色相・彩度算出部111は算出した各ブロックの色相(Hue)、彩度(Chroma)を彩度補正部114へ出力する。また、信号分割部110は算出した各ブロックの輝度(Y)を彩度補正部114へ出力する。   The hue / saturation calculation unit 111 outputs the calculated hue (Hue) and saturation (Chroma) of each block to the saturation correction unit 114. Further, the signal dividing unit 110 outputs the calculated luminance (Y) of each block to the saturation correction unit 114.

彩度補正部114は、入力されたブロック毎の色相(Hue)および輝度(Y)に基づき彩度(Chroma)に重みをかけることで彩度を上げる方向に補正する。彩度補正部114の処理フローについて図3を用いて説明する(第1の補正ステップ)。   The saturation correction unit 114 corrects the saturation in a direction of increasing the saturation by applying a weight to the saturation (Chroma) based on the hue (Hue) and luminance (Y) of each input block. A processing flow of the saturation correction unit 114 will be described with reference to FIG. 3 (first correction step).

図3の処理では、図2に示した8×8ブロックに対してループ処理を行う。即ち、図2の全ブロックについてステップS301〜303の処理を行う。   In the process of FIG. 3, a loop process is performed on the 8 × 8 block shown in FIG. That is, the processing in steps S301 to S303 is performed for all blocks in FIG.

ステップS301ではブロックの色相(Hue)に基づき、彩度重みの上下限を決定する。この処理について図4(a)を用いて説明する。図4(a)は色相(Hue)と彩度重み上下限の関係を示した図である。図4において、L401は重み上限値の特性、L402は重み下限値の特性を示している。図4に示した特性から、各色相値に対する重みと上限を算出することが可能である。例えば、色相がH1(赤)の時の重み下限値は1.2、重み上限値は1.4となる。図に示すとおり、人間の感覚では、色相以外のその他のパラメータが同じでも、赤の色相である場合には、青の色相である場合に比べて鮮やかと感じやすい。本実施形態では、この特性に対応するために、同じ条件下でも、色相に応じて彩度へかける重みを変えて設定し、補正を行わせている。具体的な重みのかけ方としては、波長の長短などによって規定することもできるが、本実施形態では人間の知覚特性とも照らし合わせて、経験的に色相毎の重みを設定している。   In step S301, the upper and lower limits of the saturation weight are determined based on the hue (Hue) of the block. This process will be described with reference to FIG. FIG. 4A is a diagram showing the relationship between hue (Hue) and saturation weight upper and lower limits. In FIG. 4, L401 indicates the characteristic of the weight upper limit value, and L402 indicates the characteristic of the weight lower limit value. From the characteristics shown in FIG. 4, it is possible to calculate the weight and upper limit for each hue value. For example, when the hue is H1 (red), the weight lower limit is 1.2 and the weight upper limit is 1.4. As shown in the figure, even if the other parameters other than the hue are the same, the human sensation tends to feel more vivid when the hue is red than when the hue is blue. In the present embodiment, in order to deal with this characteristic, correction is performed by changing the weight applied to the saturation according to the hue even under the same conditions. A specific weighting method can be defined by the length of the wavelength or the like, but in the present embodiment, the weight for each hue is set empirically in light of human perceptual characteristics.

図3に戻り、ステップS302ではステップS303で算出した重み上限値、および下限値とブロック輝度(Y)に基づき彩度重みを決定する。この処理について図4(b)を用いて説明する。図4(b)はブロックの輝度(Y)と彩度重み上下限の関係を示した図である。図4(b)において、L403はブロック輝度と重みの特性を示している。また、重み上限値W1はステップS301で算出した重み上限値、重み下限値W2はステップS301で算出した重み下限値である。例えば、前述の例のように図4(a)において色相がH1の時は図4(b)における重み上限値W1が1.4、下限値W2が1.2となる。このとき、ブロック輝度がY1の場合、最終的な重みはW1=1.4となる。図に示すとおり、人間の感覚では、輝度以外のその他のパラメータが同じでも、輝度の高い画像の場合は、輝度の低い画像である場合に比べて鮮やかと感じやすい。この特性に対応するために、同じ条件下では、輝度の高い画像(第1の輝度の第1のブロック)に対しては、その画像より輝度の低い画像(第2の輝度の第2のブロック)に比べて、彩度を上げる方向で重み穂設定して補正を行わせている。   Returning to FIG. 3, in step S302, the saturation weight is determined based on the upper and lower weight values calculated in step S303 and the block luminance (Y). This process will be described with reference to FIG. FIG. 4B is a diagram showing the relationship between the luminance (Y) of the block and the upper and lower saturation weights. In FIG. 4B, L403 indicates the characteristics of block luminance and weight. The weight upper limit value W1 is the weight upper limit value calculated in step S301, and the weight lower limit value W2 is the weight lower limit value calculated in step S301. For example, as in the above example, when the hue is H1 in FIG. 4A, the weight upper limit value W1 in FIG. 4B is 1.4 and the lower limit value W2 is 1.2. At this time, if the block luminance is Y1, the final weight is W1 = 1.4. As shown in the figure, even if other parameters other than the brightness are the same, the human sense tends to feel brighter in the case of an image with high brightness than in the case of an image with low brightness. To accommodate this characteristic, under the same conditions, an image with a higher luminance (first block with a first luminance) has a lower luminance than that image (a second block with a second luminance). ), The weight is set in the direction of increasing the saturation and correction is performed.

図3に戻り、ステップS303では、決定した彩度重みを彩度(Chroma)に乗算し、補正彩度を算出する。前述の例では、重みが1.4となるため補正後のブロック彩度(Chroma’)=1.4×Chromaとなる。   Returning to FIG. 3, in step S303, the determined saturation weight is multiplied by the saturation (Chroma) to calculate the corrected saturation. In the above example, since the weight is 1.4, the corrected block saturation (Chroma ') = 1.4 × Chroma.

以上が、彩度補正部114における彩度の補正処理である。以上のような彩度補正処理を図2に示した全ブロックに対して行い、補正後の彩度(Chroma’)をシーン判別部113へ出力する。また、シーン判別部113に対しては、信号分割部110から、各ブロックの輝度(Y)、色相・彩度算出部111から各ブロックの色相(Hue)、が出力される。   The above is the saturation correction processing in the saturation correction unit 114. The above saturation correction processing is performed on all blocks shown in FIG. 2, and the corrected saturation (Chroma ′) is output to the scene determination unit 113. Further, the luminance (Y) of each block is output from the signal dividing unit 110, and the hue (Hue) of each block is output from the hue / saturation calculating unit 111 to the scene determination unit 113.

シーン判別部113は、入力された、ブロック毎の輝度(Y)、色相(Hue)、補正後の彩度(Chroma’)に基づき、撮影したシーンが鮮やかなシーンであるか否かを判別する。以下では、シーン判別部113の鮮やか判別処理の流れについて図5を用いて説明する(判別ステップ)。   The scene determination unit 113 determines whether the shot scene is a vivid scene based on the input luminance (Y), hue (Hue), and corrected saturation (Chroma ′) for each block. . Hereinafter, the flow of the vividness determination process of the scene determination unit 113 will be described with reference to FIG. 5 (determination step).

図5において、ステップS501では、彩度補正部114で算出された補正後の彩度(Chroma’)を図2の全ブロックに対して平均し、平均彩度を算出する。   In FIG. 5, in step S501, the corrected saturation (Chroma ') calculated by the saturation correction unit 114 is averaged over all the blocks in FIG. 2, and the average saturation is calculated.

ステップS502では、図2の全ブロックの中で、補正後の彩度(Chroma’)が所定の閾値以上であるブロックがいくつあるかをカウントする。   In step S502, the number of blocks having a corrected saturation (Chroma ') equal to or greater than a predetermined threshold among all the blocks in FIG. 2 is counted.

ステップ503では、ステップS501で求めた全ブロックの平均彩度と、ステップS502で求めた彩度が閾値以上のブロック数に基づき鮮やかなシーンであるか判定する。図6は平均彩度値と彩度が閾値以上のブロック数に対する鮮やかなシーンの判定基準を示した図である。図6に示すように平均彩度が平均彩度閾値Ct(第6の閾値)より高く、かつ彩度が閾値(第4の閾値)以上のブロック数が、閾値At(第5の閾値)よりも大きいときに鮮やかなシーンであると判定する。   In step 503, it is determined whether the scene is a vivid scene based on the average saturation of all blocks obtained in step S501 and the number of blocks in which the saturation obtained in step S502 is equal to or greater than a threshold. FIG. 6 is a diagram showing a bright scene determination criterion with respect to the average saturation value and the number of blocks having a saturation equal to or greater than a threshold value. As shown in FIG. 6, the number of blocks whose average saturation is higher than the average saturation threshold Ct (sixth threshold) and whose saturation is equal to or greater than the threshold (fourth threshold) is higher than the threshold At (fifth threshold). If it is too large, it is determined that the scene is vivid.

以上がシーン判別部113の処理である。シーン判別部で判定した鮮やかなシーンであるか否かの情報はカメラ制御部112へ出力される。   The above is the process of the scene determination unit 113. Information about whether or not the scene is a vivid scene determined by the scene determination unit is output to the camera control unit 112.

カメラ制御部112は、シーン判別部113で判別された鮮やかなシーンであるか否かの情報を元に色差信号補正部108のパラメータを制御する(第2の補正ステップ)。本実施形態では、前述の色差信号補正部108の色差ゲインGを制御する。色差ゲインGとしてG1、G2というパラメータがあり、G1>G2≧1という関係である。ここで、鮮やかなシーンと判別した場合は色差ゲインをG1、鮮やかなシーンではないと判別した場合は色差ゲインをG2に設定する。即ち、鮮やかなシーンと判別した場合は、鮮やかなシーンでないと判別された場合に比べて色差信号に対するゲインをより高くすることで、より彩度を上げ、鮮やかさを強調した画像に補正する。   The camera control unit 112 controls the parameters of the color difference signal correction unit 108 based on information on whether or not the scene is a vivid scene determined by the scene determination unit 113 (second correction step). In the present embodiment, the color difference gain G of the above-described color difference signal correction unit 108 is controlled. There are parameters G1 and G2 as the color difference gain G, and G1> G2 ≧ 1. Here, if it is determined that the scene is a vivid scene, the color difference gain is set to G1, and if it is determined that the scene is not a vivid scene, the color difference gain is set to G2. That is, when it is determined that the scene is vivid, the gain for the color difference signal is increased as compared with the case where it is determined that the scene is not vivid, thereby correcting the image with higher saturation and enhanced vividness.

以上、説明したように、本実施形態では鮮やかなシーンか否かを判定し、判定結果に応じて画像処理を制御する画像処理装置において、画像信号の彩度、輝度、色相を算出し、色相および輝度の情報に基づき彩度を補正した。また、補正後の彩度を用いて鮮やかなシーンであるか否かを判別する構成とした。   As described above, in this embodiment, in the image processing apparatus that determines whether or not the scene is vivid and controls image processing according to the determination result, the saturation, luminance, and hue of the image signal are calculated, and the hue is calculated. The saturation was corrected based on the luminance information. In addition, it is configured to determine whether or not the scene is vivid using the corrected saturation.

これにより、人間の感覚に応じた彩度値の補正が行え、人間の感覚により近い鮮やかなシーン判別を行うことが可能となる。   As a result, the saturation value can be corrected in accordance with human senses, and vivid scene discrimination closer to human senses can be performed.

なお、本実施形態では、輝度および色相に基づいて彩度に重みをかけたが、色相、輝度どちらかのみの情報に基づいて彩度に重みをかけてもかまわない。   In this embodiment, the saturation is weighted based on the luminance and the hue. However, the saturation may be weighted based on only the information on the hue or the luminance.

また、本実施形態では、色相・彩度を色差信号から算出したが、色相・彩度の算出方法をこれに限定するものではない。例えば、L*a*b*空間などの他の空間に一度変換してからL*a*b*空間での色相・彩度を算出してもよい。   In the present embodiment, the hue / saturation is calculated from the color difference signal, but the method of calculating the hue / saturation is not limited to this. For example, the hue / saturation in the L * a * b * space may be calculated after being once converted into another space such as the L * a * b * space.

また、本実施形態では、信号分割部110が8×8ブロックに画像信号を分割する例を説明したが、どのような分割数であってもかまわない。また、画素単位で彩度に重みをかける構成であっても構わない。   In this embodiment, the example in which the signal dividing unit 110 divides the image signal into 8 × 8 blocks has been described, but any number of divisions may be used. Further, a configuration may be adopted in which the saturation is weighted in units of pixels.

また、本実施形態では、鮮やかなシーンであるか否かの判別結果に基づき、色差信号にかけるゲインを制御する場合について説明したが、シーン判別結果に基づき色信号、もしくは輝度信号を補正する制御であればどのような制御を行ってもかまわない。   In the present embodiment, the case where the gain applied to the color difference signal is controlled based on the determination result of whether or not the scene is vivid is described. However, the control for correcting the color signal or the luminance signal based on the scene determination result is described. Any control can be performed.

また、本実施形態では、鮮やかなシーンであるか否かの判別を平均彩度値と彩度が閾値以上のブロック数の2つの情報を元に行った。しかし、鮮やかなシーンの判別方法をこれに限定するものではなく、色相、輝度によって補正した彩度情報を用いて鮮やかなシーンであるか判別する構成であればどのような構成をとっても構わない。   In the present embodiment, whether or not a scene is vivid is determined based on two pieces of information: an average saturation value and the number of blocks whose saturation is equal to or greater than a threshold value. However, the method for discriminating a vivid scene is not limited to this, and any configuration may be adopted as long as the vivid scene is discriminated using saturation information corrected by hue and luminance.

また、本実施形態では、鮮やかなシーンであるか否かの2値で判定したが、鮮やか度合い等のように多値で算出しても構わない。この場合、平均彩度が高ければ高いほど、また、彩度が閾値以上のブロック数が多ければ多いほど鮮やか度合いが高くなる。そして、算出した鮮やか度合いに基づき、色差信号補正部108の信号の補正強度を制御する(鮮やか度合いが高いほど色差信号にかけるゲインを高くする)。   In the present embodiment, the determination is made based on the binary value of whether or not the scene is vivid, but it may be calculated with multiple values such as the vividness. In this case, the higher the average saturation is, the higher the degree of vividness is. Based on the calculated vividness, the correction intensity of the signal of the color difference signal correcting unit 108 is controlled (the higher the vividness, the higher the gain applied to the color difference signal).

また、本実施形態では、鮮やかなシーンであると判別された画像データに対して彩度を上げ、鮮やかさを強調する処理について述べたが、これに限らず、鮮やかなシーンに対して逆に彩度を下げ、鮮やかさを抑えるような処理にも適用することができる。この場合、例えばG1<G2≦1のようにゲインを設定してやるとよい。   In the present embodiment, the processing for increasing the saturation and enhancing the vividness of the image data determined to be a vivid scene has been described. However, the present invention is not limited to this, and conversely for the vivid scene. It can also be applied to processing that reduces saturation and suppresses vividness. In this case, for example, the gain may be set such that G1 <G2 ≦ 1.

(第2の実施形態)
以下、図7〜9を参照して、本発明の第2の実施形態による、撮像装置について説明する。第2の実施形態では、第1の実施形態で説明した色相と輝度以外に、色の面積に応じて彩度を補正する例について説明する。
(Second Embodiment)
Hereinafter, an imaging device according to the second embodiment of the present invention will be described with reference to FIGS. In the second embodiment, an example will be described in which the saturation is corrected according to the color area in addition to the hue and luminance described in the first embodiment.

本実施形態における撮像装置のブロック構成は図1と同様であるため、説明は省略する。本実施形態では図1における、彩度補正部114での処理内容が第1の実施形態と異なる。具体的には、彩度補正部114で算出する重みを、その色が画像データ中に占める割合、すなわち面積によって変更する。   Since the block configuration of the imaging apparatus according to the present embodiment is the same as that shown in FIG. In the present embodiment, the processing contents in the saturation correction unit 114 in FIG. 1 are different from those in the first embodiment. Specifically, the weight calculated by the saturation correction unit 114 is changed depending on the ratio of the color to the image data, that is, the area.

彩度補正部114の処理フローを図7に示す(第1の補正ステップ)。   A processing flow of the saturation correction unit 114 is shown in FIG. 7 (first correction step).

図7において、ステップS701では、色相ヒストグラムを生成する。色相ヒストグラムは図2に示した全ブロックにおける色相毎の度数をカウントしたものである。色相を10度単位で区切った色相ヒストグラムの例を図8(a)に示す。図8において、横軸が色相、縦軸が度数を示している。   In FIG. 7, in step S701, a hue histogram is generated. The hue histogram is obtained by counting the frequency for each hue in all blocks shown in FIG. FIG. 8A shows an example of a hue histogram in which hues are divided in units of 10 degrees. In FIG. 8, the horizontal axis indicates hue, and the vertical axis indicates frequency.

ステップS702では、生成した色相ヒストグラムから度数が最も高いピークの色相を検出する。図8(a)の例では色相Hp(20度〜30度)がピークの色相となる。また、Cpは色相Hpの度数を示している。   In step S702, the hue of the peak with the highest frequency is detected from the generated hue histogram. In the example of FIG. 8A, the hue Hp (20 to 30 degrees) is the peak hue. Cp represents the frequency of the hue Hp.

ステップS703では、ピーク色相の度数が閾値以上(ピーク色相の画像中の面積が閾値以上)であるか判定する。図8(a)の例では、ピーク色相Hpの度数Cpが閾値(第1の閾値)以上あるか否かを判定する。閾値以上ある場合は、ステップS704へ進む。閾値未満の場合は、ステップS707へ進む。   In step S703, it is determined whether the frequency of the peak hue is equal to or greater than a threshold value (the area in the peak hue image is equal to or greater than the threshold value). In the example of FIG. 8A, it is determined whether the frequency Cp of the peak hue Hp is equal to or greater than a threshold (first threshold). If it is greater than or equal to the threshold, the process proceeds to step S704. If it is less than the threshold, the process proceeds to step S707.

ステップS704では、ピークの色相を持つブロックの密集度を算出する。   In step S704, the density of the block having the peak hue is calculated.

密集度の算出方法について図8(b)(c)を用いて説明する。まず、全ブロックについて、ピークの色相Hp(図8(a)の例では20度〜30度)を満たすブロックであるか否かを判定しピーク色相Hpを満たすブロックにラベルをつけておく。次に、ピーク色相を持つラベルのついたブロックの上下左右ブロックが色相Hpを満たしているブロックであるか確認する。色相Hpを満たしている場合はそのブロック数をカウントする。この処理について、図8(b)を用いて具体的に説明する。図8(b)において、グレーで塗りつぶしてしているブロックが色相Hpを満たすブロックである。例えば色相Hpを満たす801のブロックについて、周辺の801(上)(下)(左)(右)について色相Hpを満たしているか確認する。この場合801(上)および801(左)が色相Hpを満たしているためブロック801のカウント数は2になる。同様に全ての色相Hpを満たすブロックについて、上下左右にある色相Hpを満たすブロックの数をカウントする。図8(b)に記載された数値は、色相Hpを満たす全てのブロックに関して周辺に色相Hpを満たすブロックの数をカウントしたものである。これらの数値を全て加算したものを密集度とする。図8(b)の例の場合、密集度は4となる。図8(c)も図8(b)と同様の例であり、この場合の密集度は32となる。このように、色相Hpを満たすブロックが固まっているほど密集度が高くなる。   A method for calculating the degree of congestion will be described with reference to FIGS. First, with respect to all the blocks, it is determined whether or not the block satisfies the peak hue Hp (20 degrees to 30 degrees in the example of FIG. 8A), and the blocks satisfying the peak hue Hp are labeled. Next, it is confirmed whether the upper, lower, left and right blocks of the block with the peak hue are filled with the hue Hp. If the hue Hp is satisfied, the number of blocks is counted. This process will be specifically described with reference to FIG. In FIG. 8B, the blocks filled with gray satisfy the hue Hp. For example, for the block 801 that satisfies the hue Hp, it is confirmed whether the hue Hp is satisfied for the surrounding 801 (upper) (lower) (left) (right). In this case, the count number of the block 801 is 2 because 801 (top) and 801 (left) satisfy the hue Hp. Similarly, for the blocks satisfying all the hues Hp, the number of blocks satisfying the hues Hp on the top, bottom, left and right is counted. The numerical values described in FIG. 8B are obtained by counting the number of blocks that satisfy the hue Hp in the vicinity of all the blocks that satisfy the hue Hp. The sum of these numbers is the density. In the case of the example of FIG. 8B, the density is 4. FIG. 8C is an example similar to FIG. 8B, and the density in this case is 32. Thus, the density increases as the blocks satisfying the hue Hp are solidified.

図7に戻り、ステップS705では、算出した密集度が閾値(第2の閾値)以上であるか否かを判定する。閾値以上である場合はステップS706に進み、閾値未満である場合はステップS707に進む。   Returning to FIG. 7, in step S <b> 705, it is determined whether or not the calculated density is greater than or equal to a threshold (second threshold). If it is equal to or greater than the threshold value, the process proceeds to step S706, and if it is less than the threshold value, the process proceeds to step S707.

ステップS706では、色相Hpを満たす色の面積に基づき彩度重み補正度Wcを算出する。色相Hpを満たす色の面積は、色相ヒストグラムの度数Cp(図8(a))となる。   In step S706, the saturation weight correction degree Wc is calculated based on the area of the color that satisfies the hue Hp. The area of the color that satisfies the hue Hp is the frequency Cp (FIG. 8A) of the hue histogram.

彩度重み補正度Wcの算出について説明する。まず、色相Hpを満たすブロックの平均輝度Yaを算出する。算出した平均輝度Yaによって面積最大時の重み補正度を決定する。面積最大時の重み補正度と輝度の関係を示したグラフが図9(a)である。このグラフに従って色相Hp領域の平均輝度Ya、から面積最大時の重み補正度を算出する。図9(a)の例では、輝度がY1の時の面積最大時の重み補正度は1.2、輝度がY2の時の、面積最大時の重み補正度は0.95となる。また、平均輝度Yaが閾値Y0(第3の閾値)以上であれば重み補正度は1以上となり、彩度を上げるように重み補正が行われることになる。逆に平均輝度Yaが閾値Y0未満であれば重み補正度は1未満となり、彩度を下げるように重み補正が行われることになる。   The calculation of the saturation weight correction degree Wc will be described. First, the average luminance Ya of the block that satisfies the hue Hp is calculated. The weight correction degree when the area is maximum is determined by the calculated average luminance Ya. FIG. 9A is a graph showing the relationship between the weight correction degree and the luminance when the area is maximum. According to this graph, the weight correction degree at the time of maximum area is calculated from the average luminance Ya of the hue Hp region. In the example of FIG. 9A, the weight correction degree at the maximum area when the luminance is Y1 is 1.2, and the weight correction degree at the maximum area when the luminance is Y2 is 0.95. If the average luminance Ya is equal to or greater than the threshold Y0 (third threshold), the weight correction degree is 1 or more, and the weight correction is performed so as to increase the saturation. On the contrary, if the average luminance Ya is less than the threshold value Y0, the weight correction degree is less than 1, and the weight correction is performed so as to lower the saturation.

次に色相Hpを満たす領域の度数(面積)Cpと面積最大時の重み補正度に基づき、最終的な重み補正度Wcを決定する。面積最大時の重み補正度と面積の関係を示したグラフが図9(b)である。図9(b)のグラフに従って、最終的な重み補正度Wcを算出する。   Next, the final weight correction degree Wc is determined based on the frequency (area) Cp of the region satisfying the hue Hp and the weight correction degree when the area is maximum. FIG. 9B is a graph showing the relationship between the weight correction degree and the area when the area is maximum. The final weight correction degree Wc is calculated according to the graph of FIG.

図9(b)において、901は面積最大時の重み補正度が1.2の時のグラフ、902は面積最大時の重み補正度が0.95の時のグラフを示している。面積が最小の場合は重みの補正度が1.0になり、面積が最大(画面全体)の場合は補正度が図9(a)で算出した値になる。   In FIG. 9B, 901 shows a graph when the weight correction degree at the maximum area is 1.2, and 902 shows a graph when the weight correction degree at the maximum area is 0.95. When the area is the minimum, the correction degree of the weight is 1.0, and when the area is the maximum (entire screen), the correction degree is the value calculated in FIG.

図7に戻り、ステップS707では、面積による彩度重み補正を行わない。即ち、彩度重み補正度Wc=1.0とする。   Returning to FIG. 7, in step S707, saturation weight correction based on area is not performed. That is, the saturation weight correction degree Wc = 1.0.

ステップ708では、図2に示した全ブロックに対してループ処理を行う。即ち、全てのブロックに対してステップS709〜S713の処理を行う。   In step 708, loop processing is performed on all the blocks shown in FIG. That is, the processes in steps S709 to S713 are performed on all blocks.

ステップS709、S710は、第1の実施形態の図3で説明したステップS302、S303と同様である。即ち、ブロック毎の色相および輝度によって、重みWfを決定する。   Steps S709 and S710 are the same as steps S302 and S303 described in FIG. 3 of the first embodiment. That is, the weight Wf is determined by the hue and luminance for each block.

ステップS711では、処理対象のブロックの色相がピーク色相Hpに含まれるか判定する。ピーク色相Hpのブロックである場合はステップS712に進み、ピーク色相のブロックでない場合はステップS713に進む。   In step S711, it is determined whether the hue of the processing target block is included in the peak hue Hp. If it is a block of peak hue Hp, the process proceeds to step S712, and if it is not a block of peak hue, the process proceeds to step S713.

ステップS712では、ステップS710で算出した重みWfを補正する。具体的には、ステップS706、S707で決定した面積に基づく重み補正度Wcを重みWfに乗算することで補正する(Wf=Wc×Wf)。   In step S712, the weight Wf calculated in step S710 is corrected. Specifically, the weight Wf is corrected by multiplying the weight Wf by the weight correction degree Wc based on the area determined in steps S706 and S707 (Wf = Wc × Wf).

ステップS713では、彩度値に重みWfを乗算することで補正する。この処理は第1の実施形態の図3の304の処理と同様である。   In step S713, the saturation value is corrected by multiplying by the weight Wf. This process is the same as the process 304 in FIG. 3 of the first embodiment.

以上が、本実施形態における彩度補正部114の処理である。   The above is the processing of the saturation correction unit 114 in the present embodiment.

以上、説明したように、本実施形態では、画像信号の彩度、輝度、色相およびの色の面積を算出し、色相および輝度、色の面積の情報に基づき彩度を補正し、補正後の彩度を用いて鮮やかなシーンであるか否かを判別する構成とした。このように制御する理由は、ある明るい色の場合は面積が広いほどより明るく彩度が高く感じられ、逆に暗い色の場合は、面積が広いほどより暗く、彩度が低く感じるという面積効果を反映するためである。   As described above, in the present embodiment, the saturation, luminance, hue, and color area of the image signal are calculated, and the saturation is corrected based on the information on the hue, luminance, and color area. It is configured to determine whether or not the scene is vivid using saturation. The reason for controlling in this way is that the area effect is that for a bright color, the larger the area, the brighter and more saturated it feels, and for the dark color, the larger the area, the darker and the less saturated the color appears. Is to reflect.

これにより、人間の視覚特性に応じた彩度値の補正が行え、人間の感覚により近い鮮やかなシーン判別を行うことが可能となる。   As a result, the saturation value can be corrected in accordance with human visual characteristics, and vivid scene discrimination closer to human senses can be performed.

上記実施形態では、ある色相のブロックの密集度とその面積に応じて、重みの補正度Wcを制御する例について説明したが、密集度、面積のどちらか一方の情報に基づいて重みを補正する制御を行っても構わない。   In the above-described embodiment, the example in which the weight correction degree Wc is controlled according to the density and the area of a block of a certain hue has been described. However, the weight is corrected based on information on either the density or the area. Control may be performed.

また、上記実施形態では、ピーク色相Hpの面積によってのみ補正したが、ピーク色相以外を持つブロックも同色相を持つ面積によって彩度値を補正しても構わない。   In the above-described embodiment, correction is performed only by the area of the peak hue Hp. However, a saturation value may be corrected by an area having the same hue for a block having other than the peak hue.

また、上記実施形態では、重みを面積によって補正する構成で説明したが、第1の実施形態での変形例と同様に、彩度を面積情報に基づき直接補正する構成であっても構わない。   In the above-described embodiment, the configuration in which the weight is corrected by the area has been described. However, as in the modification in the first embodiment, the saturation may be directly corrected based on the area information.

(第3の実施形態)
以下、図10〜12を参照して、第3の実施形態による撮像装置について説明する。
(Third embodiment)
Hereinafter, an imaging apparatus according to the third embodiment will be described with reference to FIGS.

第3の実施形態では、第1の実施形態で説明した色相と輝度以外に、被写体の動き量に応じて彩度を補正する形態について説明する。   In the third embodiment, a mode in which the saturation is corrected according to the amount of movement of the subject will be described in addition to the hue and luminance described in the first embodiment.

図10は、本実施形態の撮像装置の構成を示すブロック図である。図10において、図1と同符号のものは同じブロックであるため説明を省略する。本実施形態では図1の構成に対して、評価値メモリ1001、動き量検出部1002が追加されている。   FIG. 10 is a block diagram illustrating a configuration of the imaging apparatus according to the present embodiment. In FIG. 10, the same reference numerals as those in FIG. In the present embodiment, an evaluation value memory 1001 and a motion amount detection unit 1002 are added to the configuration of FIG.

次に、図10に示した撮像装置の処理の流れについて説明する。画像を撮像し、エンコーダ109で出力するまでの流れは第1の実施形態と同様である。また、シーン判別部113で鮮やかなシーンであるか否かを判別し、その結果に応じてカメラ制御部112が色差信号補正部108のパラメータを制御する点も第1の実施形態と同様であるため詳細な説明は省略する。   Next, a processing flow of the imaging apparatus illustrated in FIG. 10 will be described. The flow from capturing an image to outputting it by the encoder 109 is the same as in the first embodiment. Also, the scene determination unit 113 determines whether or not the scene is a vivid scene, and the camera control unit 112 controls the parameters of the color difference signal correction unit 108 according to the determination result, as in the first embodiment. Therefore, detailed description is omitted.

信号分割部110は第1の実施形態と同様に、ブロック毎の輝度信号(Y)、色差信号(R−Y,B−Y)の平均値を算出し、評価値として色相・彩度算出部111に出力する。また、輝度信号(Y)を評価値メモリ1001および、動き量検出部1002に出力する。評価値メモリ1001は、信号分割部110から出力された全ブロックの輝度信号(評価値)を記憶する。評価値メモリ1001への輝度信号(評価値)の蓄積は所定時間間隔で行われ、評価値メモリ1001は所定フレーム分の輝度信号(評価値)を記録する。   Similarly to the first embodiment, the signal dividing unit 110 calculates an average value of the luminance signal (Y) and the color difference signals (RY, BY) for each block, and a hue / saturation calculating unit as an evaluation value. To 111. Further, the luminance signal (Y) is output to the evaluation value memory 1001 and the motion amount detection unit 1002. The evaluation value memory 1001 stores the luminance signals (evaluation values) of all blocks output from the signal dividing unit 110. The luminance signal (evaluation value) is stored in the evaluation value memory 1001 at predetermined time intervals, and the evaluation value memory 1001 records the luminance signal (evaluation value) for a predetermined frame.

動き量検出部1002は、信号分割部110から出力された現在の輝度信号と、評価値メモリ1001に記憶された過去の輝度信号から、ブロック単位の動き量を算出する。具体的には、各ブロックについて一定時間での輝度信号の時間的な分散値を算出し、この時間分散値を動き量とする。動き量検出部1002は、算出した全ブロックの動き量情報を彩度補正部114に出力する(動き量検出ステップ)。   The motion amount detection unit 1002 calculates a motion amount in units of blocks from the current luminance signal output from the signal dividing unit 110 and the past luminance signal stored in the evaluation value memory 1001. Specifically, for each block, a temporal dispersion value of the luminance signal at a certain time is calculated, and this temporal dispersion value is used as the amount of motion. The motion amount detection unit 1002 outputs the calculated motion amount information of all blocks to the saturation correction unit 114 (motion amount detection step).

彩度補正部114は、色相と輝度、動き量に基づき彩度値を補正する。彩度補正部114の処理の流れを図11に示す(第1の補正ステップ)。   The saturation correction unit 114 corrects the saturation value based on the hue, luminance, and amount of motion. A processing flow of the saturation correction unit 114 is shown in FIG. 11 (first correction step).

図11においてステップS1101では図2に示した全ブロックに対してループ処理を行う。即ち、全てのブロックに対してステップS1102〜S1105の処理を行う。   In FIG. 11, in step S1101, loop processing is performed on all the blocks shown in FIG. That is, the processing in steps S1102 to S1105 is performed on all blocks.

ステップS1101、S1102は、第1の実施形態の図3で説明したステップS302、S303と同様である。即ち、ブロック毎の色相および輝度によって、重みWfを決定する。   Steps S1101 and S1102 are the same as steps S302 and S303 described in FIG. 3 of the first embodiment. That is, the weight Wf is determined by the hue and luminance for each block.

ステップS1104では、動き量に基づき重みWfを補正する。動き量と重み補正率Wcの関係を図12に示す。図12に示すようにブロックの動き量が大きいほど重みが小さくなるように補正する。算出した重み補正率Wcを重みWfに乗算することで最終的な重みを決定する(Wf=Wc×Wf)。   In step S1104, the weight Wf is corrected based on the amount of motion. FIG. 12 shows the relationship between the motion amount and the weight correction rate Wc. As shown in FIG. 12, the correction is performed so that the weight becomes smaller as the motion amount of the block is larger. The final weight is determined by multiplying the weight Wf by the calculated weight correction rate Wc (Wf = Wc × Wf).

ステップS1105では、彩度値に重みWfを乗算することで補正する。この処理は第1の実施形態の図3の304の処理と同様である。   In step S1105, the saturation value is corrected by multiplying by the weight Wf. This process is the same as the process 304 in FIG. 3 of the first embodiment.

以上が、彩度補正部114の処理である。上記のように、本実施形態では、色相、輝度だけでなく、動き量によって、彩度値を補正する構成とした。このように制御する理由は、被写体や、カメラの動きが大きい場合は、同じ彩度値の被写体であっても鮮やかな被写体と認識しにくいためである。従って、動き量に応じた彩度値の補正を行うことで、人間の感覚により近い鮮やかなシーン判別を行うことが可能となる。   The above is the processing of the saturation correction unit 114. As described above, in the present embodiment, the saturation value is corrected not only by the hue and luminance but also by the amount of motion. The reason for controlling in this way is that when the subject or the movement of the camera is large, it is difficult to recognize a subject with the same saturation value as a bright subject. Therefore, by correcting the saturation value according to the amount of motion, it becomes possible to perform a vivid scene discrimination closer to a human sense.

本実施形態では、画像信号の動き量に基づき彩度信号を補正することで、動きの多いシーンで鮮やかと判定し難くするようにしたが、動き情報に基づき鮮やかシーンを判定するのであれば他の構成をとることも可能である。   In this embodiment, the saturation signal is corrected based on the amount of motion of the image signal so that it is difficult to determine vivid in a scene with a lot of motion. It is also possible to take the following configuration.

例えば、動き情報に基づきシーン判別部113の鮮やか判別の閾値(図6)を変更する構成をとってもかまわない。この場合、動き量が高いほど、図6の平均彩度閾値Ctや彩度が閾値以上のブロック数閾値Atを上げる。これにより、動きの大きなシーンは鮮やかなシーンと判別しにくくなる。   For example, a configuration may be adopted in which the threshold for vivid discrimination (FIG. 6) of the scene discrimination unit 113 is changed based on the motion information. In this case, the higher the amount of motion, the higher the average saturation threshold value Ct and the block number threshold value At whose saturation is equal to or greater than the threshold value in FIG. This makes it difficult to distinguish a scene with a large movement from a bright scene.

また、本実施形態では動き量が求められる方法であればどのような構成であってもかまわない。例えば、輝度信号だけでなく色信号を利用して動き量を求めてもかまわない。   In the present embodiment, any configuration may be used as long as the amount of motion is obtained. For example, the amount of motion may be obtained using not only the luminance signal but also the color signal.

また、本実施形態では、ブロック単位の動き量を算出したが、画像全体での動き量を算出する構成であってもよい。また、ズームなどの撮像装置の光学系情報を取得して動き量算出に利用してもよい。   In the present embodiment, the motion amount in units of blocks is calculated. However, a configuration in which the motion amount in the entire image is calculated may be used. In addition, optical system information of the imaging apparatus such as zoom may be acquired and used for motion amount calculation.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

本実施形態では、本発明を適用できる画像処理装置として、撮像装置を例として説明したが、これに限らない。撮像装置の中でも、静止画、動画の撮影が行えるものどちらにも適用可能であるし、外部から画像データを取得して処理を行うプリンタなどの画像形成装置や、パーソナルコンピュータなどの情報処理装置でも、本発明は適用できる。   In the present embodiment, an imaging apparatus has been described as an example of an image processing apparatus to which the present invention can be applied. However, the present invention is not limited to this. It can be applied to both imaging devices that can shoot still images and moving images, and can be applied to image forming devices such as printers that acquire image data from the outside for processing, and information processing devices such as personal computers. The present invention is applicable.

101 レンズ
102 絞り
103 撮像素子
104 AGCアンプ
105 輝度・色信号生成部
106 WB増幅部
107 色差信号生成部
108 色差信号補正部
109 エンコーダ
110 信号分割部
112 カメラ制御部
113 シーン判別部
114 彩度補正部
DESCRIPTION OF SYMBOLS 101 Lens 102 Diaphragm 103 Image pick-up element 104 AGC amplifier 105 Luminance / color signal generation part 106 WB amplification part 107 Color difference signal generation part 108 Color difference signal correction part 109 Encoder 110 Signal division part 112 Camera control part 113 Scene discrimination part 114 Saturation correction part

Claims (13)

画像データを取得する画像取得ステップと、
前記画像データの色相情報及び輝度情報の少なくとも1つに基づいて、前記画像データの彩度情報を補正する第1の補正ステップと、
前記第1の補正ステップで補正された彩度情報から、前記画像データの画像が鮮やかなシーンであるか否かを判別する判別ステップと、
前記判別ステップでの判別結果を出力する出力ステップと、を有することを特徴とする画像処理方法。
An image acquisition step for acquiring image data;
A first correction step of correcting saturation information of the image data based on at least one of hue information and luminance information of the image data;
A determination step of determining whether or not the image of the image data is a vivid scene from the saturation information corrected in the first correction step;
An image processing method comprising: an output step of outputting a discrimination result in the discrimination step.
前記出力ステップで出力された判別結果に応じて、画像データの彩度補正を行う第2の補正ステップを有することを特徴とする請求項1に記載の画像処理方法。   The image processing method according to claim 1, further comprising a second correction step for correcting the saturation of the image data in accordance with the determination result output in the output step. 前記第1の補正ステップでは、前記画像データを複数のブロックに分割してブロック毎に前記彩度情報の補正を行い、このとき、前記ブロック毎の色相情報に対応した重みを、前記ブロック毎の彩度情報にかけることを特徴とする請求項1または2に記載の画像処理方法。   In the first correction step, the image data is divided into a plurality of blocks, and the saturation information is corrected for each block. At this time, a weight corresponding to the hue information for each block is set for each block. The image processing method according to claim 1, wherein the image processing method is applied to saturation information. 前記第1の補正ステップでは、前記画像データを複数のブロックに分割してブロック毎に前記彩度情報の補正を行い、このとき、第1の輝度である第1のブロックが、前記第1の輝度より低い第2の輝度である第2のブロックに比べて彩度を上げる方向に補正されることを特徴とする請求項1乃至3のいずれか1つに記載の画像処理方法。   In the first correction step, the image data is divided into a plurality of blocks and the saturation information is corrected for each block. At this time, the first block having the first luminance is the first block. 4. The image processing method according to claim 1, wherein the image processing method is corrected in a direction of increasing saturation as compared with the second block having the second luminance lower than the luminance. 5. 前記第1の補正ステップでは、前記画像データ中に占める割合が第1の閾値より高い色相があり、該色相が画像中に密集している面積が第2の閾値より大きい場合、前記密集している面積に応じて補正を行われることを特徴とする請求項1乃至4のいずれか1つに記載の画像処理方法。   In the first correction step, if there is a hue whose proportion in the image data is higher than the first threshold, and the area where the hue is dense in the image is larger than the second threshold, the density is increased. The image processing method according to claim 1, wherein the correction is performed in accordance with the area that is present. 前記第1の補正ステップでは、前記画像データ中に占める割合が第1の閾値より高い色相があり、該色相が画像データ中に密集している面積が第2の閾値より大きい場合において、
前記画像データの平均輝度が第3の閾値より高い場合、前記画像データの彩度を上げる方向に補正を行い、
前記画像データの平均輝度が第3の閾値より低い場合、前記画像データの彩度を下げる方向に補正を行うことを特徴とする請求項5に記載の画像処理方法。
In the first correction step, when there is a hue whose proportion in the image data is higher than the first threshold, and the area where the hue is dense in the image data is larger than the second threshold,
When the average brightness of the image data is higher than a third threshold, correction is performed in the direction of increasing the saturation of the image data,
The image processing method according to claim 5, wherein when the average luminance of the image data is lower than a third threshold value, correction is performed in a direction of decreasing the saturation of the image data.
前記取得ステップで取得される複数の画像データから、前記画像データ中の被写体の動き量を検出する動き量検出ステップを有し、
前記第1の補正ステップでは、前記動き量検出ステップで検出された前記動き量が大きいほど、彩度を下げる方向に補正することを特徴とする請求項1乃至6のいずれか1つに記載の画像処理方法。
A motion amount detection step of detecting a motion amount of a subject in the image data from the plurality of image data acquired in the acquisition step;
7. The correction according to claim 1, wherein in the first correction step, the saturation is corrected in a direction in which the saturation is decreased as the amount of motion detected in the motion amount detection step is larger. Image processing method.
前記判別ステップでは、前記画像データの画像全体を複数のブロックに分割し、第4の閾値より大きい彩度であるブロックの数が第5の閾値より多い場合、鮮やかなシーンであると判別することを特徴とする請求項1乃至7のいずれか1つに記載の画像処理方法。   In the determining step, the entire image of the image data is divided into a plurality of blocks, and when the number of blocks having a saturation greater than the fourth threshold is greater than the fifth threshold, it is determined that the scene is vivid. The image processing method according to claim 1, wherein: 前記判別ステップでは、前記画像データの平均彩度が第6の閾値より高い場合、鮮やかなシーンであると判別することを特徴とする請求項1乃至8のいずれか1つに記載の画像処理方法。   9. The image processing method according to claim 1, wherein in the determination step, when the average saturation of the image data is higher than a sixth threshold, it is determined that the scene is a vivid scene. . 請求項1乃至9のいずれか1つに記載の画像処理方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which a procedure of the image processing method according to any one of claims 1 to 9 is described. 請求項1乃至9のいずれか1つに記載の画像処理方法の手順が記述されたプログラムが記憶された、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program in which the procedure of the image processing method according to claim 1 is described. 画像データを取得する取得手段と、
前記画像データの色相情報及び輝度情報の少なくとも1つに基づいて、前記画像データの彩度情報を補正する第1の補正手段と、
前記第1の補正手段で補正された彩度情報から、前記画像データの画像が鮮やかなシーンであるか否かを判別する判別手段と、
前記判別手段の判別結果を出力する出力手段と、を有することを特徴とする画像処理装置。
Acquisition means for acquiring image data;
First correction means for correcting the saturation information of the image data based on at least one of hue information and luminance information of the image data;
Discrimination means for discriminating whether or not the image of the image data is a vivid scene from the saturation information corrected by the first correction means;
And an output unit that outputs a determination result of the determination unit.
被写体を撮像し、画像データを出力する撮像手段と、
前記画像データの色相情報及び輝度情報の少なくとも1つに基づいて、前記画像データの彩度情報を補正する第1の補正手段と、
前記第1の補正手段で補正された彩度情報から、前記画像データの画像が鮮やかなシーンであるか否かを判別する判別手段と、
前記判別手段の判別結果を出力する出力手段と、を有することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting image data;
First correction means for correcting the saturation information of the image data based on at least one of hue information and luminance information of the image data;
Discrimination means for discriminating whether or not the image of the image data is a vivid scene from the saturation information corrected by the first correction means;
And an output unit that outputs a determination result of the determination unit.
JP2012062200A 2012-03-19 2012-03-19 Image processing method, image processing apparatus, and imaging apparatus Expired - Fee Related JP5539428B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012062200A JP5539428B2 (en) 2012-03-19 2012-03-19 Image processing method, image processing apparatus, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012062200A JP5539428B2 (en) 2012-03-19 2012-03-19 Image processing method, image processing apparatus, and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009295433A Division JP4958969B2 (en) 2009-12-25 2009-12-25 Image processing method, image processing apparatus, and imaging apparatus

Publications (3)

Publication Number Publication Date
JP2012130076A true JP2012130076A (en) 2012-07-05
JP2012130076A5 JP2012130076A5 (en) 2013-02-14
JP5539428B2 JP5539428B2 (en) 2014-07-02

Family

ID=46646506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012062200A Expired - Fee Related JP5539428B2 (en) 2012-03-19 2012-03-19 Image processing method, image processing apparatus, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5539428B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10200764A (en) * 1997-01-07 1998-07-31 Fuji Xerox Co Ltd Picture processor
JP2000224607A (en) * 1999-01-28 2000-08-11 Matsushita Electric Ind Co Ltd Image processor
JP2006030998A (en) * 2005-07-11 2006-02-02 Hitachi Ltd Hue and saturation adjusting device, image display device, and hue and saturation adjusting method
JP4958969B2 (en) * 2009-12-25 2012-06-20 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10200764A (en) * 1997-01-07 1998-07-31 Fuji Xerox Co Ltd Picture processor
JP2000224607A (en) * 1999-01-28 2000-08-11 Matsushita Electric Ind Co Ltd Image processor
JP2006030998A (en) * 2005-07-11 2006-02-02 Hitachi Ltd Hue and saturation adjusting device, image display device, and hue and saturation adjusting method
JP4958969B2 (en) * 2009-12-25 2012-06-20 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus

Also Published As

Publication number Publication date
JP5539428B2 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
JP4958969B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP4904440B2 (en) Image processing method and apparatus, image processing program, and medium storing this program
JP5968068B2 (en) Imaging apparatus for controlling exposure, control method for imaging apparatus, program, and recording medium
JP4948591B2 (en) Image processing apparatus, image processing method, and program
JP4894907B2 (en) Imaging apparatus, imaging processing method, and program
CN107533756B (en) Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device
US9300867B2 (en) Imaging apparatus, its control method, and storage medium
JP5814799B2 (en) Image processing apparatus and image processing method
JP6083974B2 (en) Image processing apparatus, image processing method, and program
US10270991B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP6320053B2 (en) Image processing apparatus, image processing method, and computer program
JP5159756B2 (en) Image processing method, image processing apparatus, and imaging apparatus
US9762805B2 (en) Image processing apparatus performing tone correction process and method, and image capturing apparatus performing tone correction process
JP5847484B2 (en) Imaging apparatus, control method thereof, and program
JP5706705B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
KR20160115694A (en) Image processing apparatus, image processing method, and computer program stored in recording medium
JP5539428B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP5693647B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP5398860B2 (en) Image processing apparatus, image processing apparatus control method, program, and storage medium
JP5264695B2 (en) Image processing method, image processing apparatus, and imaging apparatus
JP6257292B2 (en) Image processing apparatus, control method thereof, and control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R151 Written notification of patent or utility model registration

Ref document number: 5539428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

LAPS Cancellation because of no payment of annual fees