JP2018195989A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2018195989A
JP2018195989A JP2017098447A JP2017098447A JP2018195989A JP 2018195989 A JP2018195989 A JP 2018195989A JP 2017098447 A JP2017098447 A JP 2017098447A JP 2017098447 A JP2017098447 A JP 2017098447A JP 2018195989 A JP2018195989 A JP 2018195989A
Authority
JP
Japan
Prior art keywords
image
color
information
adjustment
matrix conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017098447A
Other languages
Japanese (ja)
Other versions
JP6946049B2 (en
Inventor
本田 充輝
Mitsuteru Honda
充輝 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017098447A priority Critical patent/JP6946049B2/en
Publication of JP2018195989A publication Critical patent/JP2018195989A/en
Application granted granted Critical
Publication of JP6946049B2 publication Critical patent/JP6946049B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

To make it possible to perform correct area recognition even if image features such as colors are changed.SOLUTION: From meta information added to an image recorded in a recording unit (106), a control unit (107) acquires information on an adjustment made to the image. An area discrimination processing unit (112) discriminates a subject area on the basis of the feature information of the image. Further, when discrimination of the subject area is performed, the control unit (107), on the basis of the acquired adjustment information, causes a signal processing unit (104) to process the adjusted image in order to make it closer to feature information different from the feature information of the adjusted image.SELECTED DRAWING: Figure 1

Description

本発明は、画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image.

非特許文献1には、画像の色情報やエッジ成分等の特徴に基づき、画像内の様々な物体について、ほぼ同じような色がなだらかに続く部分は同じ物体を表す領域と判断し、急激に色が変化する部分は他の物体との境界領域と判断する技術が開示されている。これにより、非特許文献1の記載の技術によれば、それぞれの物体の領域を特定することが可能となる。また、特許文献1には、被写体領域として例えば空の領域を抽出する場合において、空の青色と空の領域には殆どエッジ成分が含まれないという特徴量を基に、空領域を認識する技術が開示されている。その他、デジタルカメラは、画質調整機能の一つとして、画像の色を標準的な色から大きく変更する等して、例えば空の色を青から紫に変更したり、色の彩度を極端に大きくしたりするような機能を有していることがある。   In Non-Patent Document 1, based on features such as color information and edge components of an image, it is determined that a portion in which almost the same color gently continues for various objects in the image is a region representing the same object, A technique is disclosed in which a color changing portion is determined as a boundary region with another object. Thus, according to the technique described in Non-Patent Document 1, it is possible to specify the area of each object. Further, Patent Document 1 discloses a technique for recognizing a sky region based on a feature amount that an edge region is hardly included in the sky blue and the sky region when, for example, a sky region is extracted as a subject region. Is disclosed. In addition, as one of the image quality adjustment functions, the digital camera, for example, changes the color of the image greatly from the standard color, for example, changes the sky color from blue to purple, or makes the color saturation extremely It may have a function to make it larger.

Comaniciu,D. :Meer,P., "Robust analysis of feature spaces: color image segmentation" , Computer Vision and Pattern Recognition, 1997. Preceedings. , 1997 IEEE Computer Society Conference on Volume, Issue, 17-19 Jun 1997, Page:750-755.Comaniciu, D.: Meer, P., "Robust analysis of feature spaces: color image segmentation", Computer Vision and Pattern Recognition, 1997. Preceedings., 1997 IEEE Computer Society Conference on Volume, Issue, 17-19 Jun 1997, Page : 750-755.

特開2009−110137号公報JP 2009-110137 A

しかしながら、画質調整機能等により、例えば画像の色等の特徴が標準的な値から大きく変更されているような場合、特許文献1に記載の技術において例えば空領域を認識する際に、本来、空である領域を空として正しく認識できないことがある。   However, when, for example, the characteristics such as the color of the image are greatly changed from the standard value by the image quality adjustment function or the like, when the sky region is recognized by the technique described in Patent Document 1, for example, May not be recognized correctly as empty.

そこで、本発明は、色等の画像の特徴が変更された画像であっても、正しい領域認識を行えるようにすることを目的とする。   Accordingly, an object of the present invention is to enable correct area recognition even for an image in which the characteristics of the image such as a color are changed.

本発明は、画像に付加されているメタ情報から、前記画像に対して施された調整に関する情報を取得する取得手段と、画像の特徴情報を基に被写体領域を判別する判別手段と、前記調整が施された画像に対して前記被写体領域の判別が行われる場合には、前記取得した前記調整に関する情報を基に、前記調整が施された画像の特徴情報とは異なる特徴情報に近づけるように、前記調整が施された画像に対する処理を行う処理手段と、を有することを特徴とする。   The present invention provides an acquisition means for acquiring information relating to adjustment performed on the image from meta information added to the image, a determination means for determining a subject area based on image feature information, and the adjustment When the subject area is determined for the image subjected to the adjustment, the feature area is brought closer to the feature information different from the feature information of the image subjected to the adjustment based on the acquired information related to the adjustment. And processing means for performing processing on the image subjected to the adjustment.

本発明によれば、色等の画像の特徴が変更された画像であっても、正しい領域認識を行うことが可能となる。   According to the present invention, it is possible to perform correct area recognition even for an image in which the characteristics of the image such as a color are changed.

本実施形態の画像処理装置の概略構成例を示す図である。It is a figure which shows the example of schematic structure of the image processing apparatus of this embodiment. 第1の実施形態の認識処理のフローチャートである。It is a flowchart of the recognition process of 1st Embodiment. 第1の実施形態の画像例と色マトリックス変換の説明図である。It is explanatory drawing of the example of an image and color matrix conversion of 1st Embodiment. 第1の実施形態の領域判別処理のフローチャートである。It is a flowchart of the area | region discrimination | determination process of 1st Embodiment. 第2の実施形態の認識処理のフローチャートである。It is a flowchart of the recognition process of 2nd Embodiment. 第2の実施形態の場合の色マトリックス変換の説明図である。It is explanatory drawing of the color matrix conversion in the case of 2nd Embodiment. 第3の実施形態の認識処理のフローチャートである。It is a flowchart of the recognition process of 3rd Embodiment. 第4の実施形態の認識処理のフローチャートである。It is a flowchart of the recognition process of 4th Embodiment. 第7の実施形態の画像処理装置の概略構成例を示す図である。It is a figure which shows the schematic structural example of the image processing apparatus of 7th Embodiment. 第8の実施形態の画像処理装置の概略構成例を示す図である。It is a figure which shows the schematic structural example of the image processing apparatus of 8th Embodiment.

以下、添付図面を参照して本発明の好適な実施形態について説明する。
<第1の実施形態>
図1には、本実施形態の画像処理装置の一適用例としての撮像装置の概略構成例を示し、図2には、本実施形態の撮像装置が画像から特定の被写体領域を認識する処理のフローチャートを示している。本実施形態の撮像装置、例えば、デジタルカメラ、デジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末等の各種携帯端末だけでなく、工業用カメラ、車載カメラ、医療用カメラ等にも適用可能である。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
<First Embodiment>
FIG. 1 shows a schematic configuration example of an imaging apparatus as an application example of the image processing apparatus of the present embodiment. FIG. 2 shows processing for recognizing a specific subject area from an image by the imaging apparatus of the present embodiment. The flowchart is shown. The imaging apparatus of the present embodiment can be applied not only to various mobile terminals such as digital cameras, digital video cameras, smartphones and tablet terminals having camera functions, but also to industrial cameras, in-vehicle cameras, medical cameras, etc. is there.

先ず、図1に示した撮像装置の概略構成について説明する。
図1において、撮像部101は、レンズ、絞り、シャッタ、撮像素子及びその駆動回路を有し、撮像素子の撮像面上には画素毎に赤(R)、緑(G)、青(B)のカラーフィルタが配されている。撮像部101の撮像素子は、不図示の撮影レンズにより撮像面上に結像された光学像を光電変換することにより、RGBのアナログ撮像信号を出力する。撮像部101から出力されたアナログ撮像信号は、A/D変換部102によりデジタル画像データに変換されてWB処理部103に送られる。
First, the schematic configuration of the imaging apparatus shown in FIG. 1 will be described.
In FIG. 1, an imaging unit 101 includes a lens, a diaphragm, a shutter, an imaging device, and a drive circuit thereof. The color filter is arranged. The imaging element of the imaging unit 101 outputs an RGB analog imaging signal by photoelectrically converting an optical image formed on an imaging surface by an imaging lens (not shown). The analog imaging signal output from the imaging unit 101 is converted into digital image data by the A / D conversion unit 102 and sent to the WB processing unit 103.

撮像制御部111は、制御部107からの指示の下、撮像部101のレンズのフォーカスやズーム位置、絞り値、シャッタ速度、撮像素子の駆動回路等を制御する。そして、撮像制御部111は、画像撮影時におけるフォーカスやズーム位置、絞り値、シャッタ速度、撮像素子の駆動状況、撮影日時等の各種撮影情報を、バス108を介してRAM(ランダムアクセスメモリ)109に一時的に記憶させる。   The imaging control unit 111 controls the lens focus, zoom position, aperture value, shutter speed, imaging device drive circuit, and the like of the imaging unit 101 under instructions from the control unit 107. Then, the imaging control unit 111 stores various types of shooting information such as a focus and zoom position, an aperture value, a shutter speed, a driving state of the imaging device, and a shooting date and time at the time of shooting an image via a bus (RAM) 109. Memorize temporarily.

WB処理部103は、制御部107による制御の下、RGBの画像データに対し公知のホワイトバランス(以下、WBと表記する。)処理を行う。本実施形態のWB処理部103は、いわゆるオートホワイトバランス(AWB)処理の他、例えばWB設定値の変更により色温度を調整するような画質調整処理も可能となされている。WB処理部103にてWB処理が行われた画像データは、信号処理部104に送られる。また、WB処理部103におけるAWB処理のホワイトバランス設定値(WB設定値)、WB設定値の変更による画質調整処理が行われた場合にその画質調整処理で用いたWB設定値等の情報は、バス108を介してRAM109に一時的に記憶される。   The WB processing unit 103 performs a known white balance (hereinafter referred to as WB) process on the RGB image data under the control of the control unit 107. In addition to the so-called auto white balance (AWB) processing, the WB processing unit 103 according to the present embodiment can perform image quality adjustment processing such as adjusting the color temperature by changing the WB setting value. Image data that has undergone WB processing in the WB processing unit 103 is sent to the signal processing unit 104. Further, when the white balance setting value (WB setting value) of the AWB processing in the WB processing unit 103 and the image quality adjustment processing by changing the WB setting value are performed, information such as the WB setting value used in the image quality adjustment processing is as follows: The data is temporarily stored in the RAM 109 via the bus 108.

信号処理部104は、制御部107による制御の下、公知のノイズ抑圧処理、輝度信号処理、色マトリックス変換処理を含む色信号処理等を行い、輝度データY及び色差データU,Vからなる画像データ(以下、YUV画像データとする。)を出力する。これらYUV画像データは、バス108を介してRAM109に一時的に記憶される。また、信号処理部104におけるノイズ抑圧処理の有無を示す情報、輝度信号処理の設定情報、色マトリックス変換の設定情報は、バス108を介してRAM109に一時的に記憶される。   The signal processing unit 104 performs color signal processing including known noise suppression processing, luminance signal processing, and color matrix conversion processing under the control of the control unit 107, and image data including luminance data Y and color difference data U and V. (Hereinafter referred to as YUV image data). These YUV image data are temporarily stored in the RAM 109 via the bus 108. Information indicating the presence or absence of noise suppression processing in the signal processing unit 104, setting information for luminance signal processing, and setting information for color matrix conversion are temporarily stored in the RAM 109 via the bus 108.

バス108は、信号処理部104、表示部105、記録部106、制御部107等の各部と接続されている。これら各部は、バス108を介してデータや制御信号等のやり取り等を行う。なお、以下の説明では、データ等がバス108を介してやり取りされることについての記載は省略する。   The bus 108 is connected to each unit such as the signal processing unit 104, the display unit 105, the recording unit 106, and the control unit 107. These units exchange data, control signals, and the like via the bus 108. In the following description, description of data and the like being exchanged via the bus 108 is omitted.

制御部107は、CPU(中央処理ユニット)を含み、WB処理部103、信号処理部104、撮像制御部111、領域判別処理部112、表示部105、記録部106等の動作を制御し、必要に応じて各種演算等を行う。また、制御部107は、信号処理部104からRAM109に一時記憶されたYUV画像データを用い、そのYUV画像データを含む画像ファイルを生成する。このとき制御部107は、RAM109内の各種撮影情報、WB設定値の情報、ノイズ抑圧処理の有無の情報、色マトリックス変換の設定情報等の、撮像画像の現像処理や画質調整に関する情報を、画像ファイルのヘッダ等にメタ情報として付加する。本実施形態において、ヘッダにメタ情報として付加される色マトリックス変換の設定情報は、撮像装置に予め用意されている複数種類の色マトリックス変換の中の何れが使用されたかを示す情報であるとする。また、本実施形態の撮像装置の場合、色マトリックス変換の係数値(色ゲイン)は、ユーザによる調整も可能となされている。ユーザにより係数値の調整が行われた場合、メタ情報には、色マトリックス変換の係数値がユーザにより調整されたことを表す情報とともに、その調整後の係数値、又はどのような調整がなされたかを表す調整量の情報も含められる。以下の説明では、撮像画像の現像処理に関する情報と画像撮影時に行われた画質調整に関する情報とを纏めて、現像パラメータと呼ぶことにする。その他、画像ファイルの画像データは、不図示のエンコーダ等により圧縮符号化されていてもよい。   The control unit 107 includes a CPU (central processing unit) and controls the operations of the WB processing unit 103, the signal processing unit 104, the imaging control unit 111, the area determination processing unit 112, the display unit 105, the recording unit 106, and the like. Various calculations are performed according to the above. In addition, the control unit 107 uses the YUV image data temporarily stored in the RAM 109 from the signal processing unit 104, and generates an image file including the YUV image data. At this time, the control unit 107 displays information regarding development processing and image quality adjustment of the captured image, such as various types of shooting information in the RAM 109, WB setting value information, noise suppression processing presence / absence information, and color matrix conversion setting information. It is added as meta information to the header of the file. In the present embodiment, the color matrix conversion setting information added as meta information to the header is information indicating which of a plurality of types of color matrix conversions prepared in advance in the imaging apparatus is used. . In the case of the imaging apparatus of the present embodiment, the coefficient value (color gain) for color matrix conversion can be adjusted by the user. When the coefficient value is adjusted by the user, the meta information includes information indicating that the coefficient value of the color matrix conversion has been adjusted by the user, and the adjusted coefficient value or what adjustment was made. Is also included in the adjustment amount representing. In the following description, information related to development processing of a captured image and information related to image quality adjustment performed at the time of image shooting are collectively referred to as a development parameter. In addition, the image data of the image file may be compressed and encoded by an encoder (not shown) or the like.

記録部106は、例えば着脱可能な大容量の半導体メモリ等の記録媒体を有しており、その記録媒体に対し、前述した画像ファイル等の記録や再生を行う。
表示部105は、信号処理部104による処理後のYUVの画像データがバス108を介して供給され、その画像データから表示用の映像信号を生成し、その映像信号に基づく映像を表示デバイスの画面上に表示させる。また、表示部105は、記録部106が記録媒体から再生した画像データに基づく映像についても、画面上に表示させることができる。
The recording unit 106 includes a recording medium such as a detachable large-capacity semiconductor memory, and records and reproduces the above-described image file and the like on the recording medium.
The display unit 105 is supplied with the YUV image data processed by the signal processing unit 104 via the bus 108, generates a display video signal from the image data, and displays the video based on the video signal on the screen of the display device. Display above. The display unit 105 can also display on the screen a video based on the image data reproduced by the recording unit 106 from the recording medium.

ROM(リードオンリメモリ)110は、制御部107のCPUが実行する本実施形態に係る各種制御や演算処理のプログラム、予め決められている各種の初期設定情報等を記憶している。本実施形態の場合、ROM110に記憶されている初期設定情報には、画像の色をそれぞれ異なった色にする複数の色マトリックス変換をそれぞれ表す設定情報と、それら複数の各色マトリックス変換で用いられる各係数値(色ゲイン)等も含まれている。複数の色マトリックス変換には、後述する標準の色マトリックス変換、その標準の色マトリックス変換とは異なる他の複数の色マトリックス変換が含まれる。ROM110に記憶されたプログラムは、読み出されてRAM109に展開されて、制御部107のCPUにより実行される。RAM109は、ROM110から読み出されたプログラムの展開の他、前述した画像データや、各部における処理途中のデータ、各種設定情報等の一時記憶等に用いられる。   A ROM (Read Only Memory) 110 stores various control and arithmetic processing programs according to the present embodiment executed by the CPU of the control unit 107, various initial setting information determined in advance. In the case of the present embodiment, the initial setting information stored in the ROM 110 includes setting information representing each of a plurality of color matrix conversions for changing the colors of the image, and each of the plurality of color matrix conversions used Coefficient values (color gain) and the like are also included. The plurality of color matrix conversions include a standard color matrix conversion described later and a plurality of other color matrix conversions different from the standard color matrix conversion. The program stored in the ROM 110 is read out, developed in the RAM 109, and executed by the CPU of the control unit 107. The RAM 109 is used for temporary storage of the above-described image data, data being processed in each unit, various setting information, and the like in addition to the development of the program read from the ROM 110.

領域判別処理部112は、制御部107による制御の下で、撮影画像や記録部106の記録媒体に記録されている画像等を取得し、その取得した画像から特定の被写体領域を判別するような認識処理を行う。詳細については後述するが、領域判別処理部112では、画像の色情報及びエッジ成分等の特徴情報を基に、ほぼ同じ色が続く領域と色が急激に変化する領域との検出が行われる。そして、領域判別処理部112は、色目標値とほぼ同じ色が続く領域を特定の被写体領域であると認識し、色が急激に変化する領域を他の被写体等との境界領域であると認識する処理を行う。ここで、特定の被写体領域の一例として青空の領域を挙げた場合、青空領域は、一般に、ほぼ一様に青色が続く領域であり、またエッジ成分が含まれていないという特徴を有している。この例の場合、領域判別処理部112は、色目標値として青色が設定され、ほぼ一様に青色が続く領域を青空領域として認識する。なお、本実施形態において、特定の被写体領域は、青空領域には限定されず、例えば曇天時や雨天時の白色や灰色等の空領域、空以外でもほぼ同じような色がなだらかに続く領域を有する物体等の領域であってもよい。なお、領域判別処理は、制御部107のCPUが本実施形態に係るプログラムを実行することにより行われてもよい。   The area determination processing unit 112 acquires a captured image or an image recorded on the recording medium of the recording unit 106 under the control of the control unit 107, and determines a specific subject area from the acquired image. Perform recognition processing. Although details will be described later, the area discrimination processing unit 112 detects an area where the same color continues and an area where the color changes rapidly based on the color information of the image and the feature information such as the edge component. Then, the area determination processing unit 112 recognizes an area that continues to have substantially the same color as the color target value as a specific subject area, and recognizes an area in which the color rapidly changes as a boundary area with another subject or the like. Perform the process. Here, when a blue sky region is given as an example of a specific subject region, the blue sky region is generally a region in which blue continues almost uniformly and has a feature that no edge component is included. . In this example, the area determination processing unit 112 recognizes an area where blue is set as the color target value and the blue continues almost uniformly as a blue sky area. In the present embodiment, the specific subject area is not limited to the blue sky area. For example, a sky area such as white or gray during cloudy weather or rainy weather, or an area in which almost the same color continues smoothly even when not in the sky. It may be an area of an object or the like that it has. Note that the area determination process may be performed by the CPU of the control unit 107 executing the program according to the present embodiment.

また、本実施形態の撮像装置は、画質調整機能の一つとして、画像の色を標準的な色から大きく変更したり、色の彩度を大きく変更したりするような機能を有している。画像の色を標準的な色から大きく変更する例としては、例えば空の色を青から紫に変更するような場合を挙げることができる。このように画質調整機能による画像の色を変更する処理は、例えば、標準の色マトリックス変換に代えて、別の色マトリックス変換を行うことにより実現することができる。以下、本実施形態の撮像装置において、画像が撮影されたときに、画質調整機能によって、標準の色マトリックス変換に代えて、別の色マトリックス変換が行われる場合を例に挙げて説明する。本実施形態において、標準の色マトリックス変換は、例えば被写体が空である場合、その空の色が標準的な青色となる画像を得ることができる係数値が設定されている色マトリックス変換である。一方、別の色マトリックス変換は、例えば空の色を標準的な青色から別の色(例えば紫色)に変更するような係数値が設定された色マトリックス変換であるとする。このように、標準の色マトリックス変換とは係数値が大きく異なる色マトリックス変換を行う画質調整がなされた場合、その画質調整後の画像は、標準の色マトリックス変換により得られる画像と比べて色相が大きく異なったものとなる。   In addition, the image pickup apparatus according to the present embodiment has a function of largely changing the color of an image from a standard color or greatly changing the color saturation as one of image quality adjustment functions. . As an example in which the color of the image is largely changed from the standard color, for example, the sky color is changed from blue to purple. Thus, the process of changing the color of the image by the image quality adjustment function can be realized by performing another color matrix conversion instead of the standard color matrix conversion, for example. Hereinafter, in the imaging apparatus of this embodiment, a case where another color matrix conversion is performed instead of the standard color matrix conversion by the image quality adjustment function when an image is taken will be described as an example. In the present embodiment, the standard color matrix conversion is color matrix conversion in which coefficient values are set to obtain an image in which the sky color is standard blue when the subject is sky, for example. On the other hand, it is assumed that another color matrix conversion is a color matrix conversion in which coefficient values are set to change the sky color from standard blue to another color (for example, purple). As described above, when image quality adjustment is performed to perform color matrix conversion that is significantly different from the standard color matrix conversion, the image after the image quality adjustment has a hue compared to the image obtained by the standard color matrix conversion. It will be very different.

図3(a)と図3(b)は、標準の色マトリックス変換とは係数値が異なる色マトリックス変換が行われた場合の画像の色相変化の説明に用いる図である。
図3(a)は、撮影画像の一例を示し、この撮影画像には空領域300と人物領域310とそれ以外の物体領域320(例えば地面)とが含まれているとする。図3(b)は、図3(a)の撮影画像例に対し、それぞれ係数値が異なる第1、第2の二つの色マトリックス変換を行った場合の、色差のUV空間での値をプロットした図である。図3(b)の横軸は色差のU成分を、縦軸は色差のV成分を示している。第1の色マトリックス変換は標準の色マトリックス変換であり、この色マトリックス変換で用いられる係数値は、例えば空の青色を標準的な青色とする値に設定されているとする。一方、第2の色マトリックス変換では、画質調整処理により例えば空の青色を青色とは異なる色(例えば紫色)とするような係数値が設定されているとする。図3(b)の場合、値301は第1の色マトリックス変換が行われた場合の空領域300の平均値を示し、値302は第2の色マトリックス変換が行われた場合の空領域300の平均値を示しているとする。また、値311は第1の色マトリックス変換が行われた場合の人物領域310の平均値、値312は第2の色マトリックス変換が行われた場合の人物領域310の平均値を示しているとする。
FIGS. 3A and 3B are diagrams used for explaining the hue change of an image when color matrix conversion having a coefficient value different from that of the standard color matrix conversion is performed.
FIG. 3A shows an example of a captured image, and it is assumed that the captured image includes a sky region 300, a person region 310, and another object region 320 (for example, the ground). FIG. 3B plots the color difference values in the UV space when the first and second color matrix conversions having different coefficient values are performed on the photographed image example of FIG. 3A. FIG. In FIG. 3B, the horizontal axis indicates the U component of the color difference, and the vertical axis indicates the V component of the color difference. The first color matrix conversion is a standard color matrix conversion, and it is assumed that the coefficient value used in the color matrix conversion is set to a value that makes the sky blue a standard blue, for example. On the other hand, in the second color matrix conversion, for example, it is assumed that coefficient values are set such that, for example, the sky blue color is changed to a color different from blue (for example, purple) by image quality adjustment processing. In the case of FIG. 3B, the value 301 indicates the average value of the sky region 300 when the first color matrix conversion is performed, and the value 302 is the sky region 300 when the second color matrix conversion is performed. It is assumed that the average value of is shown. Further, the value 311 indicates the average value of the person area 310 when the first color matrix conversion is performed, and the value 312 indicates the average value of the person area 310 when the second color matrix conversion is performed. To do.

ここで、本実施形態の領域判別処理部112において例えば空領域を判別する場合、通常は被写体領域の色範囲が第1の色マトリックス変換による青色の範囲内であるか否かを判定し、青色範囲内であると判定した被写体領域を空領域であると認識する。このため、例えば画像撮影時に第2の色マトリックス変換がなされて色相が変化している画像の場合、第1の色マトリックス変換に応じた青色範囲内か否かの判別処理を行ったのでは、空を正しく空領域として認識することができないことになる。すなわち、第2の色マトリックス変換がなされた画像は空領域の色が紫色に変更されているため、領域判別処理部112は、空を青色範囲外の領域として判定してしまい、空領域ではないと認識してしまう。このように、第2の色マトリックス変換により色相が大きく変更された画像の場合、領域判別処理部112における認識精度が低くなってしまうことになる。   Here, when the area determination processing unit 112 of this embodiment determines, for example, an empty area, it is usually determined whether the color range of the subject area is within the blue range by the first color matrix conversion, and the blue color is determined. The subject area determined to be within the range is recognized as an empty area. For this reason, for example, in the case of an image in which the hue is changed due to the second color matrix conversion at the time of image capture, the determination process of whether or not it is in the blue range according to the first color matrix conversion is performed. The sky cannot be correctly recognized as an empty area. In other words, since the color of the sky area of the image subjected to the second color matrix conversion is changed to purple, the area determination processing unit 112 determines the sky as an area outside the blue range, and is not a sky area. It will be recognized. As described above, in the case of an image whose hue is greatly changed by the second color matrix conversion, the recognition accuracy in the region discrimination processing unit 112 is lowered.

そこで、本実施形態の撮像装置は、第2の色マトリックス変換により色相が変更された画像については、第1の色マトリックス変換による色相に近づけるような色マトリックス変換処理を行ってから、領域判別処理部112による領域判別処理を行うようにする。このように、本実施形態の撮像装置は、色マトリックス変換により色相が大きく変化した画像であっても、その画像内の特定の被写体領域を正しく認識可能とする機能を有しており、以下、この機能について詳細に説明する。   Therefore, the image capturing apparatus according to the present embodiment performs a region determination process on the image whose hue has been changed by the second color matrix conversion, after performing a color matrix conversion process so as to approach the hue by the first color matrix conversion. The area determination process by the unit 112 is performed. As described above, the imaging apparatus according to the present embodiment has a function of correctly recognizing a specific subject area in an image even if the hue is greatly changed by color matrix conversion. This function will be described in detail.

以下の説明では、前述したYUV画像データのファイルが記録部106の記録媒体に記録されており、その記録媒体から読み出されたファイルの画像に対して、特定の被写体領域の認識処理を行う場合を例に挙げる。画像ファイルには、前述したように、ヘッダのメタ情報として現像パラメータが含まれており、その現像パラメータには、前述したように、撮影された画像に対する色マトリックス変換の設定情報やWB設定値等が含まれている。   In the following description, the above-described YUV image data file is recorded on the recording medium of the recording unit 106, and a specific subject area recognition process is performed on the image of the file read from the recording medium. Take as an example. As described above, the image file includes development parameters as header meta-information. As described above, the development parameters include color matrix conversion setting information, WB setting values, and the like for the captured image. It is included.

図2は、本実施形態の撮像装置において画像から特定の被写体領域を認識するまでの処理の流れを示したフローチャートである。図2のフローチャートの処理は、制御部107と領域判別処理部112より行われる。なお、図2のフローチャートの処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、図2のフローチャートの処理は、例えばROM110に記憶されているプログラムをCPUが実行することにより実現される。本実施形態に係るプログラムは、ROM110に予め用意されていてもよく、また着脱可能な半導体メモリ等から読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりして、RAM109にロードされてもよい。また以下の説明では、図2の各処理のステップS201〜ステップS204をS201〜S204と略記する。これらのことは後述する他のフローチャートにおいても同様とする。   FIG. 2 is a flowchart showing a flow of processing until a specific subject area is recognized from an image in the imaging apparatus of the present embodiment. 2 is performed by the control unit 107 and the area determination processing unit 112. Note that the processing of the flowchart in FIG. 2 may be executed by a hardware configuration, or a part may be realized by a software configuration and the rest by a hardware configuration. When the process is executed by the software configuration, the process of the flowchart in FIG. 2 is realized by the CPU executing a program stored in the ROM 110, for example. The program according to the present embodiment may be prepared in advance in the ROM 110, or read from a removable semiconductor memory or the like, or downloaded from a network such as the Internet (not shown) and loaded into the RAM 109. Also good. In the following description, steps S201 to S204 of each process in FIG. 2 are abbreviated as S201 to S204. The same applies to other flowcharts described later.

第1の実施形態の撮像装置において、特定の被写体領域(この例では空領域)の認識処理を行う場合、制御部107は、先ずS201の処理として、記録部106を介して記録媒体から画像ファイルを取得する。なお、記録媒体から取得する画像ファイルは、予めユーザ等により指定されているとする。そして、制御部107は、画像ファイルのヘッダのメタ情報に含まれている現像パラメータの中から、色マトリックス変換の設定情報を取得する。また、制御部107は、ROM110に記憶されている前述した各種初期設定情報の中から、画像ファイルのメタ情報から取得した色マトリックス変換の設定情報に応じた係数値を取得する。さらに、制御部107は、ROM110に記憶されている前述した各種初期設定情報の中から、標準の色マトリックス変換の係数値をも取得する。以下、標準の色マトリックス変換(第1の色マトリックス変換)の係数値を標準MTXパラメータと呼ぶことにする。なお、画像ファイルのメタ情報に、色マトリックス変換の係数値や画質調整処理の調整量等の情報が含まれている場合、制御部107は、それらの情報をメタ情報から取得してもよい。S201の後、制御部107は、S202に処理を進める。   In the imaging apparatus according to the first embodiment, when performing recognition processing of a specific subject area (in this example, an empty area), the control unit 107 first executes an image file from a recording medium via the recording unit 106 as processing of S201. To get. It is assumed that the image file acquired from the recording medium is designated in advance by the user or the like. Then, the control unit 107 acquires color matrix conversion setting information from the development parameters included in the meta information of the header of the image file. Further, the control unit 107 acquires a coefficient value corresponding to the setting information of the color matrix conversion acquired from the meta information of the image file from the above-described various initial setting information stored in the ROM 110. Further, the control unit 107 also acquires a standard color matrix conversion coefficient value from the above-described various initial setting information stored in the ROM 110. Hereinafter, coefficient values of standard color matrix conversion (first color matrix conversion) will be referred to as standard MTX parameters. Note that when the meta information of the image file includes information such as a coefficient value for color matrix conversion and an adjustment amount for image quality adjustment processing, the control unit 107 may acquire such information from the meta information. After S201, the control unit 107 advances the process to S202.

S202に進むと、制御部107は、画像ファイルのメタ情報から取得した色マトリックス変換の設定情報に対応した係数値が、標準MTXパラメータ(第1の色マトリックス変換の係数値)と同じであるか否かを判定する。そして、制御部107は、標準MTXパラメータと同じであると判定(YES)した場合には、S204に処理を進める。一方、制御部107は、標準MTXパラメータとは異なると判定(NO)した場合、すなわちこの例の場合は第2の色マトリックス変換の係数値であると判定された場合には、S203に処理を進める。   In step S202, the control unit 107 determines whether the coefficient value corresponding to the color matrix conversion setting information acquired from the meta information of the image file is the same as the standard MTX parameter (first color matrix conversion coefficient value). Determine whether or not. If the control unit 107 determines that the standard MTX parameter is the same as the standard MTX parameter (YES), the process proceeds to S204. On the other hand, if the control unit 107 determines that the standard MTX parameter is different (NO), that is, if it is determined that the coefficient value is the second color matrix conversion coefficient in this example, the process proceeds to S203. Proceed.

S203に進むと、制御部107は、画像ファイルの画像データを信号処理部104に送り、その画像の色が、標準MTXパラメータで色マトリックス変換された画像の標準的な色に近づく色マトリックス変換が行われるように信号処理部104を制御する。前述の図3(b)の例で説明すると、制御部107は、図3(b)の値302を値301に近づける色マトリックス変換がなされるような係数値を設定し、その係数値による色マトリックス変換を行うように信号処理部104を制御する。例えば、制御部107は、第1の色マトリックス変換による空領域の平均値(値301)と、第2の色マトリックス変換による空領域の平均値(値302)との間の色の差を基に、値302を値301に近づける色マトリックス変換の係数値を求める。そして、制御部107は、その係数値を信号処理部104に対して設定する。本実施形態の場合、画像ファイルの画像は第2の色マトリックス変換により空領域が紫色になされた画像であるため、S203の色マトリックス変換が行われることにより、空領域が青色に近い色に変更された画像が生成されることになる。なお、画像データに対する色マトリックス変換は、制御部107が行ってもよい。S203の後、制御部107は、S204に処理を進める。   In S203, the control unit 107 sends the image data of the image file to the signal processing unit 104, and color matrix conversion is performed in which the color of the image approaches the standard color of the image subjected to color matrix conversion using the standard MTX parameters. The signal processing unit 104 is controlled to be performed. In the example of FIG. 3B described above, the control unit 107 sets a coefficient value such that color matrix conversion is performed so that the value 302 in FIG. 3B approaches the value 301, and the color based on the coefficient value is set. The signal processing unit 104 is controlled to perform matrix conversion. For example, the control unit 107 uses the color difference between the average value (value 301) of the sky region by the first color matrix conversion and the average value (value 302) of the sky region by the second color matrix conversion. Then, the coefficient value of the color matrix conversion that brings the value 302 close to the value 301 is obtained. Then, the control unit 107 sets the coefficient value for the signal processing unit 104. In the case of this embodiment, since the image of the image file is an image in which the sky region is made purple by the second color matrix conversion, the sky region is changed to a color close to blue by performing the color matrix conversion in S203. The generated image is generated. Note that the color matrix conversion for the image data may be performed by the control unit 107. After S203, the control unit 107 advances the process to S204.

S204に進むと、制御部107は、S203での色マトリックス変換がなされた場合にはその色マトリックス変換後の画像データを領域判別処理部112に送って領域判別処理を行わせる。一方、制御部107は、S202で標準MTXパラメータと同じであると判定(YES)された場合には記録部106から取得された画像ファイルの画像データを領域判別処理部112に送って領域判別処理を行わせる。このように、S204で行われる領域判別処理は、S202において標準MTXパラメータでないと判定された場合には、S203で色マトリックス変換がなされた後の画像に対して行われることになる。すなわち、S203で色マトリックス変換がなされた後の画像は例えば空領域の色が青色に近い画像となっているため、領域判別処理部112では、通常の青色範囲内であるか否かの判定により、青色の空領域を正しく認識することが可能となる。一方、S202にて標準MTXパラメータであると判定された場合、S204での領域判別処理は画像ファイルの画像に対して行われ、このときの画像の空領域は元々青色であるため、領域判別処理部112では、青色の空領域を正しく認識することができる。   In S204, when the color matrix conversion in S203 is performed, the control unit 107 sends the image data after the color matrix conversion to the region determination processing unit 112 to perform the region determination processing. On the other hand, if it is determined in S202 that the standard MTX parameter is the same as the standard MTX parameter (YES), the control unit 107 sends the image data of the image file acquired from the recording unit 106 to the region determination processing unit 112 to perform region determination processing. To do. As described above, when it is determined that the standard MTX parameter is not determined in S202, the region determination process performed in S204 is performed on the image after the color matrix conversion is performed in S203. That is, since the image after the color matrix conversion in S203 is, for example, an image in which the color of the sky region is close to blue, the region determination processing unit 112 determines whether or not the image is within the normal blue range. Therefore, it is possible to correctly recognize the blue sky area. On the other hand, if the standard MTX parameter is determined in S202, the area determination process in S204 is performed on the image of the image file. Since the empty area of the image at this time is originally blue, the area determination process is performed. The unit 112 can correctly recognize the blue sky region.

図4は、図2のS204において領域判別処理部112が行う領域判別処理の詳細なフローチャートである。
図4のS401において、領域判別処理部112は、制御部107による制御の下、画像ファイルの画像データ(YUV画像データ)を取得する。そして、領域判別処理部112は、その画像について、公知のSuperpixel(以下、SPと表記する。)を算出する手法等により、似た色と輝度を有する隣接領域を繋いだ小領域を生成するグルーピング処理を行う。これにより、画像ファイルの画像は、似た色と輝度を有する小領域ごとに分けられることになる。
FIG. 4 is a detailed flowchart of the area determination process performed by the area determination processing unit 112 in S204 of FIG.
In S401 of FIG. 4, the area determination processing unit 112 acquires image data (YUV image data) of an image file under the control of the control unit 107. Then, the area determination processing unit 112 generates a small area that connects adjacent areas having similar colors and luminances by using a known superpixel (hereinafter referred to as SP) method for the image. Process. As a result, the image of the image file is divided into small regions having similar colors and brightness.

次のS402において、領域判別処理部112は、SP毎に、輝度Yの平均値Yspと、色(色差U,V)の平均値Usp,Vspとを算出する。
次のS403において、領域判別処理部112は、下記の式(1)により、SP毎のYUVの平均値(Ysp,Usp,Vsp)と、基準画素値(Ysk,Usk,Vsk)との差分SUBを求める。基準画素値(Ysk,Usk,Vsk)は、標準の色マトリックス変換(第1の色マトリックス変換)により得られる空の青色に対応したYUVの各値であり、この実施形態の領域判定処理における色目標値である。さらに、領域判別処理部112は、SP毎のYUVの平均値(Ysp,Usp,Vsp)と、基準画素値(Ysk,Usk,Vsk)との差分SUBが、所定の閾値以内であるか否かを判定する。
In next step S402, the area determination processing unit 112 calculates the average value Ysp of the luminance Y and the average values Usp and Vsp of the colors (color differences U and V) for each SP.
In the next step S403, the area determination processing unit 112 calculates the difference SUB between the YUV average value (Ysp, Usp, Vsp) for each SP and the reference pixel value (Ysk, Usk, Vsk) by the following equation (1). Ask for. The reference pixel values (Ysk, Usk, Vsk) are the YUV values corresponding to the sky blue color obtained by the standard color matrix conversion (first color matrix conversion), and the colors in the area determination processing of this embodiment It is a target value. Further, the area determination processing unit 112 determines whether or not the difference SUB between the average value of YUV (Ysp, Usp, Vsp) for each SP and the reference pixel value (Ysk, Usk, Vsk) is within a predetermined threshold value. Determine.

SUB=SQRT((Ysp−Ysk)^2+(Usp−Usk)^2+(Vsp−Vsk)^2) 式(1)   SUB = SQRT ((Ysp-Ysk) ^ 2 + (Usp-Usk) ^ 2 + (Vsp-Vsk) ^ 2) Equation (1)

そして、領域判別処理部112は、S402において差分SUBが閾値以内であると判定(YES)した場合にはS404に処理を進め、一方、差分SUBが閾値を超えると判定(NO)した場合にはS405に処理を進める。   The area determination processing unit 112 proceeds to S404 when it is determined in S402 that the difference SUB is within the threshold (YES), whereas when it is determined that the difference SUB exceeds the threshold (NO). The process proceeds to S405.

S404に進んだ場合、領域判別処理部112は、S402で判定の対象となっているSPを空領域に含まれるSPであるとして設定する。一方、S405に進んだ場合、領域判別処理部112は、S402で判定対象となっているSPを空領域に含まれないSPであるとして設定する。これらS404又はS405の後、領域判別処理部112は、S406に処理を進める。   When the process proceeds to S404, the area determination processing unit 112 sets the SP that is the object of determination in S402 as an SP included in the empty area. On the other hand, when the process proceeds to S405, the area determination processing unit 112 sets the SP that is the determination target in S402 as an SP that is not included in the empty area. After S404 or S405, the area determination processing unit 112 advances the process to S406.

S406に進むと、領域判別処理部112は、画像内の各SPの全てについてS402以降の処理が行われたか否かを判定し、未処理のSPが残っていると判定(NO)した場合にはS402に処理を戻し、未処理のSPについてS402以降の処理を行う。一方、制御部107は、S406において全てのSPの処理が完了したと判定(YES)した場合には、図4のフローチャートの処理を終了する。   In S406, the area determination processing unit 112 determines whether or not the processing from S402 onward has been performed for all the SPs in the image, and determines that there is an unprocessed SP remaining (NO). Returns the processing to S402, and performs the processing after S402 on the unprocessed SP. On the other hand, if it is determined that the processing of all SPs has been completed (YES) in S406, the control unit 107 ends the processing of the flowchart of FIG.

以上説明したように、第1の実施形態の撮像装置は、撮影時に行われた色マトリックス変換が、標準の色マトリックス変換とは大きく異なる場合に、画像の色を、標準の色マトリックス変換による標準的な色に近づけるようにしてから、領域認識の処理を行う。これにより、第1の実施形態の撮像装置によれば、撮影時等に色が変更された画像であっても、精度のよい領域認識を行うことが可能となる。   As described above, the image pickup apparatus according to the first embodiment uses the standard color matrix conversion to change the color of an image when the color matrix conversion performed at the time of shooting is significantly different from the standard color matrix conversion. The area recognition process is performed after the color is approximated. Thereby, according to the imaging device of the first embodiment, accurate region recognition can be performed even for an image whose color has been changed at the time of shooting or the like.

なお、本実施形態では、認識の対象となる被写体領域として空領域を例に挙げたが、認識の対象となる被写体領域は、例えば物、草木等の領域であってもよい。また、本実施形態では、認識対象の被写体領域が空領域のように一つの領域となされた例を挙げたが、その他にも、例えばそれぞれ同じ色の複数の領域、それぞれ異なる色の複数の領域等の認識処理を、同時に行うことも可能である。   In the present embodiment, the sky region is taken as an example of the subject region to be recognized. However, the subject region to be recognized may be a region such as an object or a plant. In this embodiment, an example in which the subject area to be recognized is a single area such as an empty area has been described. However, for example, a plurality of areas having the same color and a plurality of areas having different colors are used. It is also possible to simultaneously perform the recognition process.

さらに、本実施形態では、SP毎の平均値と基準画素値との差分SUBを算出する際に、YUVの色空間の値を用いた例を挙げたが、画素値を表現できるもの、例えばRGB色空間、Lab色空間、XYZ色空間等の値であってもよい。また、本実施形態では、SP単位で差分SUBを検出する例を挙げたが、通常のピクセル単位、ピクセル単位又はSP単位の画素の周辺画素も含めた平均値やブロック単位で処理を行うようにしてもよい。   Furthermore, in this embodiment, when calculating the difference SUB between the average value for each SP and the reference pixel value, an example in which the value of the YUV color space is used is given. It may be a value such as a color space, Lab color space, XYZ color space, or the like. In the present embodiment, the example in which the difference SUB is detected in SP units has been described. However, processing is performed in average values or block units including peripheral pixels of pixels in normal pixel units, pixel units, or SP units. May be.

<第2の実施形態>
以下、本発明の第2の実施形態について説明する。
図5には第2の実施形態における認識処理のフローチャートを示し、図6には第2の実施形態において標準の色マトリックス変換とは異なる色マトリックス変換が行われた場合の画像の色相変化の説明図を示す。
第2の実施形態では、領域の認識精度が下がることが予測される色マトリックス変換が行われた場合には、領域判別を中止して、領域認識の誤りが生ずるのを防ぐようにする。第2の実施形態において、第1の実施形態と同じ処理、構成に関してはその詳細な説明を省略する。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described.
FIG. 5 shows a flowchart of the recognition processing in the second embodiment, and FIG. 6 illustrates the hue change of the image when color matrix conversion different from the standard color matrix conversion is performed in the second embodiment. The figure is shown.
In the second embodiment, when color matrix conversion that is predicted to reduce the recognition accuracy of a region is performed, the region determination is stopped to prevent a region recognition error from occurring. In the second embodiment, detailed description of the same processing and configuration as in the first embodiment is omitted.

先ず、図6を用いて、第2の実施形態における色マトリックス変換について説明する。第2の実施形態の場合、画像の撮影時には、前述した第1の色マトリックス変換、第2の色マトリックス変換の他、第3の色マトリックス変換が行われることがあるとする。第3の色マトリックス変換は、領域の認識精度が下がることが予測される色マトリックス変換であるとする。   First, color matrix conversion in the second embodiment will be described with reference to FIG. In the case of the second embodiment, it is assumed that a third color matrix conversion may be performed in addition to the first color matrix conversion and the second color matrix conversion described above when an image is captured. It is assumed that the third color matrix conversion is a color matrix conversion in which the recognition accuracy of the region is predicted to decrease.

図6は、第1、第2、第3の三つの色マトリックス変換の何れかが行われた場合の、UV空間での値をプロットした図である。前述の図3(b)の例と同様、図6の横軸はU成分、縦軸はV成分を示している。図6の値601は前述した第1の色マトリックス変換が行われた場合の空領域の平均値を示し、値602は前述した第2の色マトリックス変換が行われた場合の空領域の平均値を示している。また、値603は第3の色マトリックス変換が行われた場合の空領域の平均値を示している。さらに、図6の値611は第1の色マトリックス変換を行った場合の紫色の領域の平均値を示し、値613は第3の色マトリックス変換が行われた場合の空とは異なる紫色の領域の平均値を示している。つまり、第3の色マトリックス変換が行われた場合、図6のように、第2の色マトリックス変換による空領域(値603)と、空領域とは本来異なる領域(値613)とで、色相がほぼ一致(特徴情報がほぼ一致)している。すなわちこの場合、色の情報では、紫色の空領域と、空とは異なる紫色の領域とを区別できなくなる。このため、第3の色マトリックス変換が行われた画像に対して、空領域の認識を行うと、本来、空とは異なる紫色の領域を、空領域として誤って判別してしまい認識精度が下がってしまう。そこで、第2の実施形態では、撮影された画像に対し、第3の色マトリックス変換、つまり領域の認識精度が下がることが予測される色マトリックス変換が行われている場合には、空領域の認識を中止する。   FIG. 6 is a diagram in which values in the UV space are plotted when any one of the first, second, and third color matrix conversions is performed. Similar to the example of FIG. 3B described above, the horizontal axis of FIG. 6 indicates the U component and the vertical axis indicates the V component. A value 601 in FIG. 6 indicates an average value of the sky region when the above-described first color matrix conversion is performed, and a value 602 indicates an average value of the sky region when the above-described second color matrix conversion is performed. Is shown. A value 603 indicates an average value of the sky region when the third color matrix conversion is performed. Further, a value 611 in FIG. 6 indicates an average value of the purple region when the first color matrix conversion is performed, and a value 613 is a purple region different from the sky when the third color matrix conversion is performed. The average value is shown. In other words, when the third color matrix conversion is performed, as shown in FIG. 6, the hue between the sky region (value 603) by the second color matrix conversion and the originally different region (value 613) from the sky region is changed. Are almost identical (feature information is almost identical). That is, in this case, the color information cannot distinguish the purple sky region from the purple region different from the sky. For this reason, if the sky region is recognized for the image that has undergone the third color matrix conversion, a purple region that is different from the sky is erroneously identified as a sky region, and the recognition accuracy decreases. End up. Therefore, in the second embodiment, when the third color matrix conversion, that is, the color matrix conversion in which the recognition accuracy of the region is predicted to be lowered is performed on the captured image, the empty region is detected. Stop recognition.

このような第2の実施形態における特定の被写体領域の認識処理について、図5のフローチャートを用いて説明する。
S501において、制御部107は、前述のS201と同様に、画像ファイルを取得し、さらに、メタ情報の現像パラメータの中から色マトリックス変換の設定情報を取得する。また、制御部107は、前述同様に、ROM110の初期設定情報の中から、画像ファイルのメタ情報から取得した色マトリックス変換の設定情報に応じた係数値と、標準MTXパラメータとを取得する。第2の実施形態の場合、制御部107は、さらにROM110の初期設定情報の中から、領域の認識精度が下がることが予測される第3の色マトリックス変換の係数値についても取得する。以下、第3の色マトリックス変換の係数値を第3のMTXパラメータとする。S501の後、制御部107は、S502に処理を進める。
Such specific object region recognition processing in the second embodiment will be described with reference to the flowchart of FIG.
In step S501, the control unit 107 acquires an image file as in step S201 described above, and further acquires setting information for color matrix conversion from the development parameters of the meta information. Further, as described above, the control unit 107 acquires the coefficient value corresponding to the color matrix conversion setting information acquired from the meta information of the image file and the standard MTX parameter from the initial setting information of the ROM 110. In the case of the second embodiment, the control unit 107 also acquires the coefficient value of the third color matrix conversion that is predicted to decrease the recognition accuracy of the area from the initial setting information of the ROM 110. Hereinafter, the coefficient value of the third color matrix conversion is set as a third MTX parameter. After S501, the control unit 107 advances the process to S502.

S502に進むと、制御部107は、画像ファイルのメタ情報に含まれる色マトリックス変換の設定情報に応じた係数値が、第3のMTXパラメータと同じであるか否かを判定する。そして、制御部107は、第3のMTXパラメータと同じであると判定(YES)した場合には、S506に処理を進める。一方、制御部107は、第3のMTXパラメータとは異なると判定(NO)した場合には、S503に処理を進める。   In step S502, the control unit 107 determines whether the coefficient value corresponding to the color matrix conversion setting information included in the meta information of the image file is the same as the third MTX parameter. If the control unit 107 determines that the third MTX parameter is the same as the third MTX parameter (YES), the process proceeds to S506. On the other hand, if the control unit 107 determines that the third MTX parameter is different (NO), the control unit 107 advances the process to S503.

S503に進むと、制御部107は、メタ情報から取得した色マトリックス変換の設定情報に応じた係数値が、標準MTXパラメータと同じであるか否かを判定する。そして、制御部107は、標準MTXパラメータと同じであると判定(YES)した場合には、S505に処理を進める。一方、制御部107は、標準MTXパラメータとは異なると判定(NO)した場合、すなわちこの例の場合は第2の色マトリックス変換の係数値であると判定した場合にはS504に処理を進める。S503からS505までの処理は、前述した図2のS202からS204までの処理と同様の処理であるため、その説明は省略する。   In step S503, the control unit 107 determines whether the coefficient value according to the color matrix conversion setting information acquired from the meta information is the same as the standard MTX parameter. If the control unit 107 determines that the standard MTX parameter is the same (YES), the process proceeds to S505. On the other hand, if the control unit 107 determines that the standard MTX parameter is different (NO), that is, if it is determined that the coefficient value is the second color matrix conversion coefficient in this example, the process proceeds to S504. The processing from S503 to S505 is the same as the processing from S202 to S204 in FIG.

S506の処理に進んだ場合、制御部107は、領域判別処理部112における空領域の認識処理を中止して、図5のフローチャートの処理を終了する。すなわち、第3の色マトリックス変換が行われた画像の場合、空領域の領域判別を行うと認識精度が下がってしまうので、制御部107は、領域判別処理部112による空領域の領域判別を行わせずに処理を終了する。   When the process proceeds to S506, the control unit 107 stops the recognition process of the empty area in the area determination processing unit 112 and ends the process of the flowchart of FIG. That is, in the case of an image that has been subjected to the third color matrix conversion, the recognition accuracy is lowered when the region determination of the sky region is performed. Therefore, the control unit 107 performs the region determination of the sky region by the region determination processing unit 112. End the process without sending them.

以上説明したように、第2の実施形態では、第3の色マトリックス変換のように、認識精度が下がることが予想される色マトリックス変換が行われた画像については、空領域の領域判別を中止する。これにより、第2の実施形態によれば、空領域の誤検出を減らし、精度のよい領域認識を行うことが可能となる。   As described above, in the second embodiment, the region determination of the sky region is stopped for an image that has undergone color matrix conversion in which recognition accuracy is expected to decrease as in the third color matrix conversion. To do. As a result, according to the second embodiment, it is possible to reduce false detection of an empty region and perform accurate region recognition.

<第3の実施形態>
以下、第3の実施形態について説明する。
第3の実施形態では、第1、第2の実施形態のように、第2の色マトリックス変換が行われた画像の色を第1の色マトリックス変換による標準的な色に近づける色マトリックス変換を行う代わりに、領域判別処理時の空領域の色目標値を修正する。第3の実施形態において、第1、第2の実施形態と同じ処理、構成に関してはその詳細な説明を省略する。
<Third Embodiment>
Hereinafter, a third embodiment will be described.
In the third embodiment, as in the first and second embodiments, the color matrix conversion that brings the color of the image subjected to the second color matrix conversion closer to the standard color by the first color matrix conversion is performed. Instead, the color target value of the sky area during the area determination process is corrected. In the third embodiment, detailed description of the same processing and configuration as those in the first and second embodiments is omitted.

図7は第3の実施形態における認識処理のフローチャートである。
S701において、制御部107は、前述のS501と同様に、画像ファイルを取得し、さらにメタ情報の現像パラメータの中から色マトリックス変換の設定情報を取得する。また、制御部107は、前述のS501と同様に、ROM110の初期設定情報の中から、画像ファイルのメタ情報から取得した色マトリックス変換の設定情報に応じた係数値と、標準MTXパラメータとを取得し、さらに第3のMTXパラメータをも取得する。S701の後、制御部107は、S702に処理を進める。
FIG. 7 is a flowchart of recognition processing in the third embodiment.
In step S701, the control unit 107 acquires an image file as in step S501 described above, and further acquires setting information for color matrix conversion from the development parameters of the meta information. In addition, as in S501 described above, the control unit 107 acquires, from the initial setting information in the ROM 110, a coefficient value corresponding to the color matrix conversion setting information acquired from the meta information of the image file and the standard MTX parameter. In addition, the third MTX parameter is also acquired. After S701, the control unit 107 advances the process to S702.

S702に進むと、制御部107は、前述のS502と同様に、画像ファイルのメタ情報に含まれる色マトリックス変換の設定情報に応じた係数値が、第3のMTXパラメータと同じであるか否かを判定する。そして、制御部107は、第3のMTXパラメータと同じであると判定(YES)した場合には、前述の第2の実施形態の場合と同様に、空領域の領域判別を行わずに、図7のフローチャートの処理を終了する。一方、制御部107は、第3のMTXパラメータとは異なると判定(NO)した場合には、S703に処理を進める。なお、図7のフローチャートでは、第2の実施形態のように第3のMTXパラメータについても用いられた例を挙げているが、第3の実施形態の場合、第3のMTXパラメータに関する処理は必ずしも行われなくてもよい。   In step S702, the control unit 107 determines whether the coefficient value corresponding to the color matrix conversion setting information included in the meta information of the image file is the same as that in the third MTX parameter, as in step S502 described above. Determine. If the control unit 107 determines that the third MTX parameter is the same as that of the third MTX parameter (YES), the controller 107 does not perform determination of the empty region as in the case of the second embodiment described above. 7 is terminated. On the other hand, if the control unit 107 determines that the third MTX parameter is different (NO), the control unit 107 advances the process to S703. In the flowchart of FIG. 7, an example in which the third MTX parameter is also used is given as in the second embodiment. However, in the third embodiment, processing related to the third MTX parameter is not necessarily performed. It does not have to be done.

S703に進むと、制御部107は、前述のS503と同様に、標準MTXパラメータと同じであるか否かの判定を行い、同じであると判定(YES)にはS705に処理を進める。一方、S703において標準MTXパラメータと同じではないと判定(NO)した場合、つまり第2の色マトリックス変換の係数値であると判定した場合、制御部107は、S704に処理を進める。   When the processing proceeds to S703, the control unit 107 determines whether or not the same as the standard MTX parameter, similarly to the above-described S503, and proceeds to S705 if it is determined that it is the same (YES). On the other hand, if it is determined in S703 that it is not the same as the standard MTX parameter (NO), that is, if it is determined that the coefficient value is the second color matrix conversion coefficient, the control unit 107 advances the process to S704.

S704に進んだ場合、制御部107は、後段のS705で領域判別処理部112が領域判別処理に使用する色目標値を、前述の基準画素値(Ysk,Usk,Vsk)から、修正色目標値(Yskn,Uskn,Vskn)に変更する。この場合、基準画素値(Ysk,Usk,Vsk)は青色の画素値であり、また、画像ファイルの画像は第2の色マトリックス変換により空の色が紫色になされている。このため、制御部107は、領域判別処理の際の色目標値を、基準画素値(Ysk,Usk,Vsk)から、紫色の修正色目標値(Yskn,Uskn,Vskn)に変更する。S704の後、制御部107は、S705に処理を進める。   When the processing proceeds to S704, the control unit 107 determines the color target value used by the region determination processing unit 112 in the subsequent step S705 for the region determination processing from the above-described reference pixel value (Ysk, Usk, Vsk) as the corrected color target value. Change to (Yskn, Uskn, Vskn). In this case, the reference pixel value (Ysk, Usk, Vsk) is a blue pixel value, and the image of the image file has the sky color made purple by the second color matrix conversion. Therefore, the control unit 107 changes the color target value in the area determination process from the reference pixel value (Ysk, Usk, Vsk) to the purple corrected color target value (Yskn, Uskn, Vskn). After S704, the control unit 107 advances the process to S705.

S705に進むと、制御部107は、領域判別処理部112における空領域の認識処理を行わせる。
第3の実施形態の場合の領域判別処理は、概ね前述した図4のフローチャートで説明した処理と同様である。ただし、第3の実施形態の場合、S403の処理が異なる。なお、S401、S402、S404、S405、S406については概ね前述同様であるためそれらの説明は省略する。
ここで、S704の処理後にS705の処理に進んだ場合、領域判別処理部112には、修正色目標値(Yskn,Uskn,Vskn)が設定されている。このため、領域判別処理部112は、S403において、式(1)のYsk,Usk,VskをYskn,Uskn,Vsknに代えた式(2)により、差分SUBを算出する。すなわち、式(2)では、SP毎のYUVの平均値(Ysp,Usp,Vsp)と修正色目標値(Yskn,Uskn,Vskn)との差分SUBが算出される。
In step S <b> 705, the control unit 107 causes the region discrimination processing unit 112 to perform an empty region recognition process.
The area determination process in the case of the third embodiment is substantially the same as the process described with reference to the flowchart of FIG. However, in the case of the third embodiment, the processing of S403 is different. Since S401, S402, S404, S405, and S406 are substantially the same as those described above, their description is omitted.
Here, when the process proceeds to the process of S705 after the process of S704, the corrected color target values (Yskn, Uskn, Vskn) are set in the area determination processing unit 112. For this reason, the area determination processing unit 112 calculates the difference SUB in S403 according to Expression (2) in which Ysk, Usk, and Vsk in Expression (1) are replaced with Yskn, Uskn, and Vskn. That is, in the equation (2), the difference SUB between the average value (Ysp, Usp, Vsp) of YUV for each SP and the corrected color target value (Yskn, Uskn, Vskn) is calculated.

SUB=SQRT((Ysp−Yskn)^2+(Usp−Uskn)^2+(Vsp−Vskn)^2) 式(2)   SUB = SQRT ((Ysp−Yskn) ^ 2 + (Usp−Uskn) ^ 2 + (Vsp−Vskn) ^ 2) Equation (2)

そして、領域判別処理部112は、式(2)による差分SUBが所定の閾値以内であるか否かを判定し、閾値以内であると判定した場合にはSPを空領域に含まれるSPであるとして設定する。一方、領域判別処理部112は、式(2)による差分SUBが閾値を超えると判定した場合にはSPを空領域に含まれないSPであるとして設定する。
なお、S703において、標準MTXパラメータと同じであると判定されてS705に進んだ場合、領域判別処理部112には、前述同様の基準画素値(Ysk,Usk,Vsk)が設定されているため、前述のS403と同様の判定処理が行われることになる。
Then, the area determination processing unit 112 determines whether or not the difference SUB according to Expression (2) is within a predetermined threshold, and if it is determined that it is within the threshold, the SP is an SP included in the empty area. Set as. On the other hand, the area determination processing unit 112 sets the SP as an SP that is not included in the empty area when it is determined that the difference SUB according to Expression (2) exceeds the threshold value.
If it is determined in S703 that the parameters are the same as the standard MTX parameters and the process proceeds to S705, the same reference pixel values (Ysk, Usk, Vsk) as those described above are set in the area determination processing unit 112. The same determination process as in S403 described above is performed.

以上説明したように、第3の実施形態では、撮影時に行われた色マトリックス変換が、標準的な色マトリックス変換とは大きく異なる場合、領域判別処理に用いる色目標値を、撮影時に行われた色マトリックス変換に合わせて修正した修正色目標値に変更する。これにより、第3の実施形態によれば、撮影時等に色が変更された画像であっても、精度のよい領域認識を行うことが可能となる。   As described above, in the third embodiment, when the color matrix conversion performed at the time of shooting is significantly different from the standard color matrix conversion, the color target value used for the region determination processing is performed at the time of shooting. Change to the corrected color target value that has been corrected according to the color matrix conversion. As a result, according to the third embodiment, it is possible to perform accurate region recognition even for an image whose color has been changed during shooting or the like.

<第4の実施形態>
以下、第4の実施形態について説明する。
第4の実施形態では、撮影画像に対する画質調整処理として、例えばWB設定値が、AWB処理で得られるWB設定値(通常の撮影条件で設定されるAWB設定値)から大きく変更された場合を例に挙げる。すなわち、WBの色温度設定値等を調整する画質調整処理が行われた場合、その調整後のWB設定値は、AWB設定値とは異なるWB設定値となる。以下の説明では、AWB設定値を標準WBパラメータと呼ぶことにし、AWB設定値とは異なる値に調整されたWB設定値を調整WBパラメータと呼ぶことにする。WB設定値を標準WBパラメータから調整WBパラメータに変更する画質調整処理としては、例えばWBの色温度設定値を標準WBパラメータの場合よりも大幅に低くして、青空の青色を極端に濃くするような処理等が想定される。第4の実施形態において、第1の実施形態と同じ処理、構成に関してはその詳細な説明を省略する。なお、第4の実施形態の場合、信号処理部104では、標準の色マトリックス変換(第1の色マトリックス変換)が行われ、前述した実施形態のように第2や第3の色マトリックス変換については行われないとする。
<Fourth Embodiment>
Hereinafter, a fourth embodiment will be described.
In the fourth embodiment, as an image quality adjustment process for a captured image, for example, a case where the WB setting value is significantly changed from the WB setting value obtained by the AWB process (AWB setting value set under normal shooting conditions). To That is, when image quality adjustment processing for adjusting the color temperature setting value of the WB is performed, the WB setting value after the adjustment is a WB setting value different from the AWB setting value. In the following description, the AWB set value is referred to as a standard WB parameter, and the WB set value adjusted to a value different from the AWB set value is referred to as an adjusted WB parameter. As image quality adjustment processing for changing the WB setting value from the standard WB parameter to the adjustment WB parameter, for example, the color temperature setting value of the WB is significantly lower than that of the standard WB parameter so that the blue color of the blue sky is extremely darkened. Processing is assumed. In the fourth embodiment, detailed description of the same processing and configuration as in the first embodiment is omitted. In the case of the fourth embodiment, the signal processing unit 104 performs standard color matrix conversion (first color matrix conversion), and the second and third color matrix conversions as in the above-described embodiment. Is not done.

図8は、第4の実施形態における認識処理のフローチャートである。
図8において、特定の被写体領域(空領域)の認識処理を行う場合、制御部107は、先ずS801の処理として、記録部106を介して記録媒体から画像ファイルを取得する。また、制御部107は、画像ファイルのヘッダのメタ情報に含まれている現像パラメータの中から、WB設定値の情報を取得する。ここで、第4の実施形態の場合、メタ情報の中のWB設定値には、標準WBパラメータであるAWB設定値の他、WBの色温度設定値等を調整する画質調整処理が行われた場合の調整WBパラメータも含まれる。S801の後、制御部107は、S802に処理を進める。
FIG. 8 is a flowchart of recognition processing in the fourth embodiment.
In FIG. 8, when performing recognition processing of a specific subject area (empty area), the control unit 107 first acquires an image file from the recording medium via the recording unit 106 as processing of S801. Further, the control unit 107 acquires WB setting value information from the development parameters included in the meta information in the header of the image file. Here, in the case of the fourth embodiment, the WB setting value in the meta information is subjected to image quality adjustment processing for adjusting the WB color temperature setting value in addition to the AWB setting value that is a standard WB parameter. Adjustment WB parameters for the case are also included. After S801, the control unit 107 advances the process to S802.

S802に進むと、制御部107は、画質調整処理が行われた場合の調整WBパラメータが、標準WBパラメータと同じであるか否かを判定する。そして、制御部107は、標準WBパラメータと同じであると判定(YES)した場合には、S804に処理を進める。一方、制御部107は、標準WBパラメータとは異なると判定(NO)した場合には、S803に処理を進める。   In step S802, the control unit 107 determines whether the adjustment WB parameter when the image quality adjustment process is performed is the same as the standard WB parameter. If the control unit 107 determines that the standard WB parameter is the same (YES), the process proceeds to S804. On the other hand, if the control unit 107 determines that the standard WB parameter is different (NO), the control unit 107 advances the process to step S803.

S803に進むと、制御部107は、画像ファイルのYUV画像データをRGB変換した画像データをWB処理部103に送り、その画像に対して標準WBパラメータによるWB処理が行われた画像(AWBのWB処理後の画像)に近づくゲイン処理を行わせる。例えば、標準WBパラメータにおけるRとBのWB設定値をWBゲイン(WRst,WBst)とし、調整WBパラメータにおけるRとBのWB設定値をWBゲイン(WRc,WBc)とする。この場合、標準WBパラメータのWB処理による画像に近づけるゲイン処理のWBゲイン(WR,WB)は、式(3)、式(4)で表すことができる。したがって、制御部107は、S803において、画像ファイルのYUV画像データをRGB変換した画像データに対し、この式(3)、式(4)のWBゲイン(WR,WB)によるゲイン処理が行われるようにWB処理部103を制御する。なお、このS803におけるゲイン処理は、制御部107が行ってもよい。また、YUV画像データをRGBの画像データに変換する処理は、信号処理部104にて行われてもよい。   In step S803, the control unit 107 sends image data obtained by performing RGB conversion on the YUV image data of the image file to the WB processing unit 103, and an image obtained by performing WB processing using the standard WB parameter on the image (WB of the AWB). (Gain processing approaching the image after processing) is performed. For example, the R and B WB setting values in the standard WB parameter are WB gains (WRst and WBst), and the R and B WB setting values in the adjustment WB parameter are WB gains (WRc and WBc). In this case, the WB gain (WR, WB) of the gain processing that approximates the image by the WB processing of the standard WB parameter can be expressed by Expression (3) and Expression (4). Therefore, in step S803, the control unit 107 performs gain processing based on the WB gains (WR, WB) of Expressions (3) and (4) on the image data obtained by converting the YUV image data of the image file into RGB. The WB processing unit 103 is controlled. The gain processing in S803 may be performed by the control unit 107. Further, the signal processing unit 104 may perform processing for converting YUV image data into RGB image data.

WR=WRst/WRc 式(3)
WB=WBst/WBc 式(4)
WR = WRst / WRc Formula (3)
WB = WBst / WBc formula (4)

次のS804に進むと、制御部107は、S803でゲイン処理が行われた場合にはそのゲイン処理後の画像データを例えば信号処理部104にてYUV画像データに変換させた後、領域判別処理部112に送って領域判別処理を行わせる。一方、制御部107は、S802で標準WBパラメータと同じであると判定(YES)された場合には記録部106から取得された画像ファイルの画像データを領域判別処理部112に送って領域判別処理を行わせる。このように、S804で行われる領域判別処理は、S802において標準WBパラメータでないと判定された場合には、S803でゲイン処理がなされた後の画像に対して行われることになる。すなわち、S803でゲイン処理がなされた後の画像は例えば空領域の色が標準的なAWB時の青色に近い画像となっているため、領域判別処理部112では、通常の青色範囲内であるか否かの判定により、青色の空領域を正しく認識することが可能となる。一方、S802にて標準WBパラメータと判定された場合、S804での領域判別処理は画像ファイルの画像に対して行われ、このときの画像の空領域は標準的なAWBの青色であるため、領域判別処理部112では、青色の空領域を正しく認識できる。なお、領域判別処理部112における処理は前述の第1の実施形態の場合と同様であるため、その詳細な説明は省略する。   In step S804, if the gain processing is performed in step S803, the control unit 107 converts the image data after the gain processing into, for example, YUV image data in the signal processing unit 104, and then performs region determination processing. The data is sent to the unit 112 to perform the area discrimination process. On the other hand, if it is determined that the standard WB parameter is the same as the standard WB parameter (YES) in S802, the control unit 107 sends the image data of the image file acquired from the recording unit 106 to the region determination processing unit 112 and performs region determination processing. To do. As described above, when it is determined in S802 that the region determination process is not a standard WB parameter, the area determination process performed in S804 is performed on the image after the gain process is performed in S803. That is, since the image after the gain processing in S803 is an image in which the color of the sky region is close to the blue color in the standard AWB, for example, the region determination processing unit 112 determines whether the image is within the normal blue range. By determining whether or not, it is possible to correctly recognize the blue sky region. On the other hand, if the standard WB parameter is determined in step S802, the region determination processing in step S804 is performed on the image of the image file, and the empty region of the image at this time is the standard AWB blue color. The discrimination processing unit 112 can correctly recognize the blue sky area. Note that the processing in the region determination processing unit 112 is the same as that in the first embodiment described above, and thus detailed description thereof is omitted.

以上説明したように、第4の実施形態においては、画像撮影時に設定されたWB設定値が標準WBパラメータとは大きく異なる調整WBパラメータである場合、標準WBパラメータのWB処理による画像に近づくようなゲイン処理を施してから認識処理を行う。これにより、第4の実施形態の撮像装置によれば、撮影時等にWB設定値が変更されて色温度設定が大きく変わっている画像であっても、精度のよい領域認識を行うことが可能となる。   As described above, in the fourth embodiment, when the WB setting value set at the time of image shooting is an adjustment WB parameter that is significantly different from the standard WB parameter, the image is approximated to the image by the WB processing of the standard WB parameter. Recognition processing is performed after gain processing is performed. Thereby, according to the imaging device of the fourth embodiment, it is possible to perform accurate region recognition even for an image in which the WB setting value is changed during shooting or the like and the color temperature setting is greatly changed. It becomes.

<第5の実施形態>
以下、第5の実施形態について説明する。
撮影時にWB設定値を変更する画質調整処理が行われた場合、その変更されたWB設定値によるWB処理後の画像は、領域の認識精度が下がってしまうことが予想される画像になることも考えられる。このように領域の認識精度が下がることが予測されるWB処理が行われた場合、第5の実施形態として、前述の第2の実施形態と同様に、制御部107は、領域判別処理部112での領域判別処理を中止してもよい。これにより、領域認識の誤りが生ずるのを防ぐことが可能となる。すなわち、第5の実施形態によれば、領域の認識精度が下がることが予測されるWB処理が行われた場合であっても、前述した第2の実施形態と同様、空領域の誤検出を減らし、精度のよい領域認識を行うことが可能となる。
<Fifth Embodiment>
The fifth embodiment will be described below.
When image quality adjustment processing is performed to change the WB setting value at the time of shooting, the image after the WB processing with the changed WB setting value may be an image in which the recognition accuracy of the region is expected to decrease. Conceivable. When the WB process in which the recognition accuracy of the region is predicted to decrease is performed in this manner, as in the second embodiment, the control unit 107 performs the region determination processing unit 112 as the fifth embodiment. The area determination process at may be stopped. As a result, it is possible to prevent an area recognition error from occurring. In other words, according to the fifth embodiment, even when the WB process is performed in which the recognition accuracy of the region is predicted to decrease, the false detection of the empty region is performed as in the second embodiment described above. Therefore, it is possible to perform accurate area recognition.

<第6の実施形態>
以下、第6の実施形態について説明する。
前述の第4の実施形態では、調整WBパラメータによるWB処理後の画像に対し、標準WBパラメータによるWB処理後の画像に近づくようなWBゲイン処理を施す例を挙げたが、前述の第3の実施形態のように色目標値の修正が行われてもよい。すなわち第6の実施形態として、制御部107は、調整WBパラメータによるWB処理後の画像に対し、標準WBパラメータのWB処理後の画像に近づけるゲイン処理を行う代わりに、領域判別処理部112で用いる空領域の色目標値を修正する。これにより、第6の実施形態によれば、撮影時等に調整WBパラメータによるWB処理がなされて例えば色温度が変わった画像であっても、精度のよい領域認識を行うことが可能となる。
<Sixth Embodiment>
The sixth embodiment will be described below.
In the above-described fourth embodiment, an example in which the WB gain process is performed on the image after the WB process using the adjustment WB parameter so as to approach the image after the WB process using the standard WB parameter is described. The color target value may be corrected as in the embodiment. In other words, as the sixth embodiment, the control unit 107 uses the area discrimination processing unit 112 instead of performing gain processing to approximate the image after WB processing with the standard WB parameter to the image after WB processing with the adjusted WB parameter. Correct the color target value for the sky area. As a result, according to the sixth embodiment, it is possible to perform accurate region recognition even for an image in which, for example, the color temperature is changed by performing WB processing using the adjusted WB parameter at the time of shooting or the like.

<第7の実施形態>
以下、第7の実施形態について説明する。
第7の実施形態では、撮影された画像に対し、それぞれ異なる色マトリックス変換を行うようにし、一方の色マトリックス変換後の画像を記録し、他方の色マトリックス変換後の画像を認識処理に用いるようにする例である。他方の色マトリックス変換後の画像は、認識処理にのみ用い、その画像ファイルの記録は行わないとする。第7の実施形態では、記録される画像に施される一方の色マトリックス変換が前述の第2の色マトリックス変換、認識処理に用いられる画像に施される他方の色マトリックス変換が第1の色マトリックス変換となされている。
<Seventh Embodiment>
The seventh embodiment will be described below.
In the seventh embodiment, different color matrix conversions are performed on captured images, one image after color matrix conversion is recorded, and the other image after color matrix conversion is used for recognition processing. This is an example. The other image after color matrix conversion is used only for recognition processing, and the image file is not recorded. In the seventh embodiment, one color matrix conversion applied to the recorded image is the second color matrix conversion described above, and the other color matrix conversion applied to the image used for the recognition process is the first color. Matrix transformation is used.

図9は、第7の実施形態の撮像装置の概略構成を示す図である。なお、図9の構成において、図1と同様の構成要素には、図1と同じ参照番号を付して、その詳細な説明は省略する。
WB処理部103によりWB処理が行われた画像データは、信号処理部104及び信号処理部905に送られる。信号処理部104と信号処理部905は、前述同様に公知のノイズ抑圧処理、輝度信号処理、色マトリックス変換処理を含む色信号処理等を行い、YUV画像データを出力する。ただし、第7の実施形態の場合、信号処理部104は第2の色マトリックス変換による色信号処理を行い、信号処理部905は第1の色マトリックス変換による色信号処理を行う。信号処理部104による信号処理後の画像データは、前述した第1の実施形態と同様に、撮影されて記録されるYUVの画像データとして出力される。一方、信号処理部905による信号処理後の画像データは、領域判別処理部906に送られる。
FIG. 9 is a diagram illustrating a schematic configuration of an imaging apparatus according to the seventh embodiment. In the configuration of FIG. 9, the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted.
The image data that has been subjected to WB processing by the WB processing unit 103 is sent to the signal processing unit 104 and the signal processing unit 905. Similarly to the above, the signal processing unit 104 and the signal processing unit 905 perform known signal suppression processing, luminance signal processing, color signal processing including color matrix conversion processing, and the like, and output YUV image data. However, in the case of the seventh embodiment, the signal processing unit 104 performs color signal processing by the second color matrix conversion, and the signal processing unit 905 performs color signal processing by the first color matrix conversion. The image data after the signal processing by the signal processing unit 104 is output as YUV image data that is shot and recorded, as in the first embodiment described above. On the other hand, the image data after the signal processing by the signal processing unit 905 is sent to the region discrimination processing unit 906.

第7の実施形態において、領域判別処理部906における処理は、前述した第1の実施形態の図4のフローチャートを用いて説明したものと同等であるため、詳細な説明は省略する。ただし、第7の実施形態の場合、領域判別処理部906は、信号処理部905において第1の色マトリックス変換がなされたYUV画像データからSPの平均値(Ysp,Usp,Vsp)を算出する。そして、領域判別処理部906は、そのSPのYUVの平均値(Ysp,Usp,Vsp)と空領域の基準画素値(Ysk,Usk,Vsk)とを比較することにより、SPが空領域であるか否かを判定する認識処理を行う。ここで、第1の色マトリックス変換がなされた画像は、例えば空の色が元々青色であるため、精度のよい空領域の認識が可能となる。なお、第7の実施形態の場合、第1の色マトリックス変換がなされた画像データは、領域判別処理がなされた後には例えば破棄される。   In the seventh embodiment, the processing in the region determination processing unit 906 is the same as that described with reference to the flowchart of FIG. 4 of the first embodiment described above, and detailed description thereof is omitted. However, in the case of the seventh embodiment, the area determination processing unit 906 calculates the SP average value (Ysp, Usp, Vsp) from the YUV image data that has been subjected to the first color matrix conversion in the signal processing unit 905. The area determination processing unit 906 compares the YUV average value (Ysp, Usp, Vsp) of the SP with the reference pixel values (Ysk, Usk, Vsk) of the empty area, so that the SP is an empty area. Recognition processing is performed to determine whether or not. Here, in the image subjected to the first color matrix conversion, for example, since the sky color is originally blue, it is possible to recognize the sky region with high accuracy. Note that, in the case of the seventh embodiment, the image data that has undergone the first color matrix conversion is discarded, for example, after the region discrimination processing has been performed.

第7の実施形態の場合、領域判別処理部906による認識結果の情報は、制御部107に送られる。制御部107は、領域判別処理部906から送られてきた認識結果の情報を、信号処理部104による第2の色マトリックス変換後の画像データから生成した画像ファイルのヘッダにメタ情報の一つとして配置する。そして、その画像ファイルが記録部106により記録媒体に記録される。第7の実施形態の場合、第2の色マトリックス変換後に記録された画像と、第1の色マトリックス変換後に認識処理された画像とは、元々同じ画像である。このため、第1の色マトリックス変換後の画像から認識された被写体領域は、第2の色マトリックス変換後の画像内の被写体領域と一対一に対応している。これにより、画像撮影時に第2の色マトリックス変換がなされて記録された画像が後に再生等された場合、その画像ファイルのメタ情報に配されている認識結果の情報を基に、特定の被写体領域(空領域)を正しく認識できることになる。   In the case of the seventh embodiment, information on the recognition result by the area discrimination processing unit 906 is sent to the control unit 107. The control unit 107 uses the recognition result information sent from the region discrimination processing unit 906 as meta information in the header of the image file generated from the image data after the second color matrix conversion by the signal processing unit 104. Deploy. Then, the image file is recorded on the recording medium by the recording unit 106. In the case of the seventh embodiment, the image recorded after the second color matrix conversion and the image recognized after the first color matrix conversion are originally the same image. For this reason, the subject area recognized from the image after the first color matrix conversion has a one-to-one correspondence with the subject area in the image after the second color matrix conversion. As a result, when an image recorded after the second color matrix conversion at the time of image capture is reproduced later, the specific subject area is determined based on the information of the recognition result arranged in the meta information of the image file. (Empty area) can be correctly recognized.

上述したように、第7の実施形態においては、撮像画像に第1と第2の色マトリックス変換を行い、第1の色マトリックス変換後の画像について領域判別を行った結果の情報を、第2の色マトリックス変換後の画像ファイルのメタ情報として配置している。したがって、第7の実施形態によれば、撮影時等に色が変更された画像であっても、後に精度のよい領域認識を行うことが可能となる。
なお、第7の実施形態の場合、第1の色マトリックス変換がなされた画像データは、領域判別処理後に破棄されるが、第2の色マトリックス変換された画像ファイルとともに記録しておくようにしてもよい。
As described above, in the seventh embodiment, information obtained as a result of performing the first and second color matrix conversion on the captured image and performing the area determination on the image after the first color matrix conversion is obtained as the second information. This is arranged as meta information of the image file after color matrix conversion. Therefore, according to the seventh embodiment, it is possible to perform accurate region recognition later even for an image whose color has been changed during shooting or the like.
In the case of the seventh embodiment, the image data that has undergone the first color matrix conversion is discarded after the area discrimination processing, but is recorded together with the image file that has undergone the second color matrix conversion. Also good.

<第8の実施形態>
以下、第8の実施形態について説明する。
第8の実施形態では、撮影された画像に対し、それぞれ異なるWB設定値によるWB処理を行うようにし、一方のWB設定値によるWB処理後の画像を記録し、他方のWB設定値によるWB処理後の画像を認識処理に用いるようにする例である。他方のWB設定値によるWB処理後の画像は、認識処理にのみ用い、その画像ファイルの記録は行わないとする。第8の実施形態では、記録される画像に施される一方のWB設定値が前述の調整WBパラメータ、認識処理に用いられる画像に施される他方のWB設定値が基準WBパラメータとなされている。第8の実施形態において、前述した第4の実施形態と同じ処理、構成に関してはその詳細な説明を省略する。
<Eighth Embodiment>
The eighth embodiment will be described below.
In the eighth embodiment, each captured image is subjected to WB processing with different WB setting values, an image after WB processing with one WB setting value is recorded, and WB processing with the other WB setting value is recorded. This is an example in which a later image is used for recognition processing. The image after WB processing using the other WB setting value is used only for recognition processing, and the image file is not recorded. In the eighth embodiment, one WB setting value applied to a recorded image is the aforementioned adjustment WB parameter, and the other WB setting value applied to an image used for recognition processing is a reference WB parameter. . In the eighth embodiment, detailed description of the same processing and configuration as those of the above-described fourth embodiment is omitted.

図10は、第8の実施形態の撮像装置の概略構成を示す図である。なお、図10の構成において、図1や図9と同様の構成要素には、図1や図9と同じ参照番号を付して、その詳細な説明は省略する。
A/D変換部102から出力されたRGBの画像データは、WB処理部103及びWB処理部1005に送られる。WB処理部103とWB処理部1005は前述同様に公知のWB処理を行う。ただし、第8の実施形態の場合、WB処理部103では、前述した第4の実施形態の場合と同様、標準WBパラメータとは異なる調整WBパラメータによるWB処理が行われ、一方、WB処理部1005では、標準WBパラメータによるWB処理が行われる。そして、WB処理部103によるWB処理後の画像データは信号処理部104に送られ、WB処理部1005によるWB処理後の画像データは信号処理部1006に送られる。
FIG. 10 is a diagram illustrating a schematic configuration of an imaging apparatus according to the eighth embodiment. In the configuration of FIG. 10, the same reference numerals as those in FIGS. 1 and 9 are given to the same components as those in FIGS. 1 and 9, and the detailed description thereof will be omitted.
The RGB image data output from the A / D conversion unit 102 is sent to the WB processing unit 103 and the WB processing unit 1005. The WB processing unit 103 and the WB processing unit 1005 perform known WB processing as described above. However, in the case of the eighth embodiment, the WB processing unit 103 performs WB processing using an adjustment WB parameter different from the standard WB parameter as in the case of the above-described fourth embodiment, while the WB processing unit 1005. Then, WB processing is performed using standard WB parameters. The image data after the WB processing by the WB processing unit 103 is sent to the signal processing unit 104, and the image data after the WB processing by the WB processing unit 1005 is sent to the signal processing unit 1006.

信号処理部104と信号処理部1006は、前述同様に公知のノイズ抑圧処理、輝度信号処理、色マトリックス変換処理を含む色信号処理等を行い、YUV画像データを出力する。第8の実施形態の場合、信号処理部104と信号処理部1006では、標準の色マトリックス変換(第1の色マトリックス変換)が行われ、前述のような第2の色マトリックス変換については行われない。そして、信号処理部104による信号処理後の画像データは、前述した第1の実施形態と同様に、撮影されて記録されるYUVの画像データとして出力される。一方、信号処理部1006による信号処理後の画像データは、領域判別処理部1007に送られる。   Similarly to the above, the signal processing unit 104 and the signal processing unit 1006 perform known noise suppression processing, luminance signal processing, color signal processing including color matrix conversion processing, and the like, and output YUV image data. In the case of the eighth embodiment, the signal processing unit 104 and the signal processing unit 1006 perform standard color matrix conversion (first color matrix conversion), and perform the second color matrix conversion as described above. Absent. The image data after the signal processing by the signal processing unit 104 is output as YUV image data that is shot and recorded, as in the first embodiment described above. On the other hand, the image data after the signal processing by the signal processing unit 1006 is sent to the region discrimination processing unit 1007.

第8の実施形態の場合、領域判別処理部1007では、WB処理部1005で標準WBパラメータによるWB処理が行われ、信号処理部1006で標準の色マトリックス変換がなされた後、さらにRGB変換された画像データを用いた領域判別処理が行われる。領域判別処理部1007の処理は、前述の第4の実施形態における領域判別処理と同様であるため詳細な説明は省略する。なお、第8の実施形態において、標準WBパラメータによるWB処理がなされた画像データは、領域判別処理の後には例えば破棄される。   In the case of the eighth embodiment, in the area discrimination processing unit 1007, the WB processing unit 1005 performs WB processing using standard WB parameters, and after the standard color matrix conversion is performed by the signal processing unit 1006, RGB conversion is further performed. Area discrimination processing using image data is performed. Since the processing of the region determination processing unit 1007 is the same as the region determination processing in the above-described fourth embodiment, detailed description thereof is omitted. In the eighth embodiment, the image data that has been subjected to the WB process using the standard WB parameter is discarded after the area determination process, for example.

第8の実施形態の場合、領域判別処理部1007による認識結果の情報は、制御部107に送られる。制御部107は、標準WBパラメータとは異なるWB処理が行われ、さらに標準の色マトリックス変換がなされ画像データから生成した画像ファイルに対し、領域判別処理部1007から送られてきた認識結果の情報を、メタ情報として付加する。そして、その画像ファイルが記録部106により記録媒体に記録される。第8の実施形態の場合、調整WBパラメータによる処理後に記録された画像と、標準WBパラメータによる処理後に認識処理された画像とは、元々同じ画像である。このため、標準WBパラメータによる処理後の画像から認識された被写体領域は、調整WBパラメータによる処理後の画像内の被写体領域と一対一に対応している。これにより、画像撮影時に標準WBパラメータとは異なるWB設定値によるWB処理がなされた画像が後に再生等された場合、その画像ファイルのメタ情報に配されている認識結果の情報を基に、特定の被写体領域(空領域)を正しく認識できることになる。   In the case of the eighth embodiment, information on the recognition result by the region discrimination processing unit 1007 is sent to the control unit 107. The control unit 107 performs the WB process different from the standard WB parameter, further performs the standard color matrix conversion, and outputs the recognition result information sent from the area determination processing unit 1007 to the image file generated from the image data. And added as meta information. Then, the image file is recorded on the recording medium by the recording unit 106. In the case of the eighth embodiment, the image recorded after the process using the adjustment WB parameter and the image recognized after the process using the standard WB parameter are originally the same image. For this reason, the subject area recognized from the image processed by the standard WB parameter has a one-to-one correspondence with the subject area in the image processed by the adjustment WB parameter. As a result, when an image that has been subjected to WB processing with a WB setting value different from the standard WB parameter at the time of image capture is played back later, the identification is performed based on the recognition result information arranged in the meta information of the image file. Thus, the subject area (empty area) can be correctly recognized.

上述したように、第8の実施形態においては、撮像画像に対し、標準WBパラメータによるWB処理及び標準の色マトリックス変換と、標準WBパラメータとは異なるWB設定値によるWB処理及び標準の色マトリックス変換とが行われる。そして、標準WBパラメータによるWB処理に係る画像を用いた領域判別結果の情報を、標準WBパラメータとは異なるWB設定値によるWB処理に係る画像ファイルのメタ情報として配置している。したがって、第8の実施形態によれば、撮影時等にWB設定値が変更されて色温度設定が大きく変わっている画像であっても、精度のよい領域認識を行うことが可能となる。
なお、第8の実施形態の場合、標準WBパラメータによるWB処理に係る画像データは、領域判別処理後に破棄されるが、標準WBパラメータとは異なるWB処理に係る画像ファイルとともに記録しておくようにしてもよい。
As described above, in the eighth embodiment, for a captured image, WB processing and standard color matrix conversion using standard WB parameters, and WB processing and standard color matrix conversion using WB setting values different from the standard WB parameters. And done. Then, the information of the region discrimination result using the image related to the WB process by the standard WB parameter is arranged as meta information of the image file related to the WB process by the WB setting value different from the standard WB parameter. Therefore, according to the eighth embodiment, it is possible to perform accurate region recognition even for an image in which the WB setting value is changed at the time of shooting or the like and the color temperature setting is greatly changed.
In the case of the eighth embodiment, the image data related to the WB process using the standard WB parameter is discarded after the area determination process, but is recorded together with the image file related to the WB process different from the standard WB parameter. May be.

<第9の実施形態>
前述した第1〜第8の実施形態では、画質調整処理として、色マトリックス変換とWB処理の何れか一方のみが、それぞれ標準の色マトリックス変換や標準のWB処理とは異なっている例について説明した。第9の実施形態では、画質調整処理として、色マトリックス変換とWB処理の両方とも、それぞれ標準の色マトリックス変換と標準のWB処理とは異なっている例を挙げる。
<Ninth Embodiment>
In the first to eighth embodiments described above, examples in which only one of color matrix conversion and WB processing is different from standard color matrix conversion and standard WB processing as image quality adjustment processing have been described. . In the ninth embodiment, as an image quality adjustment process, an example is given in which both the color matrix conversion and the WB process are different from the standard color matrix conversion and the standard WB process, respectively.

すなわち第9の実施形態では、前述した第1〜第3、第7の実施形態で説明した何れかの処理と、前述した第4〜第6、第8の実施形態で説明した何れかの処理とを適宜組み合わせた画質調整処理が行われる。例えば、色マトリックス変換とWB処理の両方とも領域の認識精度の低下が予測される処理ではない場合、第1、第3、第7の実施形態の何れかの構成及及び処理と、第4、第6、第8の実施形態の何れかの構成及び処理とを組み合わせて行うようにする。また例えば、色マトリックス変換において領域の認識精度の低下が予測される場合には、第2の実施形態で説明した構成及び処理と、第4、第6、第8の実施形態の何れかの構成及び処理とを組み合わせて行うようにする。一方、WB処理において領域の認識精度の低下が予測される場合には、第1、第3、第7の実施形態の何れかの構成及及び処理と、第5の実施形態の構成及び処理とを組み合わせ行うようにする。これにより、第9の実施形態によれば、色マトリックス変換とWB処理の両方の画質調整処理が行われた場合でも、精度のよい領域認識が可能となる。   That is, in the ninth embodiment, any of the processes described in the first to third and seventh embodiments described above and any of the processes described in the fourth to sixth and eighth embodiments described above. Is adjusted as appropriate. For example, if neither the color matrix conversion nor the WB process is a process in which a decrease in recognition accuracy of the region is predicted, the configuration and process of any of the first, third, and seventh embodiments, The configuration and processing of any of the sixth and eighth embodiments are performed in combination. In addition, for example, when a decrease in recognition accuracy of a region is predicted in color matrix conversion, the configuration and processing described in the second embodiment and the configuration of any of the fourth, sixth, and eighth embodiments And processing is performed in combination. On the other hand, when a decrease in the recognition accuracy of the region is predicted in the WB processing, the configuration and processing of any of the first, third, and seventh embodiments, and the configuration and processing of the fifth embodiment To do a combination. Thus, according to the ninth embodiment, accurate region recognition is possible even when image quality adjustment processing of both color matrix conversion and WB processing is performed.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101:撮像部、103,1005:WB処理部、104,905,1006:信号処理部、107:制御部、106:記録部、109:RAM、110:ROM、112,906,1007:領域判別処理部   101: imaging unit, 103, 1005: WB processing unit, 104, 905, 1006: signal processing unit, 107: control unit, 106: recording unit, 109: RAM, 110: ROM, 112, 906, 1007: area discrimination processing Part

Claims (13)

画像に付加されているメタ情報から、前記画像に対して施された調整に関する情報を取得する取得手段と、
画像の特徴情報を基に被写体領域を判別する判別手段と、
前記調整が施された画像に対して前記被写体領域の判別が行われる場合には、前記取得した前記調整に関する情報を基に、前記調整が施された画像の特徴情報とは異なる特徴情報に近づけるように、前記調整が施された画像に対する処理を行う処理手段と、
を有することを特徴とする画像処理装置。
Acquisition means for acquiring information on adjustments made to the image from meta information added to the image;
Discriminating means for discriminating a subject area based on feature information of an image;
When the subject area is determined for the image that has been subjected to the adjustment, based on the acquired information relating to the adjustment, the feature information is brought closer to feature information that is different from the feature information of the image that has been subjected to the adjustment. Processing means for performing processing on the image subjected to the adjustment,
An image processing apparatus comprising:
画像に付加されているメタ情報から、前記画像に対して施された調整に関する情報を取得する取得手段と、
画像の特徴情報を基に被写体領域を判別する判別手段と、
前記調整が施された画像に対して前記被写体領域の判別が行われる場合には、前記取得した前記調整に関する情報を基に、画像から前記被写体領域を判別する際に設定される前記特徴情報の目標値を、前記調整が施された前記画像の特徴情報に近い目標値に設定する設定手段と、
を有することを特徴とする画像処理装置。
Acquisition means for acquiring information on adjustments made to the image from meta information added to the image;
Discriminating means for discriminating a subject area based on feature information of an image;
In the case where the subject area is determined for the image subjected to the adjustment, the feature information set when the subject area is determined from the image based on the acquired information on the adjustment. Setting means for setting a target value to a target value close to the characteristic information of the image subjected to the adjustment;
An image processing apparatus comprising:
標準の設定値を用いて、画像の特徴情報を調整する第1の処理手段と、
前記標準の設定値とは異なる設定値を用いて、前記画像の特徴情報を調整する第2の処理手段と、
前記標準の設定値による調整が施された画像の特徴情報を基に被写体領域を判別する判別手段と、
前記標準の設定値とは異なる設定値による調整が施された画像に対して、前記判別された被写体領域を示す情報をメタ情報として付加する制御手段と、
を有することを特徴とする画像処理装置。
First processing means for adjusting feature information of an image using a standard set value;
Second processing means for adjusting feature information of the image using a setting value different from the standard setting value;
A discriminating means for discriminating a subject area based on feature information of an image adjusted by the standard setting value;
Control means for adding, as meta information, information indicating the determined subject area to an image that has been adjusted with a setting value different from the standard setting value;
An image processing apparatus comprising:
前記画像に施される前記調整は、前記画像の少なくとも色を、調整する処理であり、
前記判別に用いられる前記特徴情報は、前記画像の少なくとも色の情報であることを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
The adjustment applied to the image is a process of adjusting at least the color of the image;
The image processing apparatus according to claim 1, wherein the feature information used for the determination is at least color information of the image.
前記色を調整する処理は、色マトリックス変換により色を調整する処理と、ホワイトバランスを調整する処理との、少なくとも一つの処理を含むことを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the color adjusting process includes at least one of a process for adjusting a color by color matrix conversion and a process for adjusting a white balance. 前記色マトリックス変換により色を調整する処理は、初期設定された色マトリックス変換の係数値とは異なる係数値による色マトリックス変換を行う処理であり、
前記ホワイトバランスを調整する処理は、オートホワイトバランスによるホワイトバランス設定値とは異なるホワイトバランス設定値によりホワイトバランスを調整する処理であることを特徴とする請求項5に記載の画像処理装置。
The process of adjusting the color by the color matrix conversion is a process of performing color matrix conversion with a coefficient value different from the coefficient coefficient of the initially set color matrix conversion,
The image processing apparatus according to claim 5, wherein the process of adjusting the white balance is a process of adjusting a white balance by a white balance setting value different from a white balance setting value by auto white balance.
前記判別手段は、前記画像の特徴情報が近い領域をグルーピングし、前記グルーピングした領域を前記被写体領域として判別することを特徴とする請求項1から6の何れか1項に記載の画像処理装置。   7. The image processing apparatus according to claim 1, wherein the determination unit groups areas where the feature information of the image is close, and determines the grouped area as the subject area. 前記判別手段は、前記画像に対して施される前記調整として、前記被写体領域の特徴情報と、前記被写体領域とは異なる領域の特徴情報とがほぼ一致する調整がなされている場合には、前記判別を中止することを特徴とする請求項1から7の何れか1項に記載の画像処理装置。   The determination means, as the adjustment to be performed on the image, when the adjustment is made so that the feature information of the subject area and the feature information of the area different from the subject area are substantially the same. 8. The image processing apparatus according to claim 1, wherein the determination is stopped. 前記調整は、撮像された画像に対して施されることを特徴とする請求項1から8の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the adjustment is performed on a captured image. 画像に付加されているメタ情報から、前記画像に対して施された調整に関する情報を取得する取得工程と、
前記調整が施された画像に対して被写体領域の判別が行われる場合、前記取得した前記調整に関する情報を基に、前記調整が施された画像の特徴情報とは異なる特徴情報に近づけるように、前記調整が施された画像に対する処理を行う処理工程と、
前記調整が施された画像に対して前記処理がなされた後の画像の特徴情報を基に、被写体領域を判別する判別工程と、
を有することを特徴とする画像処理装置の画像処理方法。
An acquisition step of acquiring information related to adjustments made to the image from meta information added to the image;
When the subject region is determined for the image subjected to the adjustment, based on the acquired information related to the adjustment, the feature information is different from the feature information of the image subjected to the adjustment. A processing step for performing processing on the image subjected to the adjustment;
A discriminating step for discriminating a subject area based on feature information of the image after the processing is performed on the image subjected to the adjustment;
An image processing method for an image processing apparatus, comprising:
画像に付加されているメタ情報から、前記画像に対して施された調整に関する情報を取得する取得工程と、
前記調整が施された画像に対して被写体領域の判別が行われる場合、前記取得した前記調整に関する情報を基に、画像から前記被写体領域を判別する際に設定される前記画像の特徴情報に対する目標値を、前記調整が施された前記画像の特徴情報に近い目標値に設定する設定工程と、
前記設定された目標値を用いて、前記調整が施された画像から前記被写体領域を判別する判別工程と、
を有することを特徴とする画像処理装置の画像処理方法。
An acquisition step of acquiring information related to adjustments made to the image from meta information added to the image;
When the subject area is determined for the image subjected to the adjustment, the target for the image feature information set when the subject area is determined from the image based on the acquired information on the adjustment. A setting step of setting a value to a target value close to the feature information of the image subjected to the adjustment;
A determination step of determining the subject area from the adjusted image using the set target value;
An image processing method for an image processing apparatus, comprising:
標準の設定値を用いて、画像の特徴情報を調整する第1の処理工程と、
前記標準の設定値とは異なる設定値を用いて、前記画像の特徴情報を調整する第2の処理工程と、
前記標準の設定値による調整が施された画像の特徴情報を基に被写体領域を判別する判別工程と、
前記標準の設定値とは異なる設定値による調整が施された画像に対して、前記判別された被写体領域を示す情報をメタ情報として付加する制御工程と、
を有することを特徴とする画像処理装置の画像処理方法。
A first processing step of adjusting image feature information using standard set values;
A second processing step of adjusting the feature information of the image using a setting value different from the standard setting value;
A discriminating step for discriminating a subject area based on feature information of an image that has been adjusted by the standard setting value;
A control step of adding information indicating the determined subject area as meta information to an image that has been adjusted with a setting value different from the standard setting value;
An image processing method for an image processing apparatus, comprising:
コンピュータを、請求項1から9の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 9.
JP2017098447A 2017-05-17 2017-05-17 Image processing equipment, image processing methods, and programs Active JP6946049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017098447A JP6946049B2 (en) 2017-05-17 2017-05-17 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098447A JP6946049B2 (en) 2017-05-17 2017-05-17 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2018195989A true JP2018195989A (en) 2018-12-06
JP6946049B2 JP6946049B2 (en) 2021-10-06

Family

ID=64571857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098447A Active JP6946049B2 (en) 2017-05-17 2017-05-17 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6946049B2 (en)

Also Published As

Publication number Publication date
JP6946049B2 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
KR101441786B1 (en) Subject determination apparatus, subject determination method and recording medium storing program thereof
CN111698434A (en) Image processing apparatus, control method thereof, and computer-readable storage medium
CN107395991B (en) Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment
JP6006543B2 (en) Image processing apparatus and image processing method
JP2006352795A (en) Imaging apparatus and image processing method
JP2020166628A (en) Image processing method, image processing device, program, image processing system, and learned model manufacturing method
CN109922325B (en) Image processing apparatus, control method thereof, and computer-readable storage medium
JP2020144488A (en) Image processing method, image processing device, program, image processing system, and method of producing trained model
CN107959841B (en) Image processing method, image processing apparatus, storage medium, and electronic device
CN113691795A (en) Image processing apparatus, image processing method, and storage medium
CN112261292A (en) Image acquisition method, terminal, chip and storage medium
CN110365897B (en) Image correction method and device, electronic equipment and computer readable storage medium
JP2006295582A (en) Image processor, imaging apparatus, and image processing program
US8743236B2 (en) Image processing method, image processing apparatus, and imaging apparatus
KR102389284B1 (en) Method and device for image inpainting based on artificial intelligence
JP6946049B2 (en) Image processing equipment, image processing methods, and programs
CN109447925B (en) Image processing method and device, storage medium and electronic equipment
JP4335727B2 (en) Digital camera for face extraction
KR101722969B1 (en) Apparatus for detecting moving object and method for controlling the same
JP2009239772A (en) Imaging device, image processing device, image processing method, and program
JP5106311B2 (en) White balance control device, imaging device using the same, and white balance control method
JP7286328B2 (en) Image processing device, image processing method and program
JP7485356B2 (en) Crack detection method, crack detection device and program
JP2015142281A (en) Subject searching device, control method and control program of the same, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210915

R151 Written notification of patent or utility model registration

Ref document number: 6946049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151