JP2014022826A - Image processing apparatus, imaging apparatus, and image processing program - Google Patents

Image processing apparatus, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP2014022826A
JP2014022826A JP2012157585A JP2012157585A JP2014022826A JP 2014022826 A JP2014022826 A JP 2014022826A JP 2012157585 A JP2012157585 A JP 2012157585A JP 2012157585 A JP2012157585 A JP 2012157585A JP 2014022826 A JP2014022826 A JP 2014022826A
Authority
JP
Japan
Prior art keywords
image
saliency
area
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012157585A
Other languages
Japanese (ja)
Inventor
Keiichi Nitta
啓一 新田
Koichi Sakamoto
浩一 坂本
Yuko Nakata
佑子 中田
Kazue Minagawa
一惠 皆川
Kotaro Ueda
香太郎 植田
ryuichi Omiya
龍一 大宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012157585A priority Critical patent/JP2014022826A/en
Publication of JP2014022826A publication Critical patent/JP2014022826A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To obtain an image in which a main subject is in a satisfactory state.SOLUTION: An image processing apparatus comprises: area detection means for extracting a first area included in an inputted image; map generation means for generating a saliency map for representing the distribution of saliency based on plural feature elements using the inputted image; and image correction means for, on the basis of the first area extracted by the area detection means and the saliency map generated by the map generation means, correcting the image for at least one of the first area and a second area that is the area other than the first area.

Description

本発明は、画像処理装置、撮像装置及び画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program.

顔検出処理や顔認識処理の結果を利用して、AF処理やAE処理を実行する撮像装置が種々提案されている。これら処理を搭載した撮像装置においては、装置自体の処理能力や処理時間の制約を受けることで、顔検出処理や顔認識処理に時間がかかり、ユーザの意図するシャッタタイミングを逸するという不具合が生じることがある。このような不具合の発生を抑制するために、例えば人間の視覚を模した特徴抽出の結果をマップ化した顕著性マップを用いることが提案されている(特許文献1参照)。この顕著性マップを用いることで、上述した顔検出処理や顔認識処理を行わなくとも、画像内で人間の目に付きやすい顕著な領域を被写体として抽出することが可能となる。   Various imaging apparatuses that perform AF processing and AE processing using the results of face detection processing and face recognition processing have been proposed. In an imaging apparatus equipped with these processes, the face detection process and face recognition process take time due to restrictions on the processing capability and processing time of the apparatus itself, and a problem occurs that the shutter timing intended by the user is lost. Sometimes. In order to suppress the occurrence of such a problem, for example, it has been proposed to use a saliency map that maps the result of feature extraction simulating human vision (see Patent Document 1). By using this saliency map, it is possible to extract a prominent region that is easily visible to human eyes in an image as a subject without performing the face detection process or face recognition process described above.

特開2011−34311号公報JP 2011-34311 A

この特許文献1においては、主要被写体や撮影対象における顕著性の度合い(顕著度)が高い値を示すことを前提にしている。しかしながら、画像を取得する際の撮影環境を考慮すると、撮影により得られる画像において主要被写体や撮影対象における顕著度が低くなる場合もあり、主要被写体が良好な状態となる画像が常に得られるとは言い難い。   In Patent Document 1, it is assumed that the degree of saliency (saliency) in a main subject and a subject to be photographed shows a high value. However, in consideration of the shooting environment when acquiring the image, the image obtained by shooting may have a lower saliency in the main subject or shooting target, and an image in which the main subject is in good condition is always obtained. It's hard to say.

本発明は、主要被写体が良好な状態となる画像を取得することができるようにした画像処理装置、撮像装置及び画像処理プログラムを提供することを目的とする。   An object of the present invention is to provide an image processing apparatus, an imaging apparatus, and an image processing program that can acquire an image in which a main subject is in a good state.

上述した課題を解決するために、本発明の画像処理装置は、入力画像に含まれる第1領域を抽出する領域検出手段と、前記入力画像を用いて、複数の特徴要素に基づく顕著度の分布を示す顕著性マップを生成するマップ生成手段と、前記領域検出手段により抽出された前記第1領域、及び前記マップ生成手段により生成された前記顕著性マップに基づいて、前記第1領域又は該第1領域を除く第2領域の少なくとも一方に対して画像補正を行う画像補正手段と、を備えたことを特徴とする。   In order to solve the above-described problem, an image processing apparatus according to the present invention uses a region detection unit that extracts a first region included in an input image and a distribution of saliency based on a plurality of feature elements using the input image. Based on the map generation means for generating the saliency map, the first area extracted by the area detection means, and the saliency map generated by the map generation means. Image correction means for performing image correction on at least one of the second areas excluding the first area.

また、前記画像補正手段は、前記第1領域の顕著度が前記第2領域の顕著度より低くなる場合に前記第1領域に対して画像補正を施し、前記第1領域の顕著度を前記第2領域の顕著度より高くするものである。   Further, the image correction unit performs image correction on the first area when the saliency of the first area is lower than the saliency of the second area, and sets the saliency of the first area to the first area. This is higher than the saliency of the two regions.

この場合、前記画像補正手段は、前記複数の特徴要素のうち、前記第2領域における顕著度が最も低い特徴要素に対する画像補正を前記第1領域に対して施すことが好ましい。また、この他に、前記画像補正手段は、前記複数の特徴要素のうち、前記第1領域における顕著度が最も低い特徴要素に対する画像補正を前記第1領域に対して施すことが好ましい。   In this case, it is preferable that the image correction unit performs image correction on the first region with respect to the feature element having the lowest saliency in the second region among the plurality of feature elements. In addition to this, it is preferable that the image correction unit performs image correction on a feature element having the lowest saliency in the first region among the plurality of feature elements.

また、前記画像補正手段は、前記第2領域の顕著度が前記第1領域の顕著度より高くなる場合に前記第2領域に対して画像補正を施し、前記第2領域の顕著度を前記第1領域の顕著度より低くするものである。   Further, the image correction means performs image correction on the second area when the saliency of the second area is higher than the saliency of the first area, and sets the saliency of the second area to the first level. This is lower than the saliency of one region.

この場合、前記画像補正手段は、前記複数の特徴要素のうち、前記第2領域における顕著度が最も高い特徴要素に対する画像補正を前記第2領域に対して施すことが好ましい。   In this case, it is preferable that the image correction unit performs image correction on the second region with respect to the feature element having the highest saliency in the second region among the plurality of feature elements.

また、前記第2領域は、前記第1領域から所定範囲内の領域であることが好ましい。また、前記第2領域は、前記第1領域の顕著度よりも高い顕著度となる領域であることが好ましい。   The second region is preferably a region within a predetermined range from the first region. The second region is preferably a region having a higher saliency than the saliency of the first region.

また、前記第1領域は、前記画像に含まれる主要被写体の領域であり、
前記領域検出手段は、前記画像を取得した際に焦点調節を行う際に用いた領域に基づいて、前記主要被写体の領域を前記第1領域として抽出するものである。
The first area is an area of a main subject included in the image,
The area detecting unit extracts the area of the main subject as the first area based on an area used when focus adjustment is performed when the image is acquired.

また、前記画像補正手段により画像補正された画像を表示する表示手段を備えているものである。   In addition, display means for displaying the image corrected by the image correction means is provided.

また、前記マップ生成手段により生成された前記顕著性マップと、前記画像補正手段により画像補正された画像とを関連付けて記憶する記憶手段を、さらに備えているものである。   The image processing apparatus further includes storage means for storing the saliency map generated by the map generation means and the image corrected by the image correction means in association with each other.

また、前記複数の特徴要素のそれぞれに対して、前記画像補正手段における画像補正に対する優先順位を設定する設定手段を備え、前記画像補正手段は、前記複数の特徴要素のうち、前記設定手段により設定された優先順位が高く設定された特徴要素から順に、前記画像補正を実行するものである。   In addition, a setting unit that sets a priority order for image correction in the image correction unit is set for each of the plurality of feature elements, and the image correction unit is set by the setting unit among the plurality of feature elements. The image correction is executed in order from the feature elements set with a high priority.

また、前記画像のシーンを判断する判断手段を備え、前記領域検出手段は、前記判断手段により前記画像から複数の人物の集合写真のシーンであると判定されたときに、複数の人物の領域を前記第1領域として、それぞれ検出し、前記画像補正手段は、前記第1領域毎の顕著度が所定範囲内に含まれるように、前記複数の人物の領域のそれぞれに対して画像補正を施すものである。   A determination unit configured to determine a scene of the image; and when the determination unit determines that the scene is a group photo of a plurality of persons from the image, The first area is detected, and the image correction unit performs image correction on each of the plurality of person areas so that the saliency of each first area is included in a predetermined range. It is.

この場合、前記領域検出手段は、前記複数の人物の領域の他に、該複数の人物を除く人物の領域を検出し、前記画像補正手段は、前記複数の人物の領域の顕著度が前記複数の人物を除く人物の領域の顕著度よりも高くなるように、前記複数の人物の領域、又は前記複数の人物を除く人物の領域に対する画像補正を施すことが好ましい。   In this case, the area detection unit detects a person area excluding the plurality of persons in addition to the plurality of person areas, and the image correction unit determines that the saliency of the plurality of person areas is the plurality of person areas. It is preferable to perform image correction on the plurality of person areas or the person areas excluding the plurality of persons so as to be higher than the saliency of the person area excluding the person.

また、前記領域検出手段は、前記画像に含まれる複数の人物の領域を検出することが可能であり、前記画像補正手段は、前記複数の人物の領域のうち、主要被写体となる人物の領域における顕著度が、他の人物の領域における顕著度よりも高くなるように、前記主要被写体となる人物の領域、又は前記他の人物の領域のいずれか一方に対して画像補正を施すものである。   In addition, the area detection unit can detect a plurality of person areas included in the image, and the image correction unit can detect a person area that is a main subject among the plurality of person areas. Image correction is performed on one of the area of the person as the main subject and the area of the other person so that the degree of saliency is higher than the degree of saliency in the area of the other person.

また、本発明の撮像装置は、上述した画像処理装置と、前記入力画像を取得する撮像素子と、を備えたことを特徴とする。   According to another aspect of the present invention, there is provided an imaging apparatus including the above-described image processing apparatus and an imaging element that acquires the input image.

また、本発明の画像処理プログラムは、入力画像に含まれる第1領域を抽出する領域検出工程と、前記入力画像を用いて、複数の特徴要素に基づく顕著度の分布を示す顕著性マップを生成するマップ生成工程と、前記領域検出工程により抽出された前記第1領域、及び前記マップ生成工程により生成された前記顕著性マップに基づいて、前記第1領域又は該第1領域を除く第2領域の少なくとも一方に対して画像補正を行う画像補正工程と、
をコンピュータに実行させることが可能なものである。
In addition, the image processing program of the present invention generates a saliency map indicating a distribution of saliency based on a plurality of feature elements by using a region detection step of extracting a first region included in an input image and the input image. A first region extracted from the map generation step, the first region extracted by the region detection step, and the second region excluding the first region based on the saliency map generated by the map generation step An image correction step of performing image correction on at least one of
Can be executed by a computer.

本発明によれば、主要被写体が良好な状態となる画像を取得することができる。   According to the present invention, it is possible to acquire an image in which the main subject is in a good state.

本発明を用いた撮像装置の一例を示す機能ブロック図である。It is a functional block diagram showing an example of an imaging device using the present invention. データ処理回路の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of a data processing circuit. マップ生成部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of a map production | generation part. 撮像時における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process at the time of imaging. (A)は、撮影面におけるAFエリアの配置状態を示す図、(B)は、灯台を背景にして人物を撮像するときに用いられるAFエリアを示す図、(C)は、人物の顔の領域と顕著度の比較する上で対象となる灯台の領域とが近接する場合を示す図である。(A) is a diagram showing the arrangement state of the AF area on the photographing surface, (B) is a diagram showing the AF area used when imaging a person against the background of the lighthouse, and (C) is a diagram of the face of the person It is a figure which shows the case where the area | region and the area | region of the lighthouse used as object when comparing an saliency degree adjoin. 人物の顔の領域と顕著度の比較する上で対象となる灯台の領域とが離れた位置にある場合を示す図である。It is a figure which shows the case where the area | region of a person's face and the area | region of the lighthouse used as object when comparing a saliency are in the position away. 集合写真の一例を示す図である。It is a figure which shows an example of a group photograph.

以下、本発明の実施の形態について説明する。図1は、本実施形態の撮像装置の一例を示す機能ブロック図である。撮像装置10は、撮像レンズ15、撮像素子16、操作部材17、レンズ駆動回路18、測光回路19、CPU20、撮像素子駆動回路21、信号処理回路22、データ処理回路23、液晶モニタ24、圧縮伸長処理回路25、表示出力回路26、記憶媒体27を備えている。   Embodiments of the present invention will be described below. FIG. 1 is a functional block diagram illustrating an example of an imaging apparatus according to the present embodiment. The imaging device 10 includes an imaging lens 15, an imaging device 16, an operation member 17, a lens driving circuit 18, a photometric circuit 19, a CPU 20, an imaging device driving circuit 21, a signal processing circuit 22, a data processing circuit 23, a liquid crystal monitor 24, and a compression / expansion. A processing circuit 25, a display output circuit 26, and a storage medium 27 are provided.

不図示の被写体の像は、撮像レンズ15によって、撮像素子16の撮像面上に結像される。撮像レンズ15は、複数枚のレンズで構成され、操作部材17の操作などに基づいて、レンズ駆動回路18を介して、フォーカス、ズームなどの調整が可能な構成とされている。   A subject image (not shown) is formed on the image pickup surface of the image pickup device 16 by the image pickup lens 15. The imaging lens 15 is composed of a plurality of lenses, and is configured such that adjustments such as focus and zoom can be performed via the lens driving circuit 18 based on the operation of the operation member 17 or the like.

撮像素子16は、静止画像の単写撮像とともに、静止画像の連続撮像、及び動画像の撮像が可能な撮像素子であり、例えばCCDイメージセンサ、又はCMOSイメージセンサから構成される。この撮像素子16は、測光回路19で得られた被写体の測光データに基づいて、CPU20の制御のもとで、撮像素子駆動回路21によって駆動される。撮像素子16により読み出された画像信号は、信号処理回路22に入力される。   The image sensor 16 is an image sensor that can capture a still image as well as continuously capture a still image and a moving image, and is composed of, for example, a CCD image sensor or a CMOS image sensor. The image pickup device 16 is driven by the image pickup device drive circuit 21 under the control of the CPU 20 based on the subject photometry data obtained by the photometry circuit 19. The image signal read by the image sensor 16 is input to the signal processing circuit 22.

信号処理回路22は、撮像素子16により読み出された画像信号に対して、直流再生処理、A/D変換処理、ホワイトバランス処理、γ変換処理などの信号処理を施し、画像データとしてデータ処理回路23に出力する。   The signal processing circuit 22 performs signal processing such as direct current reproduction processing, A / D conversion processing, white balance processing, and γ conversion processing on the image signal read out by the image pickup device 16 to obtain data processing circuit as image data. To 23.

データ処理回路23は、入力された画像データに対して、必要に応じて、液晶モニタ24に表示を行うための解像度(画素数)変換処理を施して、表示出力回路26に出力するとともに、前記画像データを圧縮伸長処理回路25に出力する。表示出力回路26は、データ処理回路23から入力された画像データに所定の信号処理をほどこして、液晶モニタ24に出力する。なお、表示出力回路26は、さらに、CPU20の制御に基づいて、必要に応じて、データ処理回路23から出力された画像データに、撮影メニュー、カーソルなどのオーバーレイ画像データを重畳する処理を行う。これにより、液晶モニタ24には、被写体画像にオーバーレイ画像が重畳されて表示される。   The data processing circuit 23 performs a resolution (number of pixels) conversion process for displaying the input image data on the liquid crystal monitor 24 as necessary, and outputs the converted image data to the display output circuit 26. The image data is output to the compression / decompression processing circuit 25. The display output circuit 26 performs predetermined signal processing on the image data input from the data processing circuit 23 and outputs the processed image data to the liquid crystal monitor 24. The display output circuit 26 further performs a process of superimposing overlay image data such as a shooting menu and a cursor on the image data output from the data processing circuit 23 as necessary under the control of the CPU 20. Thus, the overlay image is superimposed on the subject image and displayed on the liquid crystal monitor 24.

圧縮伸長処理回路25は、入力された画像データに対して圧縮処理を施し、記憶媒体27に記憶する。液晶モニタ24は、記憶媒体27に圧縮して記憶された画像データに対応する画像を表示する。   The compression / decompression processing circuit 25 performs compression processing on the input image data and stores it in the storage medium 27. The liquid crystal monitor 24 displays an image corresponding to the image data compressed and stored in the storage medium 27.

なお、液晶モニタ24は、記憶媒体27に記憶されている画像データに対応する画像を再生画像として表示することもできる。CPU20は、記憶媒体27に記憶された画像データを読み出して、圧縮伸長処理回路25で復号化処理を施し、データ処理回路23および表示出力回路26を介して、液晶モニタ24に供給する。   The liquid crystal monitor 24 can also display an image corresponding to the image data stored in the storage medium 27 as a reproduced image. The CPU 20 reads out the image data stored in the storage medium 27, performs a decoding process by the compression / decompression processing circuit 25, and supplies it to the liquid crystal monitor 24 via the data processing circuit 23 and the display output circuit 26.

CPU20は、操作部材17の一部を構成するレリーズボタンの操作に基づいて、撮像画面上に設定された領域(AFエリア)の画像データを抽出し、該領域のコントラスト値(もしくは、該領域の高空間周波数成分量)を算出し、算出結果をもとに、撮像素子16の撮像面上における被写体像のフォーカス状態を調整する、いわゆるコントラストAF動作を行う。   The CPU 20 extracts image data of an area (AF area) set on the imaging screen based on an operation of a release button that constitutes a part of the operation member 17, and the contrast value of the area (or the area) A high spatial frequency component amount) is calculated, and a so-called contrast AF operation for adjusting the focus state of the subject image on the imaging surface of the image sensor 16 is performed based on the calculation result.

また、CPU20は、撮像レンズ15を駆動し、順次得られる画像信号を画像内の被写体毎に解析し、領域内のコントラスト値が最大となった際のレンズ位置をもとに、被写体毎の撮影距離情報を取得する。   In addition, the CPU 20 drives the imaging lens 15 and analyzes sequentially obtained image signals for each subject in the image, and shoots for each subject based on the lens position when the contrast value in the region becomes maximum. Get distance information.

なお、自動合焦動作として、コントラストAF動作を例に挙げているが、これに限定される必要はなく、周知の瞳分割方式の位相差AF動作を用いることも可能である。この場合にも、自動合焦点動作によって、各領域の撮影距離情報を得ることができる。   Although the contrast AF operation is exemplified as the automatic focusing operation, the present invention is not limited to this, and a well-known pupil division type phase difference AF operation can also be used. Also in this case, the shooting distance information of each region can be obtained by the automatic focusing operation.

CPU20は、操作部材17の一部を構成するズーム操作部材の操作に基づいて、レンズ駆動回路18を介して撮像レンズ15を駆動し、撮像素子16の撮像面上に結像される被写体像を拡大、又は縮小する、光学的なズーム動作を実行する。さらに、CPU20は、操作部材17の一部を構成するズーム操作部材の操作に基づいて、撮像素子16により得られる画像データ、又は記憶媒体27に記憶される画像データを、データ処理回路23による解像度(画素数)変換処理によって拡大または縮小する電気的なズーム動作を制御する。   The CPU 20 drives the imaging lens 15 via the lens driving circuit 18 based on the operation of the zoom operation member that constitutes a part of the operation member 17, and displays the subject image formed on the imaging surface of the image sensor 16. Perform an optical zoom operation to enlarge or reduce. Further, the CPU 20 converts the image data obtained by the imaging device 16 or the image data stored in the storage medium 27 based on the operation of the zoom operation member constituting a part of the operation member 17 into the resolution by the data processing circuit 23. (Number of pixels) An electric zoom operation for enlarging or reducing by the conversion process is controlled.

次に、データ処理回路23の構成について説明する。図2に示すように、データ処理回路23は、マップ生成部31、被写体抽出部32及び画像補正部33を有している。上述したように、データ処理回路23には、信号処理回路22により信号処理が施された画像データが入力される。   Next, the configuration of the data processing circuit 23 will be described. As illustrated in FIG. 2, the data processing circuit 23 includes a map generation unit 31, a subject extraction unit 32, and an image correction unit 33. As described above, image data that has been subjected to signal processing by the signal processing circuit 22 is input to the data processing circuit 23.

マップ生成部31は、入力される画像データに基づいて、輝度情報、色情報、エッジ情報などの特徴量を情報毎にまとめた特徴量マップを生成する。そして、マップ生成部31は、生成された各情報の特徴量マップを用いて顕著性マップを生成する。なお、顕著性マップの生成時に用いる各情報は、上述した輝度情報、色情報、エッジ情報に限定されず、撮影画像中の被写体の動き情報など、他の情報を用いるものであってもよい。なお、マップ生成部31の詳細については、後述する。   Based on the input image data, the map generation unit 31 generates a feature amount map in which feature amounts such as luminance information, color information, and edge information are collected for each information. And the map production | generation part 31 produces | generates a saliency map using the feature-value map of each produced | generated information. Note that each piece of information used when generating the saliency map is not limited to the above-described luminance information, color information, and edge information, and may use other information such as subject movement information in the captured image. Details of the map generation unit 31 will be described later.

被写体抽出部32は、AF動作時に用いられたAFエリアの位置情報を用いて、画像に含まれる主要被写体の領域(以下、主要被写体領域)を抽出する。例えば撮像を行う場合、主要被写体に焦点が合うようにAF動作を行うのが一般的である。被写体抽出部32は、AF動作時に用いたAFエリア内、及びAFエリアの近傍の領域における、同系色の色成分値(所定の範囲に含まれる色成分値)の領域を主要被写体領域として抽出する。なお、同系色の色成分値を有する領域を主要被写体領域として抽出することに併せて、例えばレベルセット法やスネーク法などの手法を用いて主要被写体領域を抽出することも可能である。この被写体抽出部32により抽出された主要被写体領域に係る情報は、画像補正部33に出力される。なお、被写体抽出部32は、画像データを用いた被写体認識処理等により、主要被写体の領域を抽出する構成としてもよい。   The subject extraction unit 32 extracts a main subject region (hereinafter referred to as a main subject region) included in the image using the position information of the AF area used during the AF operation. For example, when imaging, it is common to perform an AF operation so that the main subject is in focus. The subject extraction unit 32 extracts a region of color component values of similar colors (color component values included in a predetermined range) in the AF area used in the AF operation and in the vicinity of the AF area as a main subject region. . In addition to extracting a region having color component values of similar colors as the main subject region, it is also possible to extract the main subject region using a technique such as a level set method or a snake method. Information relating to the main subject area extracted by the subject extraction unit 32 is output to the image correction unit 33. The subject extraction unit 32 may be configured to extract a main subject region by subject recognition processing using image data or the like.

画像補正部33は、マップ生成部31により生成された顕著性マップと、被写体抽出部32により抽出された主要被写体領域とに基づいて、入力される画像データに対する画像補正処理を実行する。ここで、画像データに対して実行される画像補正処理としては、顕著性マップを生成する際に用いる情報についての補正処理、すなわち、輝度成分に対する補正処理、色成分に対する補正処理、或いは方向性エッジ成分に対する補正処理の少なくとも1つの補正処理が挙げられる。   The image correction unit 33 executes image correction processing on the input image data based on the saliency map generated by the map generation unit 31 and the main subject region extracted by the subject extraction unit 32. Here, the image correction processing executed on the image data includes correction processing for information used when generating the saliency map, that is, correction processing for the luminance component, correction processing for the color component, or directional edge. There is at least one correction process of the correction process for the component.

輝度成分に対する補正処理としては、例えば、画像中の主要被写体領域に含まれる各画素の輝度を高くすることが挙げられる。詳細には、主要被写体領域に含まれる各画素の輝度が明るくなるように、画像データを増幅する。あるいは、主要被写体領域に含まれる画素の画素値に対して高域強調処理を施すことで、主要被写体領域におけるコントラストを強調する。なお、主要被写体領域に含まれる画素の画素値に対して高域強調処理を行う代わりに、主要被写体領域に含まれる画素の画素値に対するγ特性を変更した階調変換処理を行うことも可能である。さらに、主要被写体領域に含まれる画素の画素値に対する高域強調処理と、主要被写体領域に含まれる画素の画素値に対するγ特性を変更した階調変換処理とを併用することも可能である。このような処理を行うことで、後述のように元画像と、該画像にガウシアンフィルタ処理を施した低解像度画像との輝度差分値が大きくなる。この結果、画像中の主要被写体領域における輝度成分の顕著度が、他の領域における輝度成分の顕著度よりも高くなるように、画像データが補正される。   Examples of the correction processing for the luminance component include increasing the luminance of each pixel included in the main subject region in the image. Specifically, the image data is amplified so that the luminance of each pixel included in the main subject region is increased. Alternatively, the contrast in the main subject region is enhanced by performing high-frequency emphasis processing on the pixel values of the pixels included in the main subject region. Note that, instead of performing high-frequency emphasis processing on the pixel values of the pixels included in the main subject area, it is also possible to perform gradation conversion processing by changing the γ characteristics for the pixel values of the pixels included in the main subject area. is there. Furthermore, it is possible to use both the high-frequency emphasis processing for the pixel values of the pixels included in the main subject area and the gradation conversion processing for changing the γ characteristics for the pixel values of the pixels included in the main subject area. By performing such processing, the luminance difference value between the original image and a low-resolution image obtained by performing Gaussian filter processing on the image as described later increases. As a result, the image data is corrected so that the saliency of the luminance component in the main subject region in the image is higher than the saliency of the luminance component in other regions.

色成分に対する補正処理としては、画像中の主要被写体領域に含まれる各画素に対して、赤(R)色成分値と緑(G)色成分値との差分、又は青(B)色成分値と黄(Y)色成分値との差分の少なくとも一方を増加させることが挙げられる。つまり、特定の色成分の彩度を大きくし、他の色成分の彩度を小さくする。これにより、画像中の主要被写体領域における色成分の顕著度が、他の領域における色成分の顕著度よりも高くなるように、画像データが補正される。   As the correction processing for the color component, the difference between the red (R) color component value and the green (G) color component value, or the blue (B) color component value for each pixel included in the main subject region in the image. And increasing at least one of the differences between the yellow (Y) color component values. That is, the saturation of a specific color component is increased and the saturation of other color components is decreased. Thereby, the image data is corrected so that the saliency of the color component in the main subject area in the image is higher than the saliency of the color component in the other areas.

また、方向性エッジ成分に対する補正処理としては、画像中の主要被写体領域に含まれる方向性エッジ成分を大きくすることが挙げられる。詳細には、主要被写体領域に含まれる画素の画素値に対してハイパスフィルタ処理を行う。上述したように、エッジ情報抽出部43は、例えば0度、45度、90度及び135度の方向に対するエッジ強度を画素の画素値とするエッジ画像データをそれぞれ生成している。このハイパスフィルタ処理においては、例えば0度、45度、90度及び135度の方向の少なくともいずれかの方向に対してのハイパスフィルタ処理を実行する。この結果、画像中の主要被写体領域における方向性エッジ成分の顕著度が、他の領域における方向性エッジ成分の顕著度よりも高くなるように、画像データが補正される。   Further, the correction processing for the directional edge component includes increasing the directional edge component included in the main subject region in the image. Specifically, high-pass filter processing is performed on pixel values of pixels included in the main subject area. As described above, the edge information extraction unit 43 generates edge image data in which the edge intensity with respect to directions of, for example, 0 degrees, 45 degrees, 90 degrees, and 135 degrees is a pixel value. In the high-pass filter process, for example, the high-pass filter process is executed in at least one of 0 degree, 45 degrees, 90 degrees, and 135 degrees. As a result, the image data is corrected so that the saliency of the directional edge component in the main subject region in the image is higher than the saliency of the directional edge component in other regions.

次に、マップ生成部31の構成について説明する。図3に示すように、マップ生成部31は、輝度情報抽出部41、色情報抽出部42、エッジ情報抽出部43、マップ合成部44を有している。   Next, the configuration of the map generation unit 31 will be described. As illustrated in FIG. 3, the map generation unit 31 includes a luminance information extraction unit 41, a color information extraction unit 42, an edge information extraction unit 43, and a map synthesis unit 44.

上述したように、マップ生成部31には、信号処理回路22によって信号処理が施された画像データが入力される。なお、輝度情報抽出部41、色情報抽出部42、エッジ情報抽出部43の各部には、画像データがそれぞれ入力される。   As described above, the image data that has been subjected to signal processing by the signal processing circuit 22 is input to the map generation unit 31. Note that image data is input to each of the luminance information extraction unit 41, the color information extraction unit 42, and the edge information extraction unit 43.

輝度情報抽出部41は、入力された画像データに基づいて、各画素の画素値が輝度値からなる輝度画像データを生成する。輝度情報抽出部41は、生成された輝度画像データを用いて、解像度が異なる複数の輝度画像データを生成する。輝度情報抽出部41は、輝度画像データに対して、順次ガウシアンフィルタ処理を施すことで、例えばレベル1からレベル8までの8つの解像度の輝度画像データを生成する。なお、レベル1の輝度画像データは、入力された画像データと同一の解像度となるように設定される。そして、レベル2の輝度画像データ、レベル3の輝度画像データ,・・・・,レベル8の輝度画像データの順で、解像度が低く設定される。   The luminance information extraction unit 41 generates luminance image data in which the pixel value of each pixel is a luminance value based on the input image data. The luminance information extraction unit 41 generates a plurality of luminance image data with different resolutions using the generated luminance image data. The luminance information extraction unit 41 generates luminance image data of eight resolutions from level 1 to level 8, for example, by sequentially performing Gaussian filter processing on the luminance image data. Note that the luminance image data at level 1 is set to have the same resolution as the input image data. The resolution is set lower in the order of level 2 luminance image data, level 3 luminance image data,..., Level 8 luminance image data.

これら解像度の異なる輝度画像データを生成した後、輝度情報抽出部41は、生成された複数の輝度画像データのうち、例えばレベル1の輝度画像データ及びレベル2の輝度画像データなど、隣り合う2つのレベルの輝度画像データを選択し、選択した2つの輝度画像データの差分(以下、差分データ)を求める。なお、各輝度画像データの画素数がそれぞれ異なる場合には、輝度情報抽出部41は、2つの輝度画像データのうち、解像度の低い輝度画像データの画素数が、解像度の高い輝度画像データの画素数となるように解像度の低い輝度画像データの画素数を変換し、差分データを求める。   After generating the luminance image data having different resolutions, the luminance information extraction unit 41 selects two adjacent luminance images such as level 1 luminance image data and level 2 luminance image data from among the generated plurality of luminance image data. A level of luminance image data is selected, and a difference between the two selected luminance image data (hereinafter, difference data) is obtained. When the number of pixels of each luminance image data is different, the luminance information extraction unit 41 has the number of pixels of luminance image data with low resolution out of the two luminance image data. The number of pixels of the low-resolution luminance image data is converted so as to obtain the difference, and difference data is obtained.

輝度情報抽出部41は、予め定めた数の差分データを生成した後、生成した差分データを、それぞれ正規化する。この正規化された差分データに基づいて、輝度情報マップを生成する。なお、生成された輝度情報マップは、マップ合成部44に出力される。   The luminance information extraction unit 41 generates a predetermined number of difference data, and then normalizes the generated difference data. A luminance information map is generated based on the normalized difference data. The generated luminance information map is output to the map composition unit 44.

色情報抽出部42は、入力される画像データを用いて、赤(R)色成分値と緑(G)色成分値との差分からなるRG差分画像データを生成する。そして、色情報抽出部42は、生成されたRG差分画像データを用いて、解像度が異なる複数のRG差分画像データを生成する。これにより、輝度画像データと同様に、例えばレベル1からレベル8までの8つの解像度のRG差分画像データが生成される。   The color information extraction unit 42 generates RG difference image data including a difference between a red (R) color component value and a green (G) color component value using the input image data. And the color information extraction part 42 produces | generates several RG difference image data from which resolution differs using the produced | generated RG difference image data. Thereby, RG difference image data of eight resolutions from level 1 to level 8, for example, is generated in the same manner as the luminance image data.

色情報抽出部42は、生成された複数のRG差分画像データのうち、例えばレベル1のRG差分画像データ及びレベル2のRG差分画像データなど、隣り合う2つのレベルのRG差分画像データを選択し、選択した2つのRG差分画像データの差分(以下、差分データ)を求める。この場合も、複数のRG差分画像データの画素数が、それぞれ異なる場合には、色情報抽出部42は、2つのRG差分画像データのうち、解像度の低いRG差分画像データの画素数が、解像度の高いRG差分画像データの画素数となるように解像度の低いRG差分画像データ野が素数を変換する。色情報抽出部42は、RG差分画像データから求めた差分データを正規化した後、赤(R)色成分値と緑(G)色成分値との差分に基づく色情報マップを生成する。   The color information extraction unit 42 selects two adjacent levels of RG difference image data, such as level 1 RG difference image data and level 2 RG difference image data, from among the plurality of generated RG difference image data. The difference between the two selected RG difference image data (hereinafter referred to as difference data) is obtained. Also in this case, when the number of pixels of the plurality of RG difference image data is different from each other, the color information extraction unit 42 determines that the number of pixels of the RG difference image data with low resolution among the two RG difference image data is the resolution. The RG difference image data field having a low resolution converts the prime number so that the number of pixels of the RG difference image data having a higher value is obtained. The color information extraction unit 42 normalizes the difference data obtained from the RG difference image data, and then generates a color information map based on the difference between the red (R) color component value and the green (G) color component value.

また、色情報抽出部42は、入力される画像データを用いて、上述したRG差分画像データの生成と同様の手法により、青(B)色成分値と黄(Y)色成分値との差分からなるBY差分画像データを生成する。そして、色情報抽出部42は、RG差分画像データと同様の処理を行って、青(B)色成分値と黄(Y)色成分値との差分に基づく色情報マップを生成する。この色情報抽出部42により生成された各色情報マップは、マップ合成部44に出力される。   In addition, the color information extraction unit 42 uses the input image data, and the difference between the blue (B) color component value and the yellow (Y) color component value by the same method as the generation of the RG difference image data described above. BY difference image data consisting of Then, the color information extraction unit 42 performs the same processing as that of the RG difference image data, and generates a color information map based on the difference between the blue (B) color component value and the yellow (Y) color component value. Each color information map generated by the color information extraction unit 42 is output to the map synthesis unit 44.

エッジ情報抽出部43は、入力される画像データに対してガボール・フィルタを用いたフィルタ処理を施す。このフィルタ処理により、例えば画面上で0度、45度、90度及び135度の方向に対するエッジ強度を画素の画素値とするエッジ画像データをそれぞれ生成する。エッジ情報抽出部43は、生成されたエッジ画像データを用いて、解像度の異なる複数のエッジ画像データをさらに生成する。これにより、順次ガウシアンフィルタ処理を施すことで、レベル1からレベル8までの8つの解像度のエッジ画像データが生成される。エッジ情報抽出部43は、生成された複数のエッジ画像データのうち、例えばレベル1のエッジ画像データ及びレベル2のエッジ画像データなど、隣り合う2つのレベルのエッジ画像データを選択し、選択した2つのエッジ画像データの差分(以下、差分データ)を求める。複数のエッジ画像データの画素数がそれぞれ異なる場合には、エッジ情報抽出部43は、2つのエッジ画像データのうち、解像度の低いエッジ画像データの画素数が、解像度の高いエッジ画像データの画素数となるように解像度の低いエッジ画像データの画素数を変換する。エッジ情報抽出部43は、エッジ画像データから求めた差分データを正規化した後、正規化された差分データに基づくエッジ情報マップを生成する。なお、エッジ情報抽出部43は、上述した処理を、各方向のエッジ画像データ毎に実行する。これら生成されたエッジ情報マップは、マップ合成部44に出力される。   The edge information extraction unit 43 performs a filtering process using a Gabor filter on the input image data. By this filtering process, for example, edge image data having edge strengths in the directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees on the screen as pixel values is generated. The edge information extraction unit 43 further generates a plurality of edge image data having different resolutions using the generated edge image data. Thus, edge image data of eight resolutions from level 1 to level 8 are generated by sequentially performing Gaussian filter processing. The edge information extraction unit 43 selects two adjacent edge image data such as level 1 edge image data and level 2 edge image data from among the generated plurality of edge image data, and selects the selected 2 A difference between the two edge image data (hereinafter, difference data) is obtained. When the number of pixels of the plurality of edge image data is different from each other, the edge information extraction unit 43 determines that the number of pixels of the edge image data with low resolution is the number of pixels of the edge image data with high resolution among the two edge image data. The number of pixels of the low resolution edge image data is converted so that The edge information extraction unit 43 normalizes the difference data obtained from the edge image data, and then generates an edge information map based on the normalized difference data. Note that the edge information extraction unit 43 performs the above-described processing for each edge image data in each direction. These generated edge information maps are output to the map composition unit 44.

マップ合成部44は、入力される輝度情報マップ、色情報マップ、エッジ情報マップを合成することで、顕著性マップを生成する。この顕著性マップは、画像における各画素における顕著度の分布を示すマップとなる。   The map combining unit 44 generates a saliency map by combining the input luminance information map, color information map, and edge information map. This saliency map is a map showing the distribution of saliency at each pixel in the image.

次に、画像補正処理の流れについて、図4のフローチャートに基づいて説明する。以下、主要被写体領域を主要被写体領域と称して説明する。   Next, the flow of image correction processing will be described based on the flowchart of FIG. Hereinafter, the main subject area will be described as a main subject area.

ステップS101は、スルー画像を取得する処理である。撮影モードが開始されると、CPU20は、撮像素子駆動回路21を介して、撮像素子16を制御する。これにより、撮像素子16が所定時間間隔を空けて駆動される。これにより、スルー画像の元になる画像信号が取得される。この画像信号は、信号処理回路22に出力される。信号処理回路22は、入力される画像信号に対して、各種信号処理を実行する。これにより、スルー画像データが生成される。   Step S101 is processing for acquiring a through image. When the shooting mode is started, the CPU 20 controls the image sensor 16 via the image sensor drive circuit 21. Thereby, the image sensor 16 is driven with a predetermined time interval. Thereby, the image signal which becomes the origin of a through image is acquired. This image signal is output to the signal processing circuit 22. The signal processing circuit 22 executes various signal processes on the input image signal. Thereby, the through image data is generated.

ステップS102は、AWB処理及びAE処理を実行する処理である。CPU20は、測光回路19で得られた被写体の測光データに基づいて、公知の露出演算やホワイトバランス調整処理を行う。   Step S102 is processing for executing AWB processing and AE processing. The CPU 20 performs known exposure calculation and white balance adjustment processing based on the subject photometry data obtained by the photometry circuit 19.

ステップS103は、AF処理である。CPU20は、レンズ駆動回路18を介して、撮像レンズ15を構成するフォーカシングレンズを移動させる。このフォーカシングレンズを移動させたときに得られる焦点評価値の最大値となる位置を求める。この焦点評価値は、撮影画面内に設けられたAFエリアのいずれかを用いて算出される。焦点評価値の算出の際に用いるAFエリアは、予めユーザが操作部材17を操作して選択してもよいし、被写体認識などの手法により求めた被写体領域に対応したAFエリアを選択してもよい。   Step S103 is an AF process. The CPU 20 moves the focusing lens constituting the imaging lens 15 via the lens driving circuit 18. A position that is the maximum value of the focus evaluation value obtained when the focusing lens is moved is obtained. This focus evaluation value is calculated using any of the AF areas provided in the shooting screen. The AF area used when calculating the focus evaluation value may be selected by operating the operation member 17 in advance by the user, or the AF area corresponding to the subject area obtained by a method such as subject recognition may be selected. Good.

ステップS104は、顕著性マップを生成する処理である。信号処理回路22により各種信号処理が施されたスルー画像データは、データ処理回路23に入力される。データ処理回路23は、入力されたスルー画像データを用いて、顕著性マップを生成する。   Step S104 is processing to generate a saliency map. The through image data that has been subjected to various types of signal processing by the signal processing circuit 22 is input to the data processing circuit 23. The data processing circuit 23 generates a saliency map using the input through image data.

ステップS105は、被写体領域を抽出する処理である。データ処理回路23は、入力されたスルー画像データ及びAF動作時に用いたAFエリアの情報を用いて、被写体領域を抽出する。   Step S105 is processing to extract a subject area. The data processing circuit 23 extracts a subject area by using the input through image data and the AF area information used during the AF operation.

ステップS106は、画像補正を行うか否かを判定する処理である。CPU20は、ステップS104にて生成された顕著性マップと、ステップS105にて抽出された被写体領域の位置情報とを参照し、スルー画像データに対して画像補正を行うか否かを判定する。   Step S106 is processing for determining whether or not to perform image correction. The CPU 20 refers to the saliency map generated in step S104 and the position information of the subject area extracted in step S105, and determines whether to perform image correction on the through image data.

以下、スルー画像データに対して画像補正を行うか否かの判定は、画像中の主要被写体領域における顕著度と、画像中の他の領域における顕著度とを比較することで判定を行うものとする。なお、主要被写体領域における顕著度、及び画像中の他の領域における顕著度としては、例えば、各領域に含まれる各画素の顕著度の平均値を求めればよい。   Hereinafter, whether or not to perform image correction on through image data is determined by comparing the saliency in the main subject region in the image with the saliency in other regions in the image. To do. As the saliency in the main subject area and the saliency in other areas in the image, for example, an average value of saliency of each pixel included in each area may be obtained.

ここで、画像中の他の領域としては、主要被写体を除く領域(背景領域)全体、或いは、主要被写体領域を除いた領域のうち顕著度が高い領域が挙げられる。ここで、主要被写体領域を除いた領域のうち顕著度が高い領域は、被写体領域に対して所定範囲内に位置する領域であればよく、主要被写体領域に隣接する領域でもよいし、主要被写体領域から離れた位置にある領域でもよい。   Here, examples of the other areas in the image include the entire area (background area) excluding the main subject or an area having a high degree of saliency among the areas excluding the main subject area. Here, the region having a high degree of saliency among the regions excluding the main subject region may be a region located within a predetermined range with respect to the subject region, may be a region adjacent to the main subject region, or may be a main subject region. It may be an area at a position away from.

例えば主要被写体領域における顕著度が他の領域における顕著度よりも低い場合、CPU20は、画像補正を行う必要があると判定する。つまり、CPU20は、ステップS106の判定処理をYesとする。この場合、ステップS107に進む。   For example, when the saliency in the main subject area is lower than the saliency in other areas, the CPU 20 determines that image correction is necessary. That is, the CPU 20 sets the determination process in step S106 to Yes. In this case, the process proceeds to step S107.

一方、主要被写体領域における顕著度が他の領域における顕著度よりも高くなる場合には、CPU20は、画像補正を行う必要がないと判定する。つまり、CPU20は、ステップS106の判定処理をNoとする。この場合、ステップS108に進む。   On the other hand, if the saliency in the main subject area is higher than the saliency in the other areas, the CPU 20 determines that it is not necessary to perform image correction. That is, the CPU 20 sets the determination process in step S106 to No. In this case, the process proceeds to step S108.

ステップS107は、画像補正を実行する処理である。データ処理回路23は、ステップS104で生成された顕著性マップ、及びステップS105にて抽出された主要被写体領域に基づいて、スルー画像データに対する画像補正を行う。   Step S107 is processing for executing image correction. The data processing circuit 23 performs image correction on the through image data based on the saliency map generated in step S104 and the main subject region extracted in step S105.

ステップS108は、スルー画像を表示する処理である。画像補正の必要がない画像データや、画像補正処理を施した画像データは、表示出力回路26に出力される。これを受けて、表示出力回路26は、液晶モニタ24に、入力された画像データに基づく画像を表示する。これにより、スルー画像が、液晶モニタ24に表示される。   Step S108 is processing to display a through image. Image data that does not require image correction or image data that has undergone image correction processing is output to the display output circuit 26. In response to this, the display output circuit 26 displays an image based on the input image data on the liquid crystal monitor 24. As a result, a through image is displayed on the liquid crystal monitor 24.

ステップS109は、レリーズボタンの半押し操作があるか否かを判定する処理である。なお、詳細は省略するが、レリーズボタンには、その半押し操作、及び全押し操作が行われたときに、オンとなるスイッチがそれぞれ設けられている。これらスイッチがオンとなる場合には、そのオンとなる信号(以下、操作信号)がCPU20にそれぞれ入力される。CPU20は、レリーズボタンの半押し操作時の操作信号が入力されたか否かによって、レリーズボタンが半押し操作されたか否かを判定する。例えばレリーズボタンの半押し操作時の操作信号がCPU20に入力された場合には、CPU20は、ステップS109の判定をYesとする。この場合、ステップS110に進む。一方、レリーズボタンの半押し操作時の操作信号がCPU20に入力されない場合には、CPU20は、ステップS109の判定をNoとする。この場合、ステップS101に進み、ステップS101からステップS108の処理が再度実行される。   Step S109 is processing to determine whether or not there is a half-press operation of the release button. Although not described in detail, the release button is provided with a switch that is turned on when the half-pressing operation and the full-pressing operation are performed. When these switches are turned on, signals to be turned on (hereinafter, operation signals) are input to the CPU 20 respectively. The CPU 20 determines whether or not the release button has been half-pressed depending on whether or not an operation signal at the time of half-pressing the release button has been input. For example, when an operation signal for half-pressing the release button is input to the CPU 20, the CPU 20 determines Yes in step S109. In this case, the process proceeds to step S110. On the other hand, when the operation signal at the time of half-pressing the release button is not input to the CPU 20, the CPU 20 determines No in step S109. In this case, the process proceeds to step S101, and the processing from step S101 to step S108 is executed again.

ステップS110は、レリーズボタンの全押し操作があるか否かを判定する処理である。上述したように、レリーズボタンには、その半押し操作、及び全押し操作が行われたときに、オンとなるスイッチがそれぞれ設けられている。CPU20は、レリーズボタンの全押し操作時の操作信号が入力されたか否かによって、レリーズボタンが全押し操作されたか否かを判定する。例えばレリーズボタンの全押し操作時の操作信号がCPU20に入力された場合には、CPU20は、ステップS110の判定をYesとする。この場合、ステップS112に進む。一方、レリーズボタンの全押し操作時の操作信号がCPU20に入力されない場合には、CPU20は、ステップS110の判定をNoとする。この場合、ステップS111に進む。   Step S110 is a process for determining whether or not the release button is fully pressed. As described above, the release button is provided with a switch that is turned on when the half-pressing operation and the full-pressing operation are performed. The CPU 20 determines whether or not the release button has been fully pressed depending on whether or not an operation signal at the time of fully pressing the release button has been input. For example, when the operation signal at the time of fully pressing the release button is input to the CPU 20, the CPU 20 determines Yes in step S110. In this case, the process proceeds to step S112. On the other hand, when the operation signal when the release button is fully pressed is not input to the CPU 20, the CPU 20 determines No in step S110. In this case, the process proceeds to step S111.

ステップS111は、レリーズボタンの操作が解除されたか否かを判定する処理である。CPU20は、レリーズボタンの半押し操作時の操作信号が入力されているか否かによって、レリーズボタンの操作が解除されたか否かを判定する。例えばレリーズボタンの半押し操作時の操作信号がCPU20に入力されなくなった場合には、CPU20は、ステップS111の判定をYesとする。この場合、図4のフローチャートの処理が終了する。一方、レリーズボタンの半押し操作時の操作信号がCPU20に入力されている場合には、CPU20は、ステップS111の判定をNoとする。この場合、ステップS110に戻る。   Step S111 is processing to determine whether or not the operation of the release button has been released. The CPU 20 determines whether or not the operation of the release button is released depending on whether or not an operation signal at the time of half-pressing the release button is input. For example, if the operation signal at the time of half-pressing the release button is not input to the CPU 20, the CPU 20 determines Yes in step S111. In this case, the process of the flowchart in FIG. 4 ends. On the other hand, when the operation signal at the time of half-pressing the release button is input to the CPU 20, the CPU 20 determines No in step S111. In this case, the process returns to step S110.

ステップS112は、スルー画像の撮影に続く本撮影の撮像処理である。CPU20は、ステップS108における露出演算で求められた撮像条件を用いて、撮像素子駆動回路21を介して撮像素子16を駆動する。これにより、撮像処理が実行される。この撮像処理により得られる画像信号は、信号処理回路22に出力される。信号処理回路22は、入力された画像信号に対して、直流再生処理、A/D変換処理、γ変換処理などの信号処理を施す。これにより、撮像により得られた画像データ(本撮影画像データ)が生成される。   Step S112 is an imaging process of the main shooting following the shooting of the through image. The CPU 20 drives the image sensor 16 via the image sensor drive circuit 21 using the imaging conditions obtained by the exposure calculation in step S108. Thereby, an imaging process is performed. An image signal obtained by this imaging process is output to the signal processing circuit 22. The signal processing circuit 22 performs signal processing such as direct current reproduction processing, A / D conversion processing, and γ conversion processing on the input image signal. Thereby, image data (main captured image data) obtained by imaging is generated.

ステップS113は、顕著性マップを生成する処理である。データ処理回路23は、信号処理回路22から出力された本撮影画像データを用いて、顕著性マップを生成する。   Step S113 is processing for generating a saliency map. The data processing circuit 23 generates a saliency map using the actual captured image data output from the signal processing circuit 22.

ステップS114は、被写体領域を抽出する処理である。データ処理回路23は、信号処理回路22から出力された本撮影画像データを用いて、被写体領域を抽出する。このステップS112の処理は、ステップS103と同様の処理である。   Step S114 is processing to extract a subject area. The data processing circuit 23 extracts a subject area using the actual captured image data output from the signal processing circuit 22. The process of step S112 is the same process as step S103.

ステップS115は、画像補正を行うか否かを判定する処理である。CPU20は、ステップS113にて生成された顕著性マップと、ステップS114にて抽出された主要被写体領域とを参照し、スルー画像データに対して画像補正を行うか否かを判定する。なお、このステップS115の判定処理は、ステップS104の判定処理と同一の処理からなる。例えば、画像補正を行う必要がある場合には、CPU20は、ステップS115の判定処理をYesとする。この場合、ステップS116に進む。一方、画像補正を行う必要がない場合には、CPU20は、ステップS115の判定処理をNoとする。この場合、ステップS117に進む。なお、ステップS104において、スルー画像データに対して、画像補正を行う必要があるか否かの判定を行っていることから、このステップS115における判定処理は、ステップS104の判定処理の結果を用いてもよい。   Step S115 is processing for determining whether or not to perform image correction. The CPU 20 refers to the saliency map generated in step S113 and the main subject area extracted in step S114, and determines whether or not to perform image correction on the through image data. The determination process in step S115 includes the same process as the determination process in step S104. For example, when it is necessary to perform image correction, the CPU 20 determines Yes in step S115. In this case, the process proceeds to step S116. On the other hand, when it is not necessary to perform image correction, the CPU 20 determines No in step S115. In this case, the process proceeds to step S117. In step S104, it is determined whether or not it is necessary to perform image correction on the through image data. Therefore, the determination process in step S115 uses the result of the determination process in step S104. Also good.

ステップS116は、画像補正処理である。このステップS113の処理は、ステップS104と同様の処理である。このステップS116の処理を実行することで、本撮影画像データに対する画像補正処理が実行される。   Step S116 is an image correction process. The process of step S113 is the same process as step S104. By executing the process of step S116, an image correction process for the actual captured image data is executed.

ステップS117は、画像補正された本撮影画像を表示する処理である。ステップS116にて画像補正処理が施された本撮影画像データは、表示出力回路26に出力される。表示出力回路26は、入力された本撮影画像データに基づく本撮影画像を液晶モニタ24に表示する。   Step S117 is a process of displaying the actual captured image with the image corrected. The captured image data that has been subjected to the image correction processing in step S116 is output to the display output circuit 26. The display output circuit 26 displays an actual captured image based on the input actual captured image data on the liquid crystal monitor 24.

ステップS118は、画像補正された本撮影画像データを記憶するか否かを判定する処理である。ユーザは、液晶モニタ24に表示された本撮影画像を確認し、操作部材17を操作して、表示される本撮影画像データを記憶するか否かを選択する。上述したように、操作部材17の操作に基づいた操作信号は、CPU20に入力される。操作部材17の操作に基づいた操作信号が、液晶モニタ24に表示された本撮影画像データを記憶することを示す信号であれば、CPU20は、ステップS118の判定をYesとする。この場合、ステップS119に進む。一方、操作部材17の操作に基づいた操作信号が、液晶モニタ24に表示された本撮影画像データを記憶しないことを示す信号であれば、CPU20は、ステップS118の判定をNoとする。この場合、図4のフローチャートの処理が終了する。   Step S118 is processing for determining whether or not to store the main image data that has undergone image correction. The user confirms the actual captured image displayed on the liquid crystal monitor 24 and operates the operation member 17 to select whether to store the actual captured image data to be displayed. As described above, the operation signal based on the operation of the operation member 17 is input to the CPU 20. If the operation signal based on the operation of the operation member 17 is a signal indicating that the actual captured image data displayed on the liquid crystal monitor 24 is stored, the CPU 20 determines Yes in step S118. In this case, the process proceeds to step S119. On the other hand, if the operation signal based on the operation of the operation member 17 is a signal indicating that the actual captured image data displayed on the liquid crystal monitor 24 is not stored, the CPU 20 determines No in step S118. In this case, the process of the flowchart in FIG. 4 ends.

ステップS119は、画像を記憶する処理である。データ処理回路23は、本撮影画像データを圧縮伸長処理回路25に出力する。これを受けて、圧縮伸長処理回路25は、入力された本撮影画像データに対して圧縮処理を施し、記憶媒体27に記憶する。ここで、本撮影画像データは、ステップS113にて生成された顕著性マップが付帯情報として付帯された状態で、記憶媒体27に記憶される。なお、ステップS115において画像補正処理が施された画像データに対しては、ステップS113において生成された顕著性マップと画像補正処理の情報とを付帯情報として本撮影画像データに付帯して記憶媒体27に記憶させてもよいし、画像補正処理が施された画像データに基づいて再度顕著性マップを生成した後、新たに生成した顕著性マップを付帯情報として本撮影画像データに付帯して記憶させることも可能である。   Step S119 is processing for storing an image. The data processing circuit 23 outputs the captured image data to the compression / decompression processing circuit 25. In response to this, the compression / decompression processing circuit 25 performs a compression process on the inputted main photographed image data and stores it in the storage medium 27. Here, the actual captured image data is stored in the storage medium 27 in a state where the saliency map generated in step S113 is attached as additional information. For the image data that has been subjected to the image correction processing in step S115, the saliency map generated in step S113 and the information on the image correction processing are appended to the actual captured image data as supplementary information. Or after generating the saliency map again based on the image data that has been subjected to the image correction processing, the newly generated saliency map is attached to the captured image data as additional information and stored. It is also possible.

以下、撮像面に対して複数のAFエリアが設けられる場合について考慮する。図5(A)は、撮像画面50に対して、横5個縦3個の計15個のAFエリア51乃至AFエリア65が設定される場合を示す。図5(B)に示すように、例えば灯台を背景にして人物を撮像した場合、撮像時には、AFエリア51乃至AFエリア65のうち、AFエリア58を用いてAF動作が実行される。被写体領域の抽出処理は、撮像により得られた画像Iのうち、AFエリア58及びAFエリア58の近傍の領域を対象として実行される。この被写体領域を抽出する処理により、例えば二点差線で示す矩形の領域68が主要被写体領域として抽出される(図5(C)参照)。   Hereinafter, a case where a plurality of AF areas are provided on the imaging surface will be considered. FIG. 5A shows a case where a total of 15 AF areas 51 to 65, that is 5 horizontal and 3 vertical, are set on the imaging screen 50. As shown in FIG. 5B, for example, when a person is imaged with a lighthouse in the background, the AF operation is performed using the AF area 58 among the AF areas 51 to 65 at the time of imaging. The subject area extraction process is executed on the AF area 58 and the area in the vicinity of the AF area 58 in the image I obtained by imaging. By the process of extracting the subject area, for example, a rectangular area 68 indicated by a two-dot chain line is extracted as the main subject area (see FIG. 5C).

その後、生成された顕著性マップを用いて、抽出された主要被写体領域を除く他の領域から顕著性が高い領域を検出する。図5においては、灯台を背景にして人物を撮像していることから、主要被写体領域を除く顕著性が高い被写体領域として、灯台の領域69が求められる。図5(C)においては、人物の顔の領域68に隣接して灯台の領域69が存在する場合について示している。   Thereafter, using the generated saliency map, a region having high saliency is detected from other regions excluding the extracted main subject region. In FIG. 5, since a person is imaged with the lighthouse in the background, a lighthouse area 69 is determined as a highly prominent subject area excluding the main subject area. FIG. 5C shows a case where a lighthouse region 69 exists adjacent to the human face region 68.

このような場合、データ処理回路23は、人物の顔の領域68における顕著度と、灯台の領域69における顕著度とをそれぞれ、顕著性マップに基づいて求める。   In such a case, the data processing circuit 23 obtains the saliency in the human face area 68 and the saliency in the lighthouse area 69 based on the saliency map.

例えば、人物の顔の領域68における輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度が、0.3,0.3,0.4の計1.0となる場合について説明する。また、灯台の領域69における輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度が、0.5,0.5,0.1の計1.1となる場合について説明する。ここで、人物の顔の領域68の顕著度の合計値(1.0)と、灯台の領域69の顕著度の合計値(1.1)とを比較すると、人物の顔の領域68の顕著度の合計値が灯台の領域69の顕著度の合計値よりも低くなる。
このような場合には、人物の顔の領域68における顕著度の合計値が灯台の領域69における顕著度の合計値よりも高くなるように、人物の顔の領域68に対する画像補正処理を実行する。なお、人物の顔の領域68に対する画像補正処理においては、輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度の全ての顕著度の値が変更するように、それぞれの成分(特徴要素)に対する画像補正処理を実行してもよいし、上述したいずれかの顕著度の値が高くなるように画像補正処理を実行してもよい。
For example, in the case where the luminance component saliency, the color component saliency, and the directional edge component saliency in the human face area 68 are 1.0, 0.3, 0.3, and 0.4. explain. Further, a case will be described in which the luminance component saliency, the color component saliency, and the directional edge component saliency in the lighthouse region 69 are 1.1, which is 0.5, 0.5, and 0.1. . Here, when the total value (1.0) of the saliency of the person's face area 68 is compared with the total value (1.1) of the saliency of the lighthouse area 69, the saliency of the person's face area 68 is compared. The total value of the degrees is lower than the total value of the saliency of the lighthouse area 69.
In such a case, image correction processing is performed on the person's face area 68 so that the total value of the saliency in the person's face area 68 is higher than the total value of the saliency in the lighthouse area 69. . It should be noted that in the image correction processing for the human face area 68, each component is changed so that the saliency values of the luminance component, the saliency of the color component, and the saliency of the directional edge component are changed. Image correction processing for (feature elements) may be executed, or image correction processing may be executed so that one of the above-described saliency values is increased.

例えば輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度のいずれかの顕著度の値を変更する画像補正処理を実行する場合には、以下の第1から第3の処理のいずれかの処理が考えられる。   For example, when executing the image correction process for changing the saliency value of any one of the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component, the following first to third processes Any one of the processes can be considered.

第1の処理としては、人物の顔の領域68における輝度成分の顕著度、色成分の顕著度、或いは方向性エッジ成分の顕著度のうち、最も低い値となる顕著度の値が元の値よりも高くなるように人物の顔の領域68に対する画像補正処理を実行する。図5(C)に示す画像Iでは、人物の顔の領域68における輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度は、0.3,0.3,0.4となる。このような場合には、輝度成分の顕著度、色成分の顕著度のいずれか一方の顕著度が元の値よりも高くなるように、人物の顔の領域68に対する画像補正処理を実行する。   As the first processing, the saliency value that is the lowest value among the saliency of the luminance component, the saliency of the color component, or the saliency of the directional edge component in the human face area 68 is the original value. The image correction processing is executed on the human face area 68 so that the height is higher than the upper limit. In the image I shown in FIG. 5C, the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component in the human face area 68 are 0.3, 0.3, 0.4. It becomes. In such a case, the image correction process is executed on the human face area 68 so that one of the saliency of the luminance component and the saliency of the color component is higher than the original value.

なお、輝度成分の顕著度、色成分の顕著度のいずれか一方の顕著度が元の値よりも高くなるように、人物の顔の領域68に対する画像補正処理を実行するとしているが、輝度成分の顕著度、色成分の顕著度の双方の顕著度が元の値よりも高くなるように人物の顔の領域68に対する画像補正処理を実行してもよい。   It should be noted that the image correction processing is performed on the human face area 68 so that one of the saliency of the luminance component and the saliency of the color component is higher than the original value. The image correction processing may be executed on the human face area 68 so that both the saliency and the saliency of the color component are higher than the original value.

第2の処理としては、人物の顔の領域68における輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度のうち、最も高い値となる顕著度の値が元の値よりも高くなるように人物の顔の領域68に対する画像補正処理を実行する。つまり、図5(C)に示す画像Iでは、方向性エッジ成分の顕著度が最も高い顕著度の値となる。このような場合には、方向性エッジ成分の顕著度が元の値よりも高くなるように人物の顔の領域68に対する画像補正処理を実行する。上述したように、方向性エッジ成分は、0度、45度、90度、135度の4方向のエッジ成分が挙げられる。このため、画像補正処理により、方向性エッジ成分の顕著度を変更する場合には、これら4方向の成分のうち、少なくともいずれか1方向のエッジ成分の顕著度を変更すればよい。   As the second processing, the saliency value that is the highest value among the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component in the human face area 68 is higher than the original value. The image correction process is executed on the human face area 68 so that the height of the face is also higher. That is, in the image I shown in FIG. 5C, the saliency value of the directional edge component is the highest saliency value. In such a case, the image correction process is executed on the human face area 68 so that the saliency of the directional edge component is higher than the original value. As described above, examples of the directional edge component include edge components in four directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees. For this reason, when the saliency of the directional edge component is changed by the image correction process, it is only necessary to change the saliency of the edge component in at least one of the four directional components.

また、第3の処理としては、灯台の領域69における輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度のうち、最も低い値となる顕著度の成分に対する画像補正を、人物の顔の領域68に施す。上述したように、図5(C)の画像Iにおいては、灯台の領域69における輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度は、0.5,0.5,0.1となる。このような場合には、顕著度が最も低くなる方向性エッジ成分に対する画像補正を、人物の顔の領域68に施す。   Further, as the third processing, image correction for the component having the lowest saliency among the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component in the lighthouse region 69 is performed. It is applied to the area 68 of the person's face. As described above, in the image I in FIG. 5C, the luminance component saliency, the color component saliency, and the directional edge component saliency in the lighthouse region 69 are 0.5, 0.5, 0.1. In such a case, image correction for the directional edge component having the lowest saliency is performed on the human face area 68.

このような主要被写体領域に対して上述したいずれかの画像補正処理を施すことで、主要被写体領域の顕著度を他の領域の顕著度よりも高くなる。なお、顕著度は人間の目に付きやすさを示す指標であることから、このような画像補正を行うことでユーザの着目点を被写体領域に向けることが可能となる。言い換えれば、主要被写体が良好な状態となる画像を得ることが可能となる。   By performing any of the above-described image correction processes on such a main subject region, the saliency of the main subject region becomes higher than the saliency of other regions. Note that the saliency is an index that indicates how easily human eyes can see, and thus it is possible to direct the user's point of interest to the subject area by performing such image correction. In other words, an image in which the main subject is in a good state can be obtained.

本実施形態では、スルー画像データ及び本撮影画像データのそれぞれに対して、顕著性マップを生成する処理、被写体領域を抽出する処理及び画像補正する処理を実行している。しかしながら、これら処理は、スルー画像データ及び本撮影画像データの双方に対して実行する必要はなく、スルー画像データ又は本撮影画像データの一方の画像データに対して実行することも可能である。   In the present embodiment, a process of generating a saliency map, a process of extracting a subject area, and a process of correcting an image are executed for each of the through image data and the actual captured image data. However, these processes do not have to be performed on both the through image data and the actual captured image data, and can be performed on one image data of the through image data or the actual captured image data.

上述した処理をスルー画像データに対して実行する場合には、スルー画像データに対して実行された画像補正処理の情報を記憶しておき、本撮像時に得られる画像データに対して、記憶された画像補正処理の情報を加味したデータ処理を施すことも可能である。また、上述した処理をスルー画像データに対して実行する場合、スルー画像データのそれぞれに対して、これら処理を行う必要はなく、レリーズボタンの半押し操作が実行される直前に得られたスルー画像データに対してのみ実行する構成としてもよい。さらには、上述したスルー画像に対して行った処理を本撮影にて取得した動画像に施す構成としてもよい。   When the above-described processing is performed on the through image data, information on the image correction processing performed on the through image data is stored, and the image data obtained at the time of actual imaging is stored. It is also possible to perform data processing in consideration of image correction processing information. Further, when the above-described processing is performed on the through image data, it is not necessary to perform these processing on each of the through image data, and the through image obtained immediately before the half-press operation of the release button is performed. It is good also as a structure performed only with respect to data. Furthermore, it is good also as a structure which performs the process performed with respect to the through image mentioned above to the moving image acquired by this imaging | photography.

本実施形態では、画像補正処理が施された本撮影画像データを記憶する形態となっているが、これに限定される必要はなく、画像補正処理が施される前の本撮影画像データと、画像補正処理の処理内容に係る情報とを関連付けて記憶することも可能である。さらに、信号処理回路22において一部信号処理が施されていない本撮影画像データ(所謂RAWデータ)に対して、信号処理回路22、データ処理回路23において実施される信号処理の処理(顕著性マップを生成する処理、被写体領域を抽出する処理及び画像補正する処理)に係る情報を付帯情報として記憶することも可能である。   In the present embodiment, the actual captured image data subjected to the image correction process is stored. However, the present captured image data is not limited to this, and the captured image data before the image correction process is performed; It is also possible to store information related to the processing content of the image correction process in association with each other. Further, signal processing (saliency map) performed in the signal processing circuit 22 and the data processing circuit 23 on the actual captured image data (so-called RAW data) that has not been subjected to partial signal processing in the signal processing circuit 22. It is also possible to store information relating to the process of generating the image, the process of extracting the subject area, and the process of correcting the image as additional information.

本実施形態では、主要被写体領域における各顕著度の合計値(積算値)と、他の被写体領域の各顕著度の合計値とを比較しているが、これに限定される必要はなく、主要被写体領域における各顕著度の平均値と、他の被写体領域の平均値とを比較することも可能である。   In this embodiment, the total value (integrated value) of each saliency in the main subject area is compared with the total value of each saliency in the other subject areas, but the present invention is not limited to this. It is also possible to compare the average value of each saliency in the subject area with the average value of other subject areas.

本実施形態では、主要被写体領域における顕著度が他の領域の合計値よりも低くなる場合に、主要被写体領域における顕著度が他の領域の顕著度よりも高くなるように、主要被写体領域に対する画像補正を行っているが、これに限定される必要はなく、他の領域の顕著度が主要被写体領域の顕著度の合計値よりも低くなるように、他の領域に対する画像補正を行うことも可能である。この場合、他の領域の顕著度(例えば輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度)が元の値よりも低くなるように画像補正を行ってもよいし、輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度の少なくともいずれか1つの顕著度が、主要被写体領域の顕著度よりも低くなるように画像補正を行ってもよい。   In the present embodiment, when the saliency in the main subject region is lower than the total value of the other regions, the image for the main subject region is set so that the saliency in the main subject region is higher than the saliency in the other regions. Although correction is performed, it is not necessary to be limited to this, and it is also possible to perform image correction on other areas so that the saliency of the other areas is lower than the total saliency of the main subject area. It is. In this case, image correction may be performed so that the saliency of other regions (for example, the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component) is lower than the original value, Image correction may be performed so that at least one of the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component is lower than the saliency of the main subject region.

例えば、輝度成分の顕著度を下げる場合には、その他の被写体領域に含まれる画素の画素値に対してローパスフィルタ処理を施すことで、その他の被写体領域におけるコントラストを低下させる。なお、その他の被写体領域に含まれる画素の画素値に対してローパスフィルタ処理を行う代わりに、その他の被写体領域に含まれる画素の画素値に対するγ特性を変更した階調変換処理を行うことも可能である。さらに、その他の被写体領域に含まれる画素の画素値に対するローパスフィルタ処理と、その他の被写体領域に含まれる画素の画素値に対するγ特性を変更した階調変換処理とを併用することも可能である。   For example, when the saliency of the luminance component is lowered, low-pass filter processing is performed on the pixel values of the pixels included in the other subject areas, thereby reducing the contrast in the other subject areas. In addition, instead of performing low-pass filter processing on the pixel values of pixels included in other subject areas, it is also possible to perform gradation conversion processing that changes the γ characteristics for the pixel values of pixels included in other subject areas. It is. Furthermore, it is also possible to use a low-pass filter process for pixel values of pixels included in other subject areas and a gradation conversion process in which the γ characteristics for the pixel values of pixels included in other subject areas are changed.

また、色成分の顕著度を下げる場合には、赤(R)色成分値と緑(G)色成分値との差分、又は青(B)色成分値と黄(Y)色成分値との差分のいずれか一方の差分を小さくするように、画像補正を行う。   Further, when the saliency of the color component is lowered, the difference between the red (R) color component value and the green (G) color component value, or the blue (B) color component value and the yellow (Y) color component value. Image correction is performed so as to reduce one of the differences.

また、方向性エッジ成分の顕著度を下げる場合には、その他の被写体領域に対してローパスフィルタ処理を施すことで対応することが可能となる。なお、方向性エッジ成分の顕著度を下げる場合には、0度、45度、90度、135度の4方向のエッジ成分のうち、少なくともいずれか1方向のエッジ成分の顕著度を変更するように画像補正を実行すればよい。   Further, when the saliency of the directional edge component is lowered, it can be dealt with by performing low-pass filter processing on other subject areas. In order to reduce the saliency of the directional edge component, the saliency of the edge component in at least one of the four direction edge components of 0 degree, 45 degrees, 90 degrees, and 135 degrees is changed. The image correction may be executed.

また、この他に、主要被写体領域の顕著度を高くする画像補正と、他の領域の顕著度を低くする画像補正との双方を並行して行うことも可能である。   In addition, it is also possible to perform both image correction for increasing the saliency of the main subject area and image correction for decreasing the saliency of the other areas in parallel.

本実施形態では、領域毎に顕著度毎の平均値を求め、求めた顕著度毎の平均値を合計した値を用いて、顕著度の比較を行っているが、これに限定される必要はなく、例えば各領域のそれぞれに対して、各顕著度の合計値の最大値を求め、求めた各顕著度の合計値の最大値を用いて顕著度の比較を行うことも可能である。   In this embodiment, the average value for each saliency is obtained for each region, and the saliency comparison is performed using a value obtained by summing the obtained average values for each saliency, but it is necessary to be limited to this. For example, the maximum value of the total value of each saliency can be obtained for each region, and the saliency can be compared using the maximum value of the calculated total value of each saliency.

本実施形態では、主要被写体領域と、主要被写体領域から所定範囲内に含まれる領域のうち、顕著度の高い領域とを用いて顕著度の比較を行っているが、これに限定される必要はなく、主要被写体領域を除いた領域のうち、顕著度が高い被写体の領域としてもよい。図6に示すように、灯台を背景として人物を撮像した場合、人物の顔の領域70と、灯台の領域71とが離れた画像I’となる。このような場合には、主要被写体領域として人物の顔の領域70が、顕著度の比較を行う領域として灯台の領域71がそれぞれ抽出される。そして、これら領域70,71を用いて顕著度が比較された後、必要に応じて、画像補正処理が実行される。   In the present embodiment, the saliency comparison is performed using the main subject region and a region having a high saliency among the regions included in the predetermined range from the main subject region. However, the present invention is not limited to this. Alternatively, it may be a subject area with a high degree of saliency among the areas excluding the main subject area. As shown in FIG. 6, when a person is imaged with a lighthouse in the background, an image I ′ in which the person's face area 70 and the lighthouse area 71 are separated from each other is obtained. In such a case, the human face area 70 is extracted as the main subject area, and the lighthouse area 71 is extracted as the area for comparing the saliency. Then, after the saliency is compared using these areas 70 and 71, image correction processing is executed as necessary.

本実施形態では、主要被写体領域における顕著度が、他の領域の顕著度よりも低くなる場合に、主要被写体領域に対して画像補正処理を行い、主要被写体領域における顕著度を、他の領域の顕著度よりも高くしている。しかしながら、実際に得られた画像データに対して施される画像補正処理の程度によっては、画像補正処理を施す前の元の画像との同一性が保てなくなるという問題がある。このため、画像補正処理にて補正される顕著度の補正量を制限してもよい。また、元の画像との同一性を保つために、輝度成分、色成分及び方向性エッジ成分の各成分に対して、画像補正処理を実行する際の優先順位を設定する。   In this embodiment, when the saliency in the main subject area is lower than the saliency in the other areas, image correction processing is performed on the main subject area, and the saliency in the main subject area It is higher than saliency. However, depending on the degree of image correction processing performed on the actually obtained image data, there is a problem that the sameness as the original image before the image correction processing cannot be maintained. For this reason, you may restrict | limit the correction amount of the saliency corrected by image correction processing. In addition, in order to maintain the sameness as the original image, a priority order in executing image correction processing is set for each of the luminance component, the color component, and the directional edge component.

例えば主要被写体領域における輝度成分の顕著度、色成分の顕著度、方向性エッジ成分の顕著度が、0.2,0.1,0.5となる場合について考慮する。この場合、顕著度の補正量の上限値を、例えば元の顕著度の値の2倍とする。また、画像補正処理において、色成分に対する画像補正処理の優先順位を第1順位とし、輝度成分に対する画像補正処理の優先順位を第2順位、方向性エッジ成分に対する画像補正処理の優先順位を第3順位にそれぞれ設定する。この場合、主要被写体の顕著度の合計値が0.8である。例えば顕著度の比較を上で対象となる被写体領域の顕著度の合計値が1.0となる場合には、主要被写体領域に対して画像補正処理が実行される。この場合、色成分に対する画像補正処理の優先順位が第1順位であることから、色成分に対する画像補正処理が最初に実行される。この色成分に対する画像補正処理を行うことで、色成分の顕著度が2倍(0.2)となる。その結果、主要被写体領域における輝度成分の顕著度、色成分の顕著度及び方向性エッジ成分の顕著度は、0.2,0.2,0.5となる。つまり、主要被写体領域の顕著度の合計値が0.9となる。   For example, consider the case where the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component in the main subject region are 0.2, 0.1, and 0.5. In this case, the upper limit value of the saliency correction amount is, for example, twice the original saliency value. In the image correction process, the priority order of the image correction process with respect to the color component is set to the first order, the priority order of the image correction process with respect to the luminance component is the second order, and the priority order of the image correction process with respect to the directional edge component is the third order. Set each to the ranking. In this case, the total value of the saliency of the main subject is 0.8. For example, when the total value of the saliency of the subject areas that are the targets in the comparison of the saliency is 1.0, the image correction process is executed on the main subject area. In this case, since the priority order of the image correction process for the color component is the first order, the image correction process for the color component is executed first. By performing the image correction process for this color component, the saliency of the color component is doubled (0.2). As a result, the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component in the main subject region are 0.2, 0.2, and 0.5. That is, the total saliency value of the main subject area is 0.9.

一方、他の領域の顕著度の合計値は1.0であり、主要被写体領域の顕著度の合計値(0.9)よりも高いので、再度画像補正処理が必要となる。輝度成分に対する画像補正処理の優先順位が第2順位に設定されているので、輝度成分に対する画像補正処理が次に実行される。その結果、主要被写体領域における輝度成分の顕著度、色成分の顕著度及び方向性エッジ成分の顕著度は、0.4,0.2,0.5となる。つまり、主要被写体領域の顕著度の合計値が1.1となる。輝度成分に対する画像補正処理を行うことで、主要被写体領域の顕著度の合計値が、他の領域の顕著度の合計値を超過するので、主要被写体領域に対する画像補正処理が終了する。なお、輝度成分に対する画像補正処理を行った後の被写体領域の顕著度の合計値が、他の領域の顕著度の合計値を超過しない場合には、方向性エッジ成分に対する画像補正処理が実施される。   On the other hand, the total value of the saliency of the other areas is 1.0, which is higher than the total value (0.9) of the saliency of the main subject area, and thus image correction processing is required again. Since the priority order of the image correction process for the luminance component is set to the second order, the image correction process for the luminance component is executed next. As a result, the saliency of the luminance component, the saliency of the color component, and the saliency of the directional edge component in the main subject region are 0.4, 0.2, and 0.5. That is, the total saliency value of the main subject area is 1.1. By performing the image correction process on the luminance component, the total value of the saliency of the main subject area exceeds the total value of the saliency of the other areas, and thus the image correction process on the main subject area ends. If the total value of the saliency of the subject area after performing the image correction process on the luminance component does not exceed the total value of the saliency of other areas, the image correction process on the directional edge component is performed. The

この場合も、主要被写体領域に対して画像補正処理を実行し、主要被写体領域における顕著度の合計値を高く変更しているが、これに限定される必要はなく、顕著度の比較を行う上で対象となる主要被写体領域以外の被写体領域に対して画像補正処理を実行し、該被写体領域における顕著度の合計値を元の合計値よりも低く設定することも可能である。   In this case as well, the image correction process is performed on the main subject region and the total value of the saliency in the main subject region is changed to a high value. However, the present invention is not limited to this. It is also possible to execute image correction processing on subject areas other than the main subject area, and set the total saliency value in the subject area lower than the original total value.

上記の例で、輝度成分、色成分、方向性エッジ成分の各顕著度を変更するための、画像補正制限値として、個別に制限値が設定されていた場合には、主要被写体領域において、第1順位の例えば色成分の顕著度が大きくなる補正を色成分補正の制限値まで行った上で、各成分の顕著度の合計値を算出する。その上で、主要被写体の顕著度の合計値が、他の領域の顕著度より低い場合には、第2順位の例えば輝度成分について同様の補正を行う構成としてもよい。   In the above example, when limit values are individually set as image correction limit values for changing the saliency of the luminance component, color component, and directional edge component, For example, the correction of increasing the saliency of the color component in the first rank is performed up to the limit value of the color component correction, and then the total value of the saliency of each component is calculated. In addition, when the total value of the saliency of the main subject is lower than the saliency of the other area, the same correction may be performed on, for example, the luminance component in the second rank.

本実施形態では、撮像時のシーンについては考慮していないが、撮像時のシーンを考慮した上で画像補正処理を実行することも可能である。例えば集合写真を取得する場合、撮像範囲(画像)内には複数の人物が含まれている。この場合、複数の人物の顔の領域のそれぞれの焦点評価値を求め、求めた焦点評価値に基づいたAF動作が行われる。つまり、複数の人物の顔のそれぞれがAFエリアとなる。この場合も、本実施形態と同様にして、各AFエリアに含まれる、同系色の色成分値(所定の範囲に含まれる色成分値)の領域を主要被写体領域として抽出する。   In this embodiment, the scene at the time of imaging is not taken into consideration, but the image correction process can be executed in consideration of the scene at the time of imaging. For example, when acquiring a group photo, a plurality of persons are included in the imaging range (image). In this case, the focus evaluation values of the face areas of a plurality of persons are obtained, and an AF operation based on the obtained focus evaluation values is performed. That is, each of a plurality of human faces becomes an AF area. Also in this case, similarly to the present embodiment, regions of similar color component values (color component values included in a predetermined range) included in each AF area are extracted as main subject regions.

図7に示すように、画像I”から主要被写体領域として、人物の顔の領域(符号81乃至符号90に示す領域)が複数抽出された場合、CPU20は、撮像シーンを集合写真と判定する。この場合も、本実施形態と同様に、データ処理回路23は、取り込まれた画像データを用いて顕著性マップを生成する。データ処理回路23は、生成された顕著性マップに基づいて、抽出された複数の人物の顔の領域における顕著度をそれぞれ求める。データ処理回路23は、複数の人物の顔の領域毎の顕著度が、その平均値に対して所定の範囲に含まれるか否かを判定する。データ処理回路23は、複数の人物の顔の領域毎の顕著度が、その平均値に対して所定の範囲に含まれる場合には、画像データに対して画像補正を実行せずに終了する。一方、複数の人物の顔の領域の顕著度が、その平均値に対して所定の範囲から外れる場合には、顕著度が所定の範囲から外れる人物の顔の領域に対して画像補正処理を施し、該領域における顕著度が所定の範囲内に含まれるよう補正する。   As shown in FIG. 7, when a plurality of human face areas (areas indicated by reference numerals 81 to 90) are extracted from the image I ″ as the main subject area, the CPU 20 determines that the captured scene is a group photograph. Also in this case, as in the present embodiment, the data processing circuit 23 generates a saliency map using the captured image data, and the data processing circuit 23 is extracted based on the generated saliency map. The data processing circuit 23 determines whether the saliency for each face area of the plurality of persons is within a predetermined range with respect to the average value. The data processing circuit 23 does not perform image correction on the image data when the saliency for each face area of a plurality of persons is included in a predetermined range with respect to the average value. On the other hand, If the saliency of the person's face area deviates from the predetermined range with respect to the average value, image correction processing is performed on the face area of the person whose saliency deviates from the predetermined range, So that the saliency at is included within a predetermined range.

ところで、集合写真を撮像する際には、主要被写体である複数の人物の他に、通行人など主要被写体ではない人物が撮像範囲や取得された画像に含まれる場合がある。このような場合には、データ処理回路23は、上述した被写体抽出処理に加えて、主要被写体である人物と、それ以外の人物とを識別する処理を実行する。なお、主要被写体である人物と、それ以外の人物とを識別する処理としては、検出される複数の人物の顔の領域のうち、大きさ(面積)が大きく異なる領域があるか否か、或いは、それぞれの領域の特徴量が大きく異なる領域があるか否か、または周波数成分の分布が異なる領域があるか否か、あるいは動きが他の人物と異なる人物があるかなど、適宜の方法が挙げられる。   By the way, when taking a group photo, in addition to a plurality of persons as main subjects, persons who are not main subjects such as passers-by may be included in the imaging range and acquired images. In such a case, in addition to the subject extraction process described above, the data processing circuit 23 executes a process of identifying a person who is a main subject and other persons. The process for identifying the person who is the main subject and the other person is whether or not there is an area having a greatly different size (area) from among the detected face areas of the persons, or Appropriate methods such as whether there is a region where the feature amount of each region is significantly different, whether there is a region where the distribution of frequency components is different, or whether there is a person whose motion is different from other people, etc. It is done.

データ処理回路23は、主要被写体である人物と、それ以外の人物とを識別する処理を行った後、抽出された被写体領域を主要被写体領域と、その他の被写体領域とに分類する。そして、データ処理回路23は、主要被写体領域の顕著度と、その他の被写体領域の顕著度とを比較する。最後に、データ処理回路23は、主要被写体領域の顕著度が、その他の被写体領域の顕著度よりも低い場合に、主要被写体領域に対する画像補正処理を実行し、主要被写体領域の顕著度をその他の被写体領域の顕著度よりも高くする。なお、データ処理回路23は、その他の被写体領域に対して画像補正処理を実行して、その他の被写体領域の顕著度を主要被写体領域の顕著度よりも低くしてもよい。   The data processing circuit 23 classifies the extracted subject area into a main subject area and other subject areas after performing a process of identifying a person who is a main subject and other persons. Then, the data processing circuit 23 compares the saliency of the main subject area with the saliency of the other subject areas. Finally, when the saliency of the main subject area is lower than the saliency levels of the other subject areas, the data processing circuit 23 executes image correction processing on the main subject area, and sets the saliency of the main subject area to the other saliency levels. It should be higher than the saliency of the subject area. The data processing circuit 23 may perform image correction processing on other subject areas so that the saliency of the other subject areas is lower than the saliency of the main subject area.

なお、集合写真を例に取り上げているが、これに限定される必要はなく、通常の撮像においても、複数の人物が撮像範囲に含まれる場合がある。このような場合であっても、主要被写体領域と、その他の被写体領域とのいずれか一方に識別し、いずれかの領域に対して画像補正処理を施すことで、主要被写体領域の顕著度を、その他の被写体領域の顕著度よりも高くすることができる。   Note that the group photo is taken as an example, but the present invention is not limited to this, and a plurality of persons may be included in the imaging range even in normal imaging. Even in such a case, the saliency of the main subject region is determined by identifying the main subject region and any one of the other subject regions and performing image correction processing on any of the regions. It can be made higher than the saliency of other subject areas.

ここで、抽出される複数の被写体領域から主要被写体領域か否かを判定する場合、予め主要被写体である顔画像を登録しておき、抽出される複数の被写体領域に、該顔画像と特徴量が近似する被写体領域を主要被写体領域とする。そして、データ処理回路は、顕著性マップを用いて、主要被写体領域の顕著度と、その他の被写体領域の顕著度との比較を行う。この比較に基づいて、データ処理回路は画像補正を実行する。   Here, when determining whether or not it is a main subject area from a plurality of extracted subject areas, a face image that is a main subject is registered in advance, and the face image and the feature amount are registered in the plurality of extracted subject areas. A subject area that approximates is a main subject area. Then, the data processing circuit uses the saliency map to compare the saliency of the main subject region with the saliency of other subject regions. Based on this comparison, the data processing circuit performs image correction.

本実施形態では、撮像装置としているが、具体的には、デジタルカメラ、カメラ機能を備えた携帯型電話機に代表される携帯型端末機などが挙げられる。また、この他に、図1〜図3に示すデータ処理回路23の各部の機能や、図4のフローチャートの機能を備えた画像処理装置であっても、本発明を適用することが可能である。さらに、撮像装置や画像処理装置の他に、デジタルカメラなどの撮像装置と、PCとからなる撮像システムに適用することができる。   In the present embodiment, the imaging apparatus is used. Specifically, a digital camera, a portable terminal represented by a portable phone having a camera function, and the like can be given. In addition, the present invention can also be applied to an image processing apparatus having the functions of the respective units of the data processing circuit 23 shown in FIGS. 1 to 3 and the function of the flowchart of FIG. . Furthermore, in addition to the imaging device and the image processing device, the invention can be applied to an imaging system including an imaging device such as a digital camera and a PC.

例えば画像処理装置の場合には、入力される画像データに対して、顕著性マップを生成する処理、被写体領域を抽出する処理及び画像補正する処理を実行すればよい。なお。画像処理装置に入力される画像データは、信号処理が施された画像データであってもよいし、信号処理が施される前の画像データであってもよい。   For example, in the case of an image processing apparatus, a process of generating a saliency map, a process of extracting a subject area, and a process of correcting an image may be executed on input image data. Note that. The image data input to the image processing apparatus may be image data that has undergone signal processing, or image data that has not been subjected to signal processing.

本実施形態では、撮像装置を例に取り上げているが、図1〜図3に示すデータ処理回路23の各部の機能や、図4のフローチャートの機能をPCなどのコンピュータにて実行させることが可能な画像補正プログラムであってもよい。この画像補正プログラムは、メモリカード、磁気ディスク、光学ディスクなどのコンピュータにて読み取ることが可能な記憶媒体に記憶されていることが好ましい。   In the present embodiment, the imaging apparatus is taken as an example, but the functions of the respective units of the data processing circuit 23 shown in FIGS. 1 to 3 and the functions of the flowchart of FIG. 4 can be executed by a computer such as a PC. An image correction program may be used. This image correction program is preferably stored in a computer-readable storage medium such as a memory card, magnetic disk, or optical disk.

10…撮像装置、20…CPU、22…信号処理回路、23…データ処理回路、24…液晶モニタ、27…記憶媒体、31…マップ生成部、32…被写体抽出部、33…画像補正部、41…輝度情報抽出部、42…色情報抽出部、43…エッジ情報抽出部、44…マップ合成部   DESCRIPTION OF SYMBOLS 10 ... Imaging device, 20 ... CPU, 22 ... Signal processing circuit, 23 ... Data processing circuit, 24 ... Liquid crystal monitor, 27 ... Storage medium, 31 ... Map generation part, 32 ... Subject extraction part, 33 ... Image correction part, 41 ... Luminance information extraction part, 42 ... Color information extraction part, 43 ... Edge information extraction part, 44 ... Map composition part

Claims (17)

入力画像に含まれる第1領域を抽出する領域検出手段と、
前記入力画像を用いて、複数の特徴要素に基づく顕著度の分布を示す顕著性マップを生成するマップ生成手段と、
前記領域検出手段により抽出された前記第1領域、及び前記マップ生成手段により生成された前記顕著性マップに基づいて、前記第1領域又は該第1領域を除く第2領域の少なくとも一方に対して画像補正を行う画像補正手段と、
を備えたことを特徴とする画像処理装置。
Area detecting means for extracting a first area included in the input image;
Map generating means for generating a saliency map indicating a distribution of saliency based on a plurality of feature elements using the input image;
Based on the first region extracted by the region detection unit and the saliency map generated by the map generation unit, at least one of the first region or the second region excluding the first region Image correction means for performing image correction;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記画像補正手段は、前記第1領域の顕著度が前記第2領域の顕著度より低くなる場合に前記第1領域に対して画像補正を施し、前記第1領域の顕著度を前記第2領域の顕著度より高くすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image correction means performs image correction on the first area when the saliency of the first area is lower than the saliency of the second area, and sets the saliency of the first area to the second area. An image processing apparatus characterized in that the image processing apparatus has a higher degree of saliency.
請求項2に記載の画像処理装置において、
前記画像補正手段は、前記複数の特徴要素のうち、前記第2領域における顕著度が最も低い特徴要素に対する画像補正を前記第1領域に対して施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing apparatus, wherein the image correction unit performs image correction on a feature element having the lowest saliency in the second area among the plurality of feature elements.
請求項2に記載の画像処理装置において、
前記画像補正手段は、前記複数の特徴要素のうち、前記第1領域における顕著度が最も低い特徴要素に対する画像補正を前記第1領域に対して施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing device according to claim 1, wherein the image correction unit performs image correction on a feature element having the lowest saliency in the first region among the plurality of feature elements.
請求項1に記載の画像処理装置において、
前記画像補正手段は、前記第2領域の顕著度が前記第1領域の顕著度より高くなる場合に前記第2領域に対して画像補正を施し、前記第2領域の顕著度を前記第1領域の顕著度より低くすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image correction unit performs image correction on the second area when the saliency of the second area is higher than the saliency of the first area, and sets the saliency of the second area to the first area. An image processing apparatus characterized by lowering the saliency of the image.
請求項5に記載の画像処理装置において、
前記画像補正手段は、前記複数の特徴要素のうち、前記第2領域における顕著度が最も高い特徴要素に対する画像補正を前記第2領域に対して施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The image processing apparatus, wherein the image correction unit performs image correction on a feature element having the highest saliency in the second area among the plurality of feature elements.
請求項1から請求項6のいずれか1項に記載の画像処理装置において、
前記第2領域は、前記第1領域から所定範囲内の領域であることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The image processing apparatus according to claim 1, wherein the second area is an area within a predetermined range from the first area.
請求項1から請求項6のいずれか1項に記載の画像処理装置において、
前記第2領域は、前記第1領域の顕著度よりも高い顕著度となる領域であることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The image processing apparatus according to claim 2, wherein the second area is an area having a higher saliency than the saliency of the first area.
請求項1から請求項8のいずれか1項に記載の画像処理装置において、
前記第1領域は、前記画像に含まれる主要被写体の領域であり、
前記領域検出手段は、前記画像を取得した際に焦点調節を行う際に用いた領域に基づいて、前記主要被写体の領域を前記第1領域として抽出することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 8,
The first area is an area of a main subject included in the image,
The image processing apparatus according to claim 1, wherein the area detection unit extracts the area of the main subject as the first area based on an area used when focus adjustment is performed when the image is acquired.
請求項1から請求項9のいずれか1項に記載の画像処理装置において、
前記画像補正手段により画像補正された画像を表示する表示手段を備えていることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 9,
An image processing apparatus comprising display means for displaying an image image-corrected by the image correction means.
請求項1から請求項10のいずれか1項に記載の画像処理装置において、
前記マップ生成手段により生成された前記顕著性マップと、前記画像補正手段により画像補正された画像とを関連付けて記憶する記憶手段を、さらに備えていることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 10,
An image processing apparatus, further comprising a storage unit that stores the saliency map generated by the map generation unit in association with the image corrected by the image correction unit.
請求項1から請求項6のいずれか1項に記載の画像処理装置において、
前記複数の特徴要素のそれぞれに対して、前記画像補正手段における画像補正に対する優先順位を設定する設定手段を備え、
前記画像補正手段は、前記複数の特徴要素のうち、前記設定手段により設定された優先順位が高く設定された特徴要素から順に、前記画像補正を実行することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
For each of the plurality of feature elements, comprising setting means for setting a priority order for image correction in the image correction means,
The image correction unit, wherein the image correction unit executes the image correction in order from a feature element set with a high priority set by the setting unit among the plurality of feature elements.
請求項1に記載の画像処理装置において、
前記画像のシーンを判断する判断手段を備え、
前記領域検出手段は、前記判断手段により前記画像から複数の人物の集合写真のシーンであると判定されたときに、複数の人物の領域を前記第1領域として、それぞれ検出し、
前記画像補正手段は、前記第1領域毎の顕著度が所定範囲内に含まれるように、前記複数の人物の領域のそれぞれに対して画像補正を施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
A determination means for determining a scene of the image;
The area detection means detects a plurality of person areas as the first area when the determination means determines that the scene is a group photo of a plurality of persons from the image, respectively.
The image processing apparatus according to claim 1, wherein the image correction unit performs image correction on each of the plurality of person areas so that the saliency for each of the first areas is included in a predetermined range.
請求項13に記載の画像処理装置において、
前記領域検出手段は、前記複数の人物の領域の他に、該複数の人物を除く人物の領域を検出し、
前記画像補正手段は、前記複数の人物の領域の顕著度が前記複数の人物を除く人物の領域の顕著度よりも高くなるように、前記複数の人物の領域、又は前記複数の人物を除く人物の領域に対する画像補正を施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 13.
The area detecting means detects a person area excluding the plurality of persons in addition to the plurality of person areas,
The image correction means may be configured such that the areas of the plurality of persons or the persons excluding the plurality of persons are such that the saliency of the areas of the plurality of persons is higher than the saliency of the areas of the persons excluding the plurality of persons. An image processing apparatus characterized in that image correction is performed on the area.
請求項1に記載の画像処理装置において、
前記領域検出手段は、前記画像に含まれる複数の人物の領域を検出することが可能であり、
前記画像補正手段は、前記複数の人物の領域のうち、主要被写体となる人物の領域における顕著度が、他の人物の領域における顕著度よりも高くなるように、前記主要被写体となる人物の領域、又は前記他の人物の領域のいずれか一方に対して画像補正を施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The area detecting means can detect areas of a plurality of persons included in the image,
The image correction unit is configured such that, among the plurality of person areas, the saliency in the person area as the main subject is higher than the saliency in the other person areas. Or an image processing apparatus that performs image correction on one of the areas of the other person.
請求項1から請求項15のいずれか1項に記載の画像処理装置と、
前記入力画像を取得する撮像素子と、を備えたことを特徴とする撮像装置。
The image processing apparatus according to any one of claims 1 to 15,
An image pickup apparatus comprising: an image pickup device that acquires the input image.
入力画像に含まれる第1領域を抽出する領域検出工程と、
前記入力画像を用いて、複数の特徴要素に基づく顕著度の分布を示す顕著性マップを生成するマップ生成工程と、
前記領域検出工程により抽出された前記第1領域、及び前記マップ生成工程により生成された前記顕著性マップに基づいて、前記第1領域又は該第1領域を除く第2領域の少なくとも一方に対して画像補正を行う画像補正工程と、
をコンピュータに実行させることが可能な画像処理プログラム。
A region detection step of extracting a first region included in the input image;
A map generation step of generating a saliency map indicating a distribution of saliency based on a plurality of feature elements using the input image;
Based on the first region extracted by the region detection step and the saliency map generated by the map generation step, at least one of the first region or the second region excluding the first region An image correction process for performing image correction;
An image processing program capable of causing a computer to execute.
JP2012157585A 2012-07-13 2012-07-13 Image processing apparatus, imaging apparatus, and image processing program Pending JP2014022826A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012157585A JP2014022826A (en) 2012-07-13 2012-07-13 Image processing apparatus, imaging apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012157585A JP2014022826A (en) 2012-07-13 2012-07-13 Image processing apparatus, imaging apparatus, and image processing program

Publications (1)

Publication Number Publication Date
JP2014022826A true JP2014022826A (en) 2014-02-03

Family

ID=50197292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012157585A Pending JP2014022826A (en) 2012-07-13 2012-07-13 Image processing apparatus, imaging apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP2014022826A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071734A (en) * 2014-09-30 2016-05-09 キヤノン株式会社 Image processor and control method thereof, program, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071734A (en) * 2014-09-30 2016-05-09 キヤノン株式会社 Image processor and control method thereof, program, and storage medium
US10121067B2 (en) 2014-09-30 2018-11-06 Canon Kabushiki Kaisha Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
US9854149B2 (en) Image processing apparatus capable of obtaining an image focused on a plurality of subjects at different distances and control method thereof
KR101142316B1 (en) Image selection device and method for selecting image
US8922669B2 (en) Image processing apparatus having a display unit and image processing program for controlling the display unit
JP5736796B2 (en) Electronic camera, program and recording medium
US8244059B2 (en) Image processing method, apparatus, recording medium, and image pickup apparatus
US9092659B2 (en) Subject determination apparatus that determines whether or not subject is specific subject
JP2008197837A (en) Image processor
JP2005130468A (en) Imaging apparatus and its control method
JP2011054071A (en) Image processing device, image processing method and program
KR20170067634A (en) Image capturing apparatus and method for controlling a focus detection
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
EP4199528A1 (en) Image processing apparatus, image capture apparatus, and image processing method
JP2010213105A (en) Imaging apparatus
JP2010041607A (en) Image capturing apparatus, method of controlling the same and program
JP2014022826A (en) Image processing apparatus, imaging apparatus, and image processing program
JP6450107B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2018106763A (en) Imaging apparatus
JP6318535B2 (en) Imaging device
JP2015118274A (en) Imaging device, imaging device control method, and program
JP2012084178A (en) Image processing device, image processing method, and program
JP5287965B2 (en) Image processing apparatus, image processing method, and program
JP2009130840A (en) Imaging apparatus, control method thereof ,and program
JP2010028370A (en) Imaging device