JP2010092094A - Image processing apparatus, image processing program, and digital camera - Google Patents

Image processing apparatus, image processing program, and digital camera Download PDF

Info

Publication number
JP2010092094A
JP2010092094A JP2008258543A JP2008258543A JP2010092094A JP 2010092094 A JP2010092094 A JP 2010092094A JP 2008258543 A JP2008258543 A JP 2008258543A JP 2008258543 A JP2008258543 A JP 2008258543A JP 2010092094 A JP2010092094 A JP 2010092094A
Authority
JP
Japan
Prior art keywords
image processing
image
evaluation value
unit
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008258543A
Other languages
Japanese (ja)
Inventor
Ikuya Saito
郁哉 斎藤
Hiroki Kusayanagi
弘樹 草柳
Masanaga Nakamura
正永 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008258543A priority Critical patent/JP2010092094A/en
Publication of JP2010092094A publication Critical patent/JP2010092094A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing program and a digital camera providing images favorable as portrait photos. <P>SOLUTION: The image processing apparatus includes a subject extraction unit for extracting a main subject from an image, and determining the range of a background area in the image not including the main subject, an evaluation value calculating unit for evaluating the expression of the main subject, and calculating an expression evaluation value indicating the degree of the expression, and an image processing unit which performs a blurring process on the background area according to the expression evaluation value. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理を行う画像処理装置、画像処理プログラム及びそれらを備えたデジタルカメラに関する。   The present invention relates to an image processing apparatus that performs image processing, an image processing program, and a digital camera including them.

従来から、被写体の表情を認識し、この認識結果に基づいて画像処理を行うデジタルカメラが知られる。例えば、特許文献1のデジタルカメラは、被写体の表情に応じて画像の明るさ補正、テキストやキャラクタの写し込みなどを行う。
特開2001−51338号公報
2. Description of the Related Art Conventionally, a digital camera that recognizes a facial expression of a subject and performs image processing based on the recognition result is known. For example, the digital camera disclosed in Patent Document 1 performs image brightness correction, text or character copying, and the like according to the facial expression of the subject.
JP 2001-51338 A

ところで、ポートレート撮影においては、背景をぼかし、主要被写体を浮かび上がらせる写真表現が好まれている。しかし、上述したデジタルカメラでは、背景をぼかさないため、必ずしも好ましい画像を得ることができなかった。   By the way, in portrait photography, a photographic expression that blurs the background and highlights the main subject is preferred. However, since the above-described digital camera does not blur the background, a preferable image cannot always be obtained.

そこで、本発明は、ポートレート写真として好ましい画像を取得する画像処理装置、画像処理プログラム及びデジタルカメラを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing program, and a digital camera that acquire a preferable image as a portrait photograph.

本発明の画像処理装置は、画像から主要被写体を抽出するとともに、前記画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出部と、前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出部と、前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理部とを備える。   The image processing apparatus of the present invention extracts a main subject from an image, evaluates a facial expression of the main subject, a subject extraction unit that determines a range of a background area that does not include the main subject in the image, An evaluation value calculation unit that calculates a facial expression evaluation value indicating the degree of the image, and an image processing unit that performs a blurring process on the background area according to the facial expression evaluation value.

なお、好ましくは、前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値が高いほどぼかし度合いを強くしても良い。   Preferably, the evaluation value calculation unit may calculate an evaluation value indicating the degree of smile as the facial expression evaluation value, and the image processing unit may increase the blurring degree as the facial expression evaluation value is higher.

また、好ましくは、前記画像処理部は、前記表情評価値が高いほど前記背景領域の輝度を上げても良い。   Preferably, the image processing unit may increase the luminance of the background region as the facial expression evaluation value is higher.

また、好ましくは、前記背景領域の空間周波数を解析する解析部をさらに備え、前記画像処理部は、高域周波数成分が多いほどぼかし度合いを強くしても良い。   Preferably, the image processing unit may further include an analysis unit that analyzes a spatial frequency of the background region, and the degree of blurring may be increased as the number of high-frequency components increases.

また、好ましくは、前記画像に対する前記主要被写体の顔領域の割合を算出する割合算出部をさらに備え、前記画像処理部は、前記顔領域の割合が閾値以上である場合に、ぼかし度合いを強くしても良い。   Preferably, the image processing unit further includes a ratio calculation unit that calculates a ratio of the face area of the main subject to the image, and the image processing unit increases the degree of blurring when the ratio of the face area is equal to or greater than a threshold value. May be.

また、好ましくは、前記背景領域の輝度を算出する輝度算出部をさらに備え、前記画像処理部は、前記輝度が低いほどぼかし度合いを強くしても良い。   Preferably, the image processing unit may further include a luminance calculation unit that calculates the luminance of the background region, and the degree of blurring may be increased as the luminance is lower.

また、好ましくは、前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、ぼかし度合いを強くしても良い。   Preferably, the image processing unit further includes an estimation unit that estimates at least one of the age and sex of the main subject, and the image processing unit uses the estimation unit to determine whether the age of the main subject is equal to or lower than a threshold value, or the main subject is a female. When it is estimated that, the degree of blurring may be increased.

また、好ましくは、前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、前記主要被写体の顔領域に対して赤味を増す色補正を施しても良い。   Preferably, the image processing unit is reddish with respect to a face area of the main subject when the estimation unit estimates that the age of the main subject is equal to or less than a threshold value or the main subject is a woman. Color correction to increase the color may be performed.

また、好ましくは、前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値に応じてぼかし形状を変更しても良い。   Preferably, the evaluation value calculation unit may calculate an evaluation value indicating the degree of smile as the facial expression evaluation value, and the image processing unit may change a blur shape according to the facial expression evaluation value.

また、好ましくは、前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、前記画像処理部は、前記推定部の推定結果に応じてぼかし形状を変更しても良い。   Preferably, the image processing unit may further include an estimation unit that estimates at least one of age and sex of the main subject, and the image processing unit may change a blur shape according to an estimation result of the estimation unit.

また、好ましくは、前記評価値算出部は、怒りの程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値が閾値以上である場合に、前記主要被写体の頭部の上部分だけにぼかし処理を施しても良い。   Preferably, the evaluation value calculation unit calculates an evaluation value indicating a degree of anger as the facial expression evaluation value, and the image processing unit determines that the main subject is in the case where the facial expression evaluation value is greater than or equal to a threshold value. Only the upper part of the head may be blurred.

また、好ましくは、前記評価値算出部は、悲しみの程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値が閾値以上である場合に、前記背景領域の色調をモノトーンまたはセピア調にする色補正を施しても良い。   Preferably, the evaluation value calculation unit calculates an evaluation value indicating a degree of sadness as the facial expression evaluation value, and the image processing unit determines that the background region has a background value when the facial expression evaluation value is equal to or greater than a threshold value. You may perform the color correction which makes a color tone a monotone or a sepia tone.

また、好ましくは、前記画像のうち、所定の表情の画像を表示する表示部と、前記表示部に表示された前記画像からいずれかを選択する選択部とをさらに備え、前記画像処理部は、前記選択部により選択された前記画像に対してぼかし処理を施しても良い。   Preferably, the image processing unit further includes a display unit that displays an image of a predetermined facial expression among the images, and a selection unit that selects any one of the images displayed on the display unit. Blur processing may be performed on the image selected by the selection unit.

本発明のデジタルカメラは、主要被写体を撮像することにより画像を取得する撮像部と、第1の発明に記載の画像処理装置とを備えるデジタルカメラであって、前記画像処理部は、少なくとも前記撮像部により取得した画像に対してぼかし処理を施す。   A digital camera according to the present invention is a digital camera including an imaging unit that acquires an image by imaging a main subject and the image processing apparatus according to the first invention, wherein the image processing unit includes at least the imaging Blur processing is performed on the image acquired by the section.

なお、好ましくは、前記主要被写体の表情に応じて前記撮像部を制御する撮像制御部をさらに備えても良い。   Preferably, an imaging control unit that controls the imaging unit according to the facial expression of the main subject may be further provided.

本発明の画像処理プログラムは、処理対象の画像データに対する画像処理をコンピュータで実現するための画像処理プログラムであって、画像から主要被写体を抽出するとともに、前記画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出ステップと、前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出ステップと、前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理ステップとを備える。   An image processing program of the present invention is an image processing program for realizing image processing on image data to be processed by a computer, and extracts a main subject from an image and does not include the main subject in the image. A subject extraction step for determining a range of a background region; an evaluation value calculation step for evaluating a facial expression of the main subject and calculating a facial expression evaluation value indicating a degree of facial expression; and the facial expression evaluation value for the background region. And an image processing step for performing a blurring process accordingly.

本発明の画像処理装置、画像処理プログラム及びデジタルカメラによれば、ポートレート写真として好ましい画像を取得することができる。   According to the image processing apparatus, the image processing program, and the digital camera of the present invention, a preferable image can be acquired as a portrait photograph.

(第1実施形態)
以下、図面を用いて本発明の第1実施形態について説明する。なお、本実施形態では、本発明の画像処理装置の一例として、デジタルカメラを用いて説明する。図1は、本発明の第1実施形態におけるデジタルカメラ1の構成を示すブロック図である。図1に示すように、デジタルカメラ1は、撮像レンズ2、撮像素子3、A/D変換部4、バッファメモリ5、画像処理部6、圧縮伸長処理部7、制御部10、表示部14、メモリ15、操作部16、記録I/F部19、記録媒体20、バス21を備える。
(First Embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In this embodiment, a digital camera is used as an example of the image processing apparatus of the present invention. FIG. 1 is a block diagram showing the configuration of the digital camera 1 according to the first embodiment of the present invention. As shown in FIG. 1, the digital camera 1 includes an imaging lens 2, an imaging device 3, an A / D conversion unit 4, a buffer memory 5, an image processing unit 6, a compression / decompression processing unit 7, a control unit 10, a display unit 14, A memory 15, an operation unit 16, a recording I / F unit 19, a recording medium 20, and a bus 21 are provided.

撮像レンズ2は、撮像素子3の撮像面に被写体像を結像する。撮像素子3は、撮像レンズ2を通過した光束による被写体像を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮影モードにおいて、撮像素子3は、所定間隔毎に間引き読み出しを行い、スルー画像を撮像する。その後、撮像素子3は、レリーズ釦17が全押しされると本画像を撮像する。また、撮像素子3は、後述する笑顔、怒り、悲しみの各表情モードにおいて、表情認識部12により、スルー画像から笑顔、怒り、悲しみの表情をそれぞれ認識した場合に、自動的に本画像を撮像することもできる。   The imaging lens 2 forms a subject image on the imaging surface of the imaging element 3. The image sensor 3 photoelectrically converts a subject image formed by a light beam that has passed through the imaging lens 2 and outputs analog image signals corresponding to the R, G, and B colors. In the shooting mode, the image sensor 3 performs thinning readout at predetermined intervals to capture a through image. Thereafter, the image sensor 3 captures the main image when the release button 17 is fully pressed. Further, the imaging device 3 automatically captures the main image when the facial expression recognition unit 12 recognizes a facial expression of smile, anger, and sadness from the through image in each facial expression mode of smile, anger, and sadness, which will be described later. You can also

撮像素子3から出力される画像信号は、A/D変換部4に入力される。A/D変換部4は、撮像素子3から出力されるアナログの画像信号をA/D変換し、デジタルの画像信号に変換する。なお、このデジタルの画像信号は、1コマにまとめられ、画像データとしてバッファメモリ5に記録される。バッファメモリ5は、画像処理部6による画像処理の前工程や後工程で画像データを一時的に記録する。   An image signal output from the image sensor 3 is input to the A / D converter 4. The A / D converter 4 performs A / D conversion on the analog image signal output from the image sensor 3 and converts the analog image signal into a digital image signal. The digital image signals are collected into one frame and recorded in the buffer memory 5 as image data. The buffer memory 5 temporarily records image data in the pre-process and post-process of image processing by the image processing unit 6.

画像処理部6は、バッファメモリ5に記憶された画像データに対して画像処理を施す。なお、この画像処理としては、周知のホワイトバランス調整、色補間、階調変換処理、輪郭強調処理などが挙げられる。また、画像処理部6は、本画像や記録媒体20に記録された画像に対して、後述するぼかし処理を施す。圧縮伸長処理部7は、解析部8、圧縮部9を有する。解析部8は、画像データに対して空間周波数の解析を行う。圧縮部9は、JPEG(Joint Photographic Experts Group)形式による圧縮伸長処理を実行する。   The image processing unit 6 performs image processing on the image data stored in the buffer memory 5. Examples of the image processing include well-known white balance adjustment, color interpolation, gradation conversion processing, and contour enhancement processing. Further, the image processing unit 6 performs a blurring process to be described later on the main image and the image recorded on the recording medium 20. The compression / decompression processing unit 7 includes an analysis unit 8 and a compression unit 9. The analysis unit 8 performs spatial frequency analysis on the image data. The compression unit 9 executes compression / decompression processing in JPEG (Joint Photographic Experts Group) format.

制御部10は、所定のシーケンスプログラムにしたがって、デジタルカメラ1の統括的な制御を行うとともに、撮像時に必要となる各種演算(AF、AEなど)を実行する。また、制御部10は、顔検出部11、表情認識部12、被写体抽出部13を有する。顔検出部11は、スルー画像、本画像、記録媒体20に記録された画像から特徴点を抽出して、後述する主要被写体Aの顔領域、顔の大きさ等を検出する。表情認識部12は、顔検出部11が検出した顔領域の表情を認識する。被写体抽出部13は、本画像、記録媒体20に記録された画像から主要被写体Aを抽出するとともに、後述する主要被写体Aを含まない背景領域Bの範囲を決定する。   The control unit 10 performs overall control of the digital camera 1 according to a predetermined sequence program, and executes various calculations (AF, AE, etc.) necessary for imaging. The control unit 10 includes a face detection unit 11, a facial expression recognition unit 12, and a subject extraction unit 13. The face detection unit 11 extracts feature points from the through image, the main image, and the image recorded on the recording medium 20, and detects the face area, the face size, and the like of the main subject A described later. The facial expression recognition unit 12 recognizes the facial expression detected by the face detection unit 11. The subject extraction unit 13 extracts the main subject A from the main image and the image recorded on the recording medium 20, and determines the range of the background region B that does not include the main subject A, which will be described later.

また、制御部10は、表情の程度を示す表情評価値を算出する。例えば、制御部10は、表情評価値として、笑顔の程度を示す笑顔評価値、怒りの程度を示す怒り評価値、悲しみの程度を示す悲しみ評価値を算出する。メモリ15は、制御部10により笑顔評価値、怒り評価値、悲しみ評価値の算出にそれぞれ用いられる笑顔評価基準テーブル、怒り評価基準テーブル、悲しみ評価基準テーブルを予め記憶する。各表情評価値、各評価基準テーブルについては、後述する。   Further, the control unit 10 calculates a facial expression evaluation value indicating the degree of facial expression. For example, the control unit 10 calculates, as facial expression evaluation values, a smile evaluation value indicating the degree of smile, an anger evaluation value indicating the degree of anger, and a sadness evaluation value indicating the degree of sadness. The memory 15 stores in advance a smile evaluation reference table, an anger evaluation reference table, and a sadness evaluation reference table that are used by the control unit 10 to calculate a smile evaluation value, an anger evaluation value, and a sadness evaluation value, respectively. Each facial expression evaluation value and each evaluation reference table will be described later.

表示部14は、制御部10の制御により各種の画像を表示する。表示部14に表示される各種の画像は、スルー画像、本画像、記録媒体20に記録された画像、メニュー画像などを含む。操作部16は、レリーズ釦17、操作釦18などを有する。レリーズ釦17は、撮像時にユーザにより操作される。操作釦18は、上記のメニュー画像等で操作される。なお、レリーズ釦17及び操作釦18の状態は制御部10により検知され、検知された釦の状態に基づいたシーケンスが実行される。記録I/F部19は、記録媒体20を接続するためのコネクタを備えている。この記録I/F部19と記録媒体20とが接続されることにより、記録媒体20に対してデータの書き込み/読み出しを実行する。バス21は、バッファメモリ5、画像処理部6、圧縮伸長処理部7、制御部10、表示部14、メモリ15、記録I/F部19を相互に接続することにより、データや信号の出入力を実行する。なお、A/D変換部4の出力はバス21を介して画像処理部6に接続される。   The display unit 14 displays various images under the control of the control unit 10. Various images displayed on the display unit 14 include a through image, a main image, an image recorded on the recording medium 20, a menu image, and the like. The operation unit 16 includes a release button 17 and an operation button 18. The release button 17 is operated by the user during imaging. The operation button 18 is operated with the menu image or the like. The state of the release button 17 and the operation button 18 is detected by the control unit 10, and a sequence based on the detected button state is executed. The recording I / F unit 19 includes a connector for connecting the recording medium 20. When the recording I / F unit 19 and the recording medium 20 are connected, data writing / reading is executed on the recording medium 20. The bus 21 connects the buffer memory 5, the image processing unit 6, the compression / decompression processing unit 7, the control unit 10, the display unit 14, the memory 15, and the recording I / F unit 19, thereby inputting and outputting data and signals. Execute. The output of the A / D converter 4 is connected to the image processor 6 via the bus 21.

ここで、ぼかし処理について説明する。本実施形態のぼかし処理は、点拡がり関数により輝点を拡げる処理である。図2は、ぼかし処理前後の輝点の輝度分布を示す図である。図2の縦軸は輝度を示し、横軸は輝度中心からの拡がりを示す。   Here, the blurring process will be described. The blurring process of the present embodiment is a process of expanding a bright spot using a point spread function. FIG. 2 is a diagram illustrating the luminance distribution of the bright spots before and after the blurring process. The vertical axis in FIG. 2 indicates the luminance, and the horizontal axis indicates the spread from the luminance center.

画像処理部6は、図2に示すように、ぼかし処理前後で輝点の輝度情報が同等になるようにぼかし処理を施す。なお、輝度情報とは、図2では、ぼかし処理前の輝点の面積、すなわち斜線が引かれた領域Eの面積と、ぼかし処理後の輝点の面積、すなわち斜線が引かれた領域Fの面積とに相当する。画像処理部6は、背景領域Bにぼかし処理を施すことにより、主要被写体Aが浮かび上がるように表現された画像を得ることができる。なお、本実施形態では、ぼかし度合いの指標として、輝度がピークの1/2となる部分の幅寸法を用いる。例えば、図2のぼかし度合いはDで表される。   As shown in FIG. 2, the image processing unit 6 performs the blurring process so that the luminance information of the bright spots is the same before and after the blurring process. In FIG. 2, the luminance information is the area of the bright spot before the blurring process, that is, the area of the area E that is shaded, and the area of the bright spot after the blurring process, that is, the area F of the area F that is hatched. It corresponds to the area. The image processing unit 6 can obtain an image expressed so that the main subject A emerges by performing a blurring process on the background region B. In the present embodiment, the width dimension of the portion where the luminance is ½ of the peak is used as an index of the blurring degree. For example, the blurring degree in FIG.

また、画像処理部6は、輝点の拡がり方(以下、ぼかし形状という)を変えることができる。ぼかし形状は、二次元画像上に拡がった輝点の形状と、中心から周辺への輝度の減衰とにバリエーションを持っている。図3は、ぼかし形状の例を示す図である。図3に示すように、ぼかし形状の種類としては、「丸1」、「丸2」、「星」などがあり、「丸1」を示すぼかし形状は、輝点の部分が円状に拡がり、かつ、輝点の輪郭が明瞭になるようにぼかす形状からなる。以下、「丸1」のぼかし形状については、符号31を付して説明する。「丸2」を示すぼかし形状は、輝点の部分が円状に拡がり、かつ、輝点の中心から放線方向に向けてグラデーション状に輝度が低くなるようにぼかす形状からなる。以下、「丸2」のぼかし形状については、符号32を付して説明する。「星」を示すぼかし形状は、輝点の部分が星状に拡がり、かつ、輝点の輪郭が明瞭になるようにぼかす形状からなる。以下、「星」のぼかし形状については、符号33を付して説明する。   Further, the image processing unit 6 can change the way in which the bright spots are spread (hereinafter referred to as a blur shape). The blur shape has variations in the shape of a bright spot spread on a two-dimensional image and the attenuation of luminance from the center to the periphery. FIG. 3 is a diagram illustrating an example of a blurred shape. As shown in FIG. 3, the types of blur shapes include “Circle 1”, “Circle 2”, “Star”, etc., and the blur shape indicating “Circle 1” has a bright spot spread in a circular shape. In addition, the shape is blurred so that the outline of the bright spot becomes clear. Hereinafter, the blurred shape of “circle 1” will be described with reference numeral 31. The blur shape indicating “Circle 2” has a shape in which the bright spot portion spreads in a circular shape and the brightness decreases in a gradation shape from the center of the bright spot toward the radial direction. Hereinafter, the blurring shape of “circle 2” will be described with reference numeral 32. The blur shape indicating “star” is a shape in which the bright spot portion spreads in a star shape and is blurred so that the outline of the bright spot becomes clear. Hereinafter, the “star” blur shape will be described with reference numeral 33.

主要被写体Aの背景領域Bがぼけた画像は、主要被写体Aや背景領域Bの状況により好ましいぼけ方が異なる。例えば、晴れた日の昼間の屋外のような明るい撮影シーンの場合は、「丸2」に示すぼかし形状32のような、輪郭が明瞭でないぼかし形状を用いる方が、主要被写体Aが浮かび上がって強調されるとともに、見た目にも違和感の少ないぼかし画像を作成することができる。一方、夜景のような暗い撮影シーンの場合は、「丸1」に示すぼかし形状31のような、輪郭が明瞭なぼかし形状を用いる方が、背景領域Bの輝点が強調され、印象的なぼかし画像を作成することができる。また、主要被写体Aが子供の画像では、「星」に示すぼかし形状33を用いると、楽しくメルヘンチックな効果が演出でき、ぼかし処理が有効に作用する。   An image in which the background region B of the main subject A is blurred differs depending on the situation of the main subject A and the background region B. For example, in the case of a bright shooting scene such as outdoors in the daytime on a sunny day, the main subject A appears more clearly by using a blurring shape with an unclear outline such as the blurring shape 32 shown in “Circle 2”. It is possible to create a blurred image that is emphasized and has a little uncomfortable appearance. On the other hand, in the case of a dark scene such as a night view, the bright spot of the background region B is emphasized and more impressive when a blur shape with a clear outline such as the blur shape 31 shown in “Circle 1” is used. A blurred image can be created. In the case where the main subject A is an image of a child, if the blurring shape 33 shown by “star” is used, a fun and fairy tale effect can be produced, and the blurring process works effectively.

なお、画像処理部6は、異なる点拡がり関数を用いることによって、ぼかし度合い及びぼかし形状を変更する。また、点拡がり関数の代わりに、ローパスフィルタ等の種々のデジタルフィルタを用いても、同様のぼかし処理を施すことができる。   The image processing unit 6 changes the blurring degree and the blurring shape by using different point spread functions. The same blurring process can be performed by using various digital filters such as a low-pass filter instead of the point spread function.

図4は、デジタルカメラ1における笑顔モードによる撮像時の制御部10の動作を示すフローチャートである。なお、以下の各表情モードにおいて、便宜上、1人の人物を撮像するシーンを前提として説明する。   FIG. 4 is a flowchart showing the operation of the control unit 10 during imaging in the smile mode in the digital camera 1. Note that, in each of the following facial expression modes, for the sake of convenience, description will be made on the premise of a scene where one person is imaged.

ステップS101で、制御部10は、笑顔モードを開始する。例えば、制御部10は、撮像素子3を制御して、スルー画像の撮像を開始する。   In step S101, the control unit 10 starts the smile mode. For example, the control unit 10 controls the imaging element 3 to start capturing a through image.

ステップS102で、顔検出部11は、スルー画像から顔領域を検出する。例えば、顔検出部11は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。次に、表情認識部12は、顔検出部11が検出した顔領域の表情を認識する。例えば、表情認識部12は、特開平8−249453号公報、特開平10−255043号公報に示されるように、表情カテゴリとして、怒り、嫌悪、恐れ、悲しみ、笑顔、驚きの合計6種類の基本表情を考え、無表情から各基本表情への時系列画像の処理を行い、表情を認識する。   In step S102, the face detection unit 11 detects a face area from the through image. For example, the face detection unit 11 extracts a face region by a feature point extraction process described in Japanese Patent Application Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head apexes, and chin lower end points. Next, the facial expression recognition unit 12 recognizes the facial expression detected by the face detection unit 11. For example, as shown in JP-A-8-249453 and JP-A-10-255043, the facial expression recognition unit 12 has a total of six basic types of facial expressions such as anger, disgust, fear, sadness, smile, and surprise. Consider facial expressions, process time-series images from non-facial expressions to basic facial expressions, and recognize facial expressions.

ステップS103で、制御部10は、ステップS102で認識した表情が笑顔か否かを判定する。笑顔である場合(ステップS103の判定がYESとなる場合)には、ステップS104に進む。一方、笑顔でない場合(ステップS103の判定がNOとなる場合)には、ステップS102に戻る。   In step S103, the control unit 10 determines whether or not the facial expression recognized in step S102 is a smile. When it is a smile (when determination of step S103 becomes YES), it progresses to step S104. On the other hand, when it is not a smile (when determination of step S103 becomes NO), it returns to step S102.

ステップS104で、制御部10は、撮像素子3を制御して、本画像を撮像する。そして、制御部10は、画像処理部6を制御して、本画像データに画像処理を施し、バッファメモリ5に記憶する。主要被写体Aである子供と、背景領域Bである木々とが撮像された本画像の例を図5(1)に示す。   In step S <b> 104, the control unit 10 controls the image sensor 3 to capture the main image. Then, the control unit 10 controls the image processing unit 6 to perform image processing on the main image data and store it in the buffer memory 5. FIG. 5A shows an example of a main image in which a child as the main subject A and trees as the background area B are captured.

ステップS105で、被写体抽出部13は、以下の要領によりステップS104で撮像した本画像から主要被写体Aを抽出するとともに、主要被写体Aを含まない背景領域Bの範囲を決定する。   In step S105, the subject extraction unit 13 extracts the main subject A from the main image captured in step S104 according to the following procedure, and determines the range of the background region B that does not include the main subject A.

第1に、被写体抽出部13は、本画像内の輪郭線によって本画像を複数の領域に分割する。例えば、被写体抽出部13は、画像処理部6によるエッジ抽出処理で本画像を分割する。この場合、画像処理部6は、本画像データに対して微分フィルタ(ラプラシアンフィルタなど)によるエッジ抽出処理を施す。そして、被写体抽出部13は、抽出された輪郭線に基づいて本画像を複数の領域に分割する。   First, the subject extraction unit 13 divides the main image into a plurality of regions by contour lines in the main image. For example, the subject extraction unit 13 divides the main image by edge extraction processing by the image processing unit 6. In this case, the image processing unit 6 performs edge extraction processing using a differential filter (such as a Laplacian filter) on the main image data. Then, the subject extraction unit 13 divides the main image into a plurality of regions based on the extracted contour line.

あるいは、被写体抽出部13は、解析部8の出力に基づいて本画像を複数の領域に分割することもできる。この場合には、被写体抽出部13は、本画像を8×8画素程度の画素ブロックに分割する。次に、解析部8は、上記の各々の画素ブロックに離散コサイン変換(DCT)処理を施し、各々の画素ブロック毎のDCT係数を取得する。   Alternatively, the subject extraction unit 13 can also divide the main image into a plurality of regions based on the output of the analysis unit 8. In this case, the subject extraction unit 13 divides the main image into pixel blocks of about 8 × 8 pixels. Next, the analysis unit 8 performs a discrete cosine transform (DCT) process on each of the pixel blocks, and acquires a DCT coefficient for each pixel block.

ここで、DCT係数と主要被写体Aの抽出処理との関係について簡単に説明する。輪郭が明確な画像には、画像データに高域周波数成分が多く含まれる。そのため、輪郭が明確な画像から得たDCT係数は0でない値を有する。一方、輪郭を含まない画像は、輪郭が明確な画像と比べて高域周波数成分が少なくなる。そのため、輪郭を含まない画像から得たDCT係数は、低い周波数成分から0となる。   Here, the relationship between the DCT coefficient and the extraction process of the main subject A will be briefly described. An image with a clear outline contains many high frequency components in the image data. Therefore, the DCT coefficient obtained from an image with a clear outline has a non-zero value. On the other hand, an image that does not include a contour has fewer high-frequency components than an image with a clear contour. Therefore, the DCT coefficient obtained from the image not including the contour becomes 0 from the low frequency component.

したがって、被写体抽出部13は、各周波数成分に対するDCT係数の分布に着目し、高域周波数成分に対応するDCT係数が0値ではない画素ブロックを被写体の輪郭とみなして抽出する。その後、被写体抽出部13は、抽出された画素ブロックに基づいて本画像を複数の領域に分割する。なお、被写体抽出部13は、本画像の色差及び明度などの情報に基づいて、輪郭で仕切られた各々の領域をグループ化するようにしても良い。   Therefore, the subject extraction unit 13 pays attention to the distribution of the DCT coefficient for each frequency component, and extracts the pixel block whose DCT coefficient corresponding to the high frequency component is not zero as the contour of the subject. Thereafter, the subject extraction unit 13 divides the main image into a plurality of regions based on the extracted pixel blocks. Note that the subject extraction unit 13 may group the areas partitioned by the outline based on information such as color difference and brightness of the main image.

第2に、顔検出部は、本画像から顔領域を検出する。そして、被写体抽出部13は、顔領域の位置に基づいて、上記で分割された本画像の領域から、主要被写体Aと背景領域Bとの範囲を決定する。図5(2)は、図5(1)の本画像を主要被写体A及び背景領域Bに分割した状態を示す図である。なお、図5(2)において、斜線が引かれた領域が背景領域Bである。   Secondly, the face detection unit detects a face region from the main image. Then, the subject extraction unit 13 determines the range of the main subject A and the background region B from the region of the main image divided above based on the position of the face region. FIG. 5B is a diagram illustrating a state in which the main image in FIG. 5A is divided into the main subject A and the background region B. In FIG. 5B, the hatched area is the background area B.

ステップS106で、制御部10は、特開2004−46591号公報に示されるように、笑顔評価テーブルを参照して、顔領域の眉、瞳孔、唇の各要素の形状の評価ポイントを算出し、各評価ポイントを係数により重み付けしたものを合算して笑顔評価値を算出する。なお、笑顔評価基準テーブルは、顔の構成要素を表すデータ(例えば、眉、目、唇)を格納する要素領域と、対応する顔の構成要素の係数を表すデータを格納する係数領域と、対応する顔の構成要素の基準画像及びその評価ポイントを格納する評価ポイント領域とにより構成される。また、笑顔評価値は、100点を満点とし、満面の笑みに近いほど高得点となる。   In step S106, the control unit 10 calculates an evaluation point of the shape of each element of the eyebrows, pupils, and lips of the face area with reference to the smile evaluation table as disclosed in JP 2004-46591A, The smile evaluation value is calculated by adding the weights obtained by weighting each evaluation point. The smile evaluation criterion table corresponds to an element area that stores data representing face components (for example, eyebrows, eyes, and lips) and a coefficient area that stores data representing coefficients of corresponding face components. A reference image of the constituent elements of the face to be operated and an evaluation point area for storing the evaluation points. The smile evaluation value is 100 points, and the closer to a full smile, the higher the score.

ステップS107で、制御部10は、特開2007−280291号公報に記載された推論処理を用いて、主要被写体Aの年齢及び性別を推定する。そして、制御部10は、主要被写体Aの年齢が閾値以下である場合には、子供と判定する。   In step S107, the control unit 10 estimates the age and gender of the main subject A using the inference process described in Japanese Patent Application Laid-Open No. 2007-280291. And the control part 10 determines with it being a child, when the age of the main subject A is below a threshold value.

ステップS108で、制御部10は、本画像に対する主要被写体Aの顔領域の割合を算出する。そして、制御部10は、顔領域の割合が閾値以上(例えば、10%)である場合には、バストショットであると判定する。   In step S108, the control unit 10 calculates the ratio of the face area of the main subject A to the main image. And the control part 10 determines with it being a bust shot, when the ratio of a face area is more than a threshold value (for example, 10%).

ステップS109で、制御部10は、背景領域Bの輝度を算出する。例えば、制御部10は、背景領域Bを構成する全画素について、画素ごとに輝度を算出する。そして、制御部10は、この輝度の総和を背景領域Bの画素数で割り、背景領域Bを構成する全画素の輝度の平均値を算出する。   In step S109, the control unit 10 calculates the luminance of the background region B. For example, the control unit 10 calculates the luminance for each pixel for all the pixels constituting the background region B. Then, the control unit 10 divides the sum of the luminances by the number of pixels in the background region B, and calculates an average value of the luminances of all the pixels constituting the background region B.

ステップS110で、制御部10は、背景領域Bの複雑さの程度を求める。背景領域Bが複雑である場合には、画像データに高域周波数成分が多く含まれる。そのため、制御部10は、解析部8を制御して、ステップS105と同様の処理を行い、8×8画素程度の画素ブロックに分割した背景領域Bから、高域周波数成分に対応するDCT係数が0値ではない画素ブロックを抽出する。そして、制御部10は、抽出した画素ブロックの数に応じて、背景領域Bの複雑さの程度を求める。   In step S110, the control unit 10 obtains the degree of complexity of the background region B. When the background region B is complicated, the image data includes many high frequency components. Therefore, the control unit 10 controls the analysis unit 8 to perform the same processing as step S105, and the DCT coefficient corresponding to the high frequency component is obtained from the background region B divided into pixel blocks of about 8 × 8 pixels. Pixel blocks that are not zero values are extracted. And the control part 10 calculates | requires the grade of the complexity of the background area | region B according to the number of the extracted pixel blocks.

ステップS111で、制御部10は、以下の(a)〜(g)を組み合わせて、ぼかし度合い及びぼかし形状を決定する。これにより、主要被写体Aの笑顔にふさわしいぼかし処理を施すことができるため、ポートレート写真として好ましい画像を得ることができる。   In step S111, the control unit 10 determines the blurring degree and the blurring shape by combining the following (a) to (g). Thereby, since the blurring process suitable for the smile of the main subject A can be performed, an image preferable as a portrait photograph can be obtained.

(a)制御部10は、ステップS106で算出した笑顔評価値が高いほどぼかし度合いを強くする。笑顔評価値とぼかし度合いとの関係を図6(1)に示す。図6(1)に示すように、ぼかし度合いが強くなるほど、輝点中央の輝度と略同等の輝度となる領域(以下、等輝度領域という)が狭くなり、また、等輝度領域の周辺部分の輝度変化が穏やかになる。逆に、ぼかし度合いが弱くなるほど、等輝度領域が広くなり、また、等輝度領域の周辺部分の輝度変化が急峻になる。これによって、笑顔評価値が大きく、満面の笑みに近い画像ほど、輝点中央の明るさが低く、中心から周辺部分への減衰もなだらかになるような強いぼかし度合いが選択され、より主要被写体Aが強調された画像となる。一方、笑顔評価値が小さい場合は、弱いぼかし度合いが選択され、ぼかし処理による主要被写体Aの強調は抑えられる。   (A) The control unit 10 increases the blurring degree as the smile evaluation value calculated in step S106 increases. The relationship between the smile evaluation value and the blurring degree is shown in FIG. As shown in FIG. 6 (1), as the degree of blur increases, the area having the luminance substantially equal to the luminance at the center of the bright spot (hereinafter referred to as an equal luminance area) becomes narrower. The brightness change becomes gentle. On the other hand, as the degree of blurring becomes weaker, the equiluminance region becomes wider, and the luminance change in the peripheral portion of the equiluminance region becomes steeper. As a result, an image with a larger smile evaluation value and closer to a full smile is selected to have a strong blurring degree such that the brightness at the center of the bright spot is lower and the attenuation from the center to the peripheral part is gentler. Is an emphasized image. On the other hand, when the smile evaluation value is small, the weak blurring degree is selected, and the enhancement of the main subject A by the blurring process is suppressed.

(b)制御部10は、ステップS109で算出した背景領域Bの輝度が低いほどぼかし度合いを強くする。背景領域Bの輝度とぼかし度合いとの関係を図6(2)に示す。背景領域Bの輝度が低い画像では、ぼかし処理による違和感が目立たないため、強いぼかし処理とすることで、主要被写体Aを強調する効果が大きく、かつ、違和感の少ない画像を得ることができる。   (B) The control unit 10 increases the degree of blurring as the luminance of the background region B calculated in step S109 is lower. FIG. 6B shows the relationship between the brightness of the background region B and the degree of blurring. Since an image with low brightness in the background region B does not stand out due to the blurring process, the strong blurring process can provide an image with a large effect of enhancing the main subject A and with a little uncomfortable feeling.

(c)制御部10は、ステップS107で主要被写体Aが子供、または女性であると推定した場合に、ぼかし度合いを強くする。主要被写体Aが子供や女性の画像では、強いぼかし処理により、主要被写体Aを強調する画像が好まれるためである。   (C) When it is estimated that the main subject A is a child or a woman in step S107, the control unit 10 increases the degree of blurring. This is because when the main subject A is an image of a child or a woman, an image that emphasizes the main subject A by strong blurring processing is preferred.

(d)制御部10は、ステップS108でバストショットであると判定した場合に、ぼかし度合いを強くする。バストショットのように主要被写体Aが大きく映った画像では、ぼかし度合いが強い方が、画像の印象を好ましくする作用において、より効果的に作用するためである。一方、主要被写体Aが小さい画像で背景領域Bをぼかしてしまうと、画像の大部分がぼけた画像になり、必ずしも好ましい印象とならない。   (D) When the control unit 10 determines in step S108 that the shot is a bust shot, the control unit 10 increases the degree of blurring. This is because, in an image in which the main subject A is large, such as a bust shot, the higher the degree of blurring, the more effective the operation in favoring the impression of the image. On the other hand, if the main subject A is a small image and the background region B is blurred, the image is mostly blurred and does not necessarily give a favorable impression.

(e)制御部10は、ステップS110で求めた背景領域Bが複雑さの程度が高いほど、ぼかし度合いを強くする。背景領域Bが複雑であるほど、主要被写体Aが目立たない可能性が高いためである。   (E) The control unit 10 increases the degree of blur as the background region B obtained in step S110 has a higher degree of complexity. This is because the more complex the background region B, the higher the possibility that the main subject A will not stand out.

(f)制御部10は、主要被写体Aが女性である場合には、「丸1」を示すぼかし形状31を用い、主要被写体Aが子供である場合には、「星」を示すぼかし形状33を用いる。一方、主要被写体Aが大人の男性である場合には、「丸2」を示すぼかし形状32を用いる。主要被写体Aの種類とぼかし形状との関係を図6(3)に示す。   (F) When the main subject A is a woman, the control unit 10 uses the blur shape 31 indicating “circle 1”, and when the main subject A is a child, the control unit 10 indicates a blur shape 33 indicating “star”. Is used. On the other hand, when the main subject A is an adult male, the blur shape 32 indicating “circle 2” is used. The relationship between the type of the main subject A and the blur shape is shown in FIG.

主要被写体Aが女性の場合は、「丸1」を示すぼかし形状31を用いると、背景領域Bの輝点が明瞭に拡がることで印象的な演出効果が得られる。また、主要被写体Aが子供の場合では、「星」を示すぼかし形状33を用いると、楽しくメルヘンチックな効果が演出でき、ぼかし処理を有効に作用させることができる。また、主要被写体Aが男性の場合は、「丸1」や「星」の様な演出効果は男性のイメージから外れる場合が多くそぐわないが、「丸2」を示すぼかし形状32を用いることで、違和感なく主要被写体Aを強調させた画像を得ることができる。   When the main subject A is a woman, if the blurring shape 31 indicating “circle 1” is used, the bright spot of the background region B clearly spreads, and an impressive effect is obtained. In the case where the main subject A is a child, if the blur shape 33 indicating “star” is used, a fun and fairy tale effect can be produced and blur processing can be effectively performed. In addition, when the main subject A is a man, the production effects such as “Circle 1” and “Star” are often not suitable for the image of the man, but by using the blur shape 32 indicating “Circle 2”, An image in which the main subject A is emphasized without a sense of incongruity can be obtained.

(g)制御部10は、笑顔評価値が70点以上である場合には、「丸1」を示すぼかし形状31を用い、笑顔評価値が70点未満である場合には、「丸2」を示すぼかし形状32を用いる。笑顔評価値とぼかし形状との関係を図6(4)に示す。笑顔評価値が大きい場合には、「丸1」を示すぼかし形状31による背景領域Bの輝点が明瞭に拡がったぼかし処理により、笑顔の主要被写体Aがより効果的に強調された画像となる。一方、笑顔評価値が小さい場合には、「丸2」を示すぼかし形状32を用いることで、過剰な演出効果の印象を防ぎつつ、主要被写体Aが強調された画像を得ることができる。   (G) When the smile evaluation value is 70 points or more, the control unit 10 uses the blurring shape 31 indicating “circle 1”, and when the smile evaluation value is less than 70 points, “circle 2”. A blur shape 32 indicating the above is used. The relationship between the smile evaluation value and the blurred shape is shown in FIG. When the smile evaluation value is large, the main subject A of the smile is more effectively enhanced by the blurring process in which the bright spot of the background region B is clearly expanded by the blur shape 31 indicating “circle 1”. . On the other hand, when the smile evaluation value is small, it is possible to obtain an image in which the main subject A is emphasized while preventing an impression of an excessive effect by using the blurring shape 32 indicating “circle 2”.

ステップS112で、制御部10は、画像処理部6を制御して、ステップS111で決定したぼかし度合い及びぼかし形状を用いて、背景領域Bに対してぼかし処理を施し、主要被写体Aが浮かび上がるように表現された画像を得る。ぼかし処理後の本画像の例を図5(3)に示す。図5(3)の例では、主要被写体Aが子供であるため、「星」を示すぼかし形状33が用いられる。これにより、背景領域Bがメルヘンチックになるため、子供らしさを強調することができる。   In step S112, the control unit 10 controls the image processing unit 6 to perform a blurring process on the background region B using the blurring degree and blurring shape determined in step S111 so that the main subject A emerges. Get the image expressed in. An example of the main image after the blurring process is shown in FIG. In the example of FIG. 5 (3), since the main subject A is a child, a blur shape 33 indicating “star” is used. Thereby, since the background area | region B becomes fairy tale, childhood can be emphasized.

ステップS113で、制御部10は、さらに主要被写体Aの笑顔にふさわしい演出をするために、画像処理部6を制御して、ステップS106で算出した笑顔評価値が高いほど背景領域Bの輝度を上げる。また、制御部10は、画像処理部6を制御して、主要被写体Aが子供、または女性である場合には、顔領域に対して赤味を増す色補正を行う。これにより、子供らしさ、または女性らしさをより強調することができる。なお、笑顔評価値が90点以上である場合には、背景領域Bに映り込む被写体をあたかも消してしまうような色処理を施しても良い。例えば、図5(3)の例では、背景領域Bが木々であるため、背景領域B全体を緑色に補間して一様の背景に加工しても良い。背景領域Bが一様な色であれば、主要被写体Aがより引き立った画像となる。   In step S113, the control unit 10 controls the image processing unit 6 to produce an effect suitable for the smile of the main subject A, and increases the brightness of the background region B as the smile evaluation value calculated in step S106 increases. . Further, the control unit 10 controls the image processing unit 6 to perform color correction that increases redness on the face area when the main subject A is a child or a woman. Thereby, childhood or femininity can be emphasized more. When the smile evaluation value is 90 points or more, color processing may be performed so as to erase the subject reflected in the background area B. For example, in the example of FIG. 5 (3), since the background area B is trees, the entire background area B may be interpolated in green and processed into a uniform background. If the background region B is a uniform color, an image in which the main subject A is more prominent is obtained.

ステップS114で、制御部10は、ステップS113で画像処理を行った本画像データを画像ファイルとして記録媒体20に記録し、一連の処理を終了する。なお、制御部10は、本画像データとともに、笑顔評価値とぼかし度合いとぼかし形状とをタグなどの情報として画像ファイル内に記録することが好ましい。   In step S114, the control unit 10 records the main image data subjected to the image processing in step S113 as an image file on the recording medium 20, and ends a series of processing. In addition, it is preferable that the control unit 10 records the smile evaluation value, the blurring degree, and the blurring shape together with the main image data in the image file as information such as a tag.

次に、怒りモードにおけるぼかし処理について説明する。図7は、デジタルカメラ1における怒りモードによる撮像時の制御部10の動作を示すフローチャートである。   Next, the blurring process in the anger mode will be described. FIG. 7 is a flowchart illustrating the operation of the control unit 10 during imaging in the anger mode in the digital camera 1.

ステップS201で、制御部10は、怒りモードを開始する。例えば、制御部10は、撮像素子3を制御して、スルー画像の撮像を開始する。   In step S201, the control unit 10 starts the anger mode. For example, the control unit 10 controls the imaging element 3 to start capturing a through image.

ステップS202で、顔検出部11は、スルー画像から顔領域を検出する。次に、表情認識部12は、図4のステップS102と同様の処理を行い、顔検出部11が検出した顔領域の表情を認識する。   In step S202, the face detection unit 11 detects a face area from the through image. Next, the facial expression recognition unit 12 performs the same processing as in step S102 of FIG. 4 to recognize the facial area expression detected by the face detection unit 11.

ステップS203で、制御部10は、ステップS202で認識した表情が怒りか否かを判定する。怒りである場合(ステップS203の判定がYESとなる場合)には、ステップS204に進む。一方、怒りでない場合(ステップS203の判定がNOとなる場合)には、ステップS202に戻る。   In step S203, the control unit 10 determines whether the facial expression recognized in step S202 is angry. If it is angry (if the determination in step S203 is YES), the process proceeds to step S204. On the other hand, when it is not anger (when determination of step S203 becomes NO), it returns to step S202.

ステップS204で、制御部10は、撮像素子3を制御して、本画像を撮像する。そして、制御部10は、画像処理部6を制御して、本画像データに画像処理を施し、バッファメモリ5に記憶する。   In step S <b> 204, the control unit 10 controls the image sensor 3 to capture the main image. Then, the control unit 10 controls the image processing unit 6 to perform image processing on the main image data and store it in the buffer memory 5.

ステップS205で、被写体抽出部13は、図4のステップS105と同様の処理を行い、ステップS204で撮像した本画像から主要被写体Aを抽出するとともに、背景領域Bの範囲を決定する。   In step S205, the subject extraction unit 13 performs the same processing as in step S105 in FIG. 4, extracts the main subject A from the main image captured in step S204, and determines the range of the background region B.

ステップS206で、制御部10は、図4のステップS106と同様の処理を行い、予めメモリ15に記憶した怒り評価基準テーブルを用いて、怒り評価値を算出する。なお、怒り評価基準テーブルは、ステップS106で説明した笑顔評価基準テーブルと同様の構成とする。また、怒り評価値は、100点を満点とし、怒りの程度が高いほど高得点となる。   In step S206, the control unit 10 performs the same process as in step S106 of FIG. 4 and calculates the anger evaluation value using the anger evaluation reference table stored in advance in the memory 15. Note that the anger evaluation criterion table has the same configuration as the smile evaluation criterion table described in step S106. The anger evaluation value is 100 points, and the higher the anger level, the higher the score.

ステップS207で、制御部10は、画像処理部6を制御して、背景領域Bのうち、主要被写体Aの頭の上部分だけに対してぼかし処理を施す。なお、制御部10は、ステップS206で算出した怒り評価値が高いほどぼかし度合いを強くしても良い。これにより、頭部から湯気が立っているように再現することができるので、主要被写体Aの怒りの表情をより引き立たせることができる。   In step S207, the control unit 10 controls the image processing unit 6 to perform the blurring process only on the upper part of the head of the main subject A in the background region B. Note that the control unit 10 may increase the blurring degree as the anger evaluation value calculated in step S206 is higher. Thus, steam can be reproduced as if standing from the head, so that the angry expression of the main subject A can be further enhanced.

ステップS208で、制御部10は、画像処理部6を制御して、顔領域に対して赤味を増す色補正を行う。これにより、リアルに怒りの感情を画像として再現することができる。   In step S208, the control unit 10 controls the image processing unit 6 to perform color correction that increases redness on the face area. Thereby, the emotion of anger can be reproduced realistically as an image.

ステップS209で、制御部10は、ステップS208で色補正を行った本画像データを画像ファイルとして記録媒体20に記録し、一連の処理を終了する。なお、制御部10は、本画像データとともに、怒り評価値とぼかし度合いとをタグなどの情報として画像ファイル内に記録することが好ましい。   In step S209, the control unit 10 records the main image data subjected to color correction in step S208 on the recording medium 20 as an image file, and ends a series of processes. In addition, it is preferable that the control part 10 records an anger evaluation value and a blurring degree with information such as a tag in the image file together with the main image data.

次に、悲しみモードにおけるぼかし処理について説明する。図8は、デジタルカメラ1における悲しみモードによる撮像時の制御部10の動作を示すフローチャートである。   Next, the blurring process in the sadness mode will be described. FIG. 8 is a flowchart illustrating the operation of the control unit 10 during imaging in the sadness mode in the digital camera 1.

ステップS301で、制御部10は、悲しみモードを開始する。例えば、制御部10は、撮像素子3を制御して、スルー画像の撮像を開始する。   In step S301, the control unit 10 starts a sadness mode. For example, the control unit 10 controls the imaging element 3 to start capturing a through image.

ステップS302で、顔検出部11は、スルー画像から顔領域を検出する。次に、表情認識部12は、図4のステップS102と同様の処理を行い、顔検出部11が検出した顔領域の表情を認識する。   In step S302, the face detection unit 11 detects a face area from the through image. Next, the facial expression recognition unit 12 performs the same processing as in step S102 of FIG. 4 to recognize the facial area expression detected by the face detection unit 11.

ステップS303で、制御部10は、ステップS302で認識した表情が悲しみか否かを判定する。悲しみである場合(ステップS303の判定がYESとなる場合)には、ステップS304に進む。一方、悲しみでない場合(ステップS303の判定がNOとなる場合)には、ステップS302に戻る。   In step S303, the control unit 10 determines whether the facial expression recognized in step S302 is sad. If it is sad (if the determination in step S303 is YES), the process proceeds to step S304. On the other hand, when it is not sadness (when determination of step S303 becomes NO), it returns to step S302.

ステップS304で、制御部10は、撮像素子3を制御して、本画像を撮像する。そして、制御部10は、画像処理部6を制御して、本画像データに画像処理を施し、バッファメモリ5に記憶する。   In step S304, the control unit 10 controls the image sensor 3 to capture the main image. Then, the control unit 10 controls the image processing unit 6 to perform image processing on the main image data and store it in the buffer memory 5.

ステップS305で、被写体抽出部13は、図4のステップS105と同様の処理を行い、ステップS304で撮像した本画像から主要被写体Aを抽出するとともに、背景領域Bの範囲を決定する。   In step S305, the subject extraction unit 13 performs processing similar to that in step S105 in FIG. 4, extracts the main subject A from the main image captured in step S304, and determines the range of the background region B.

ステップS306で、制御部10は、図4のステップS106と同様の処理を行い、予めメモリ15に記憶した悲しみ評価基準テーブルを用いて、悲しみ評価値を算出する。なお、悲しみ評価基準テーブルは、ステップS106で説明した笑顔評価基準テーブルと同様の構成とする。また、悲しみ評価値は、100点を満点とし、悲しみの程度が高いほど高得点となる。   In step S306, the control unit 10 performs the same process as in step S106 in FIG. 4 and calculates a sadness evaluation value using a sadness evaluation reference table stored in the memory 15 in advance. Note that the sadness evaluation criterion table has the same configuration as the smile evaluation criterion table described in step S106. The sadness evaluation value is 100 points, and the higher the degree of sadness, the higher the score.

ステップS307で、制御部10は、画像処理部6を制御して、背景領域Bに対してぼかし処理を施し、主要被写体Aが浮かび上がるように表現された画像を得る。なお、制御部10は、ステップS306で算出した悲しみ評価値が高いほどぼかし度合いを強くしても良い。これにより、主要被写体Aの悲しみの表情をより引き立たせることができる。   In step S307, the control unit 10 controls the image processing unit 6 to perform a blurring process on the background region B, and obtain an image expressed so that the main subject A appears. Note that the control unit 10 may increase the blurring degree as the sadness evaluation value calculated in step S306 increases. Thereby, the sad expression of the main subject A can be further enhanced.

ステップS308で、制御部10は、画像処理部6を制御して、顔領域に対して青味を増す色補正を行う。これにより、リアルに悲しみの感情を画像として再現することができる。   In step S308, the control unit 10 controls the image processing unit 6 to perform color correction for increasing bluish color on the face area. Thereby, the emotion of sadness can be reproduced as an image.

ステップS309で、制御部10は、ステップS306で算出した悲しみ評価値が閾値以上か否かを判定する。悲しみ評価値が閾値以上である場合(ステップS309の判定がYESとなる場合)には、ステップS310に進む。一方、悲しみ評価値が閾値未満である場合(ステップS309の判定がNOとなる場合)には、ステップS311に進む。   In step S309, the control unit 10 determines whether the sadness evaluation value calculated in step S306 is greater than or equal to a threshold value. If the sadness evaluation value is greater than or equal to the threshold (if the determination in step S309 is YES), the process proceeds to step S310. On the other hand, when the sadness evaluation value is less than the threshold value (when the determination in step S309 is NO), the process proceeds to step S311.

ステップS310で、制御部10は、画像処理部6を制御して、背景領域Bの色調をモノトーンまたはセピア調にする色補正を行う。これにより、哀愁の漂っている雰囲気の画像を再現することができる。   In step S310, the control unit 10 controls the image processing unit 6 to perform color correction so that the color tone of the background region B is monotone or sepia. As a result, it is possible to reproduce an image of a feeling of sorrow.

ステップS311で、制御部10は、ステップS309の判定がYESとなる場合には、ステップS308で色補正を行った本画像データを画像ファイルとして記録媒体20に記録し、ステップS309の判定がNOとなる場合には、ステップS310で色補正行った本画像データを画像ファイルとして記録媒体に記録し、一連の処理を終了する。なお、制御部10は、本画像データとともに、悲しみ評価値とぼかし度合いとをタグなどの情報として画像ファイル内に記録することが好ましい。   If the determination in step S309 is YES in step S311, the control unit 10 records the main image data subjected to color correction in step S308 as an image file on the recording medium 20, and the determination in step S309 is NO. In this case, the main image data subjected to the color correction in step S310 is recorded on the recording medium as an image file, and a series of processes is completed. The control unit 10 preferably records the sadness evaluation value and the blurring degree in the image file as information such as a tag together with the main image data.

第1実施形態のデジタルカメラ1は、主要被写体Aの表情にふさわしい画像処理を行うことにより、主要被写体Aを引き立てる。そのため、第1実施形態のデジタルカメラ1によれば、ポートレート写真として好ましい画像を取得することができる。   The digital camera 1 of the first embodiment enhances the main subject A by performing image processing suitable for the expression of the main subject A. Therefore, according to the digital camera 1 of the first embodiment, it is possible to obtain a preferable image as a portrait photograph.

また、第1実施形態のデジタルカメラ1は、主要被写体Aの表情を認識して自動的に本画像を撮像するため、シャッターチャンスを逃すことなく、所望の表情をした主要被写体Aの画像を取得することができる。   Further, since the digital camera 1 of the first embodiment automatically captures the main image by recognizing the facial expression of the main subject A, an image of the main subject A having a desired expression is acquired without missing a photo opportunity. can do.

なお、第1実施形態では、各表情モードにおいて、表情認識部12により所定の表情を認識した場合に、自動的に本画像を撮像する例を示したが、これに限らない。例えば、各表情モードにおいて、表情認識とは無関係に、レリーズ釦17の全押しにより本画像を撮像できる構成にしても良い。また、撮影モードにおいて、レリーズ釦17の全押しにより撮像された本画像に対して、図4のステップS105以降の処理、または、図7のステップS205以降の処理、または、図8のステップS305以降の処理を行っても良い。   In the first embodiment, an example is shown in which the main image is automatically captured when a predetermined facial expression is recognized by the facial expression recognition unit 12 in each facial expression mode. However, the present invention is not limited to this. For example, in each facial expression mode, the main image may be captured by pressing the release button 17 fully regardless of facial expression recognition. Further, in the shooting mode, the processing after step S105 in FIG. 4, the processing after step S205 in FIG. 7, or the processing after step S305 in FIG. 8 is performed on the main image captured by fully pressing the release button 17. You may perform the process of.

また、顔検出部11により検出した顔領域の特徴点に基づいて顔認識データを生成し、メモリ15に記憶する構成にしても良い。この場合、制御部10は、スルー画像内の人物の顔が登録人物の顔か否かを判定する顔認識処理を行う。そして、制御部10は、登録人物に合致すると判定し、かつ、所定の表情を認識した場合に、自動的に本画像を撮像する。 さらに、登録人物ごとに表情認識レベルを設定できる構成にしても良い。例えば、普段あまり笑わない人は、少し笑っただけでも笑顔と認識して自動的に本画像を撮像するように設定することができる。   Further, face recognition data may be generated based on the feature points of the face area detected by the face detection unit 11 and stored in the memory 15. In this case, the control unit 10 performs face recognition processing for determining whether the face of the person in the through image is the face of the registered person. Then, the control unit 10 automatically captures the main image when it determines that it matches the registered person and recognizes a predetermined facial expression. Furthermore, it may be configured such that a facial expression recognition level can be set for each registered person. For example, a person who usually does not laugh very much can recognize that even a little laughing is recognized as a smile and automatically capture the main image.

また、ステップS207で、主要被写体Aの頭部の上部分に対して、ぼかし処理を施したが、これに限らない。例えば、画像をユラユラ揺れるアニメーション風に加工する「ugofy」v1.0.0.1を利用しても良い。これにより、主要被写体Aの頭部の上部分に動きをもたせることができるので、主要被写体Aの怒りの表情をより引き立たせることができる。   In step S207, the upper portion of the head of the main subject A is subjected to the blurring process, but the present invention is not limited to this. For example, “ugofy” v1.0.0.1, which processes an image in an animated manner that sways, may be used. Thereby, since the upper part of the head of the main subject A can be moved, the angry expression of the main subject A can be further enhanced.

また、被写体抽出部13による主要被写体Aの抽出方法は、上述した方法に限定されない。例えば、制御部10は、特開2002−44512号公報に示されるように、ステップS104で本画像を撮像するときに、撮像素子3を制御して、予備画像を撮像しておく。そして、被写体抽出部13は、本画像と予備画像との輝度を比較し、その結果に基づいて、本画像から主要被写体Aと背景領域Bとを分離しても良い。   Further, the extraction method of the main subject A by the subject extraction unit 13 is not limited to the method described above. For example, as disclosed in Japanese Patent Laid-Open No. 2002-44512, the control unit 10 controls the image sensor 3 to capture a preliminary image when capturing a main image in step S104. Then, the subject extraction unit 13 may compare the luminance of the main image and the preliminary image and separate the main subject A and the background region B from the main image based on the result.

(第2実施形態)
以下、本発明の第2実施形態について説明する。第1実施形態では撮像時に本画像に対してぼかし処理を施す例を示した。第2実施形態では再生時に記録媒体20に記録された画像に対してぼかし処理を施す例を示す。ここで、以下の実施形態におけるデジタルカメラの構成は、図1に示す第1実施形態のデジタルカメラ1と共通するので重複説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the first embodiment, an example in which the blurring process is performed on the main image at the time of imaging is shown. In the second embodiment, an example in which blurring processing is performed on an image recorded on the recording medium 20 during reproduction will be described. Here, since the configuration of the digital camera in the following embodiment is the same as that of the digital camera 1 of the first embodiment shown in FIG.

図9は、第2実施形態のデジタルカメラ1における再生時の制御部10の動作を示すフローチャートである。なお、便宜上、1人の人物を撮像した画像を前提として説明する。   FIG. 9 is a flowchart showing the operation of the control unit 10 during reproduction in the digital camera 1 of the second embodiment. For convenience, the description will be made on the assumption that an image of one person is captured.

ステップS401で、制御部10は、再生モードを開始する。例えば、制御部10は、表示部14にレタッチ機能に関する複数の項目及び「スマイル背景ぼかし」の項目が表示されたメニュー画像41を表示する(図10(1)参照)。ここで、「スマイル背景ぼかし」は、笑顔の画像にぼかし処理を施す機能を示す項目である。   In step S401, the control unit 10 starts the reproduction mode. For example, the control unit 10 displays a menu image 41 on which a plurality of items relating to the retouch function and an item “smile background blur” are displayed on the display unit 14 (see FIG. 10A). Here, “smile background blur” is an item indicating a function of blurring a smiley image.

ステップS402で、制御部10は、ユーザから操作釦18を介して、「スマイル背景ぼかし」の項目の選択を受け付ける。なお、制御部10は、「スマイル背景ぼかし」の項目が選択された場合に「背景をぼかして、被写体をより引き立つように加工します。あなたの笑顔がより引き立つ写真となるでしょう。」等の説明を表示部14に表示しても良い。   In step S <b> 402, the control unit 10 receives selection of an item “smile background blur” from the user via the operation button 18. In addition, when the “Smile background blur” item is selected, the control unit 10 “processes the subject to make the subject more attractive by blurring the background. Your smile will be more attractive.” May be displayed on the display unit 14.

ステップS403で、制御部10は、記録媒体20の画像ファイル内に記録されたタグなどの情報から笑顔評価値を読み出し、笑顔評価値が閾値以上である画像を笑顔の画像として読み出す。そして、制御部10は、図10(2)に示すように、読み出した画像に対応するサムネイル画像の一覧を表示部14のサムネイル表示領域42に表示する。なお、笑顔評価値が記録媒体20に記録されていない場合には、顔検出部11は、記録媒体20に記録された画像から顔領域を検出する。そして、表情認識部12は、顔検出部11が検出した顔領域から表情を認識し、笑顔の画像を読み出す。   In step S403, the control unit 10 reads a smile evaluation value from information such as a tag recorded in the image file of the recording medium 20, and reads an image having a smile evaluation value equal to or greater than a threshold value as a smile image. Then, the control unit 10 displays a list of thumbnail images corresponding to the read image in the thumbnail display area 42 of the display unit 14 as illustrated in FIG. If the smile evaluation value is not recorded on the recording medium 20, the face detection unit 11 detects a face area from the image recorded on the recording medium 20. Then, the facial expression recognition unit 12 recognizes a facial expression from the face area detected by the face detection unit 11 and reads a smile image.

ステップS404で、制御部10は、ユーザから操作釦18を介して、ステップS403で表示したサムネイル画像の一覧から、いずれかの画像の選択を受け付ける。その後、制御部10は、図10(3)に示すように、選択を受け付けた画像に対してぼかし処理を施すか否かの選択を受け付ける。   In step S404, the control unit 10 accepts selection of any image from the list of thumbnail images displayed in step S403 via the operation button 18 from the user. Thereafter, as shown in FIG. 10 (3), the control unit 10 accepts a selection as to whether or not to perform the blurring process on the accepted image.

ステップS405〜S413は、図4のステップS105〜S113にそれぞれ対応するため、重複説明を省略する。   Steps S405 to S413 correspond to steps S105 to S113 in FIG.

ステップS414で、制御部10は、図10(4)に示すように、表示部14にステップS413で画像処理を行った画像43を表示する。また、制御部10は、スライダーバー44と、スライダーバー44内をスライドすることによりぼかし度合いを示すスライダー45を表示する。なお、スライダー45が右にあるほど、ぼかし度合いが強いことを示す。また、ユーザは、操作釦18を介してスライダー45の位置を変更することにより、ぼかし度合いをカスタマイズすることができる。   In step S414, the control unit 10 displays the image 43 that has been subjected to the image processing in step S413 on the display unit 14, as illustrated in FIG. The control unit 10 also displays a slider bar 44 and a slider 45 indicating the degree of blur by sliding in the slider bar 44. Note that the more the slider 45 is on the right, the stronger the blurring degree. Further, the user can customize the degree of blur by changing the position of the slider 45 via the operation button 18.

ステップS415で、制御部10は、ユーザから操作釦18を介して、スライダー45の位置の変更を受け付けたか否かを判定する。スライダー45の位置の変更を受け付けた場合(ステップS415の判定がYESとなる場合)には、ステップS412に戻り、スライダー45の位置に応じたぼかし度合いになるように再度ぼかし処理を施す。スライダー45の位置の変更を受け付けない場合(ステップS415の判定がNOとなる場合)には、ステップS416に進む。   In step S415, the control unit 10 determines whether or not a change in the position of the slider 45 has been received from the user via the operation button 18. When the change of the position of the slider 45 is accepted (when the determination in step S415 is YES), the process returns to step S412 and the blurring process is performed again so that the blurring degree according to the position of the slider 45 is obtained. When the change of the position of the slider 45 is not accepted (when the determination in step S415 is NO), the process proceeds to step S416.

ステップS416で、制御部10は、ユーザから操作釦18を介して、ステップS414で表示した画像43を記録するか否かの選択を受け付ける。画像43を記録する場合(ステップS416の判定がYESとなる場合)には、ステップS417に進む。一方、画像43を記録しない場合(ステップS416の判定がNOとなる場合)には、図9の処理を終了する。   In step S416, the control unit 10 receives a selection as to whether or not to record the image 43 displayed in step S414 from the user via the operation button 18. When the image 43 is recorded (when the determination in step S416 is YES), the process proceeds to step S417. On the other hand, when the image 43 is not recorded (when the determination in step S416 is NO), the processing in FIG. 9 ends.

ステップS417で、制御部10は、ステップS413で画像処理を行った画像データを記録媒体20に記録し、一連の処理を終了する。   In step S417, the control unit 10 records the image data subjected to the image processing in step S413 on the recording medium 20, and ends a series of processing.

なお、第2実施形態では、笑顔の画像に対してぼかし処理を施す例を示したが、怒りの表情の画像及び悲しみの表情の画像に対しても適用できる。例えば、制御部10は、怒りの表情の画像からいずれかの画像の選択を受け付け、図7のステップS205以降の処理を行う。その後、制御部10は、ぼかし度合いの変更を受け付けても良い。また、制御部10は、悲しみの表情の画像からいずれかの画像の選択を受け付け、図8のステップS305以降の処理を行う。その後、制御部10は、ぼかし度合いの変更を受け付けても良い。   In the second embodiment, the example in which the blurring process is performed on the smiley image has been described. However, the second embodiment can be applied to an image of an angry expression and an image of a sadness. For example, the control unit 10 accepts the selection of one of the images of the angry facial expression, and performs the processing after step S205 in FIG. Thereafter, the control unit 10 may accept a change in the degree of blurring. Further, the control unit 10 accepts the selection of any image from the images of the sad expression, and performs the processing after step S305 in FIG. Thereafter, the control unit 10 may accept a change in the degree of blurring.

第2実施形態のデジタルカメラ1は、記録媒体20に記録した画像に対して、主要被写体Aの表情にふさわしい画像処理を行うことにより、主要被写体Aを引き立てる。したがって、第2実施形態のデジタルカメラ1によれば、第1実施形態と同様に、ポートレート写真として好ましい画像を取得することができる。   The digital camera 1 of the second embodiment enhances the main subject A by performing image processing suitable for the expression of the main subject A on the image recorded on the recording medium 20. Therefore, according to the digital camera 1 of the second embodiment, a preferable image can be acquired as a portrait photograph, as in the first embodiment.

また、第2実施形態のデジタルカメラ1は、ぼかし度合いの変更を受け付けるため、ユーザの好みに応じたぼかし度合いの画像を取得することができる。
(実施形態の補足)
(1)第1実施形態及び第2実施形態では、デジタルカメラの例を説明したが、これに限らない。例えば、コンピュータに搭載されるプログラムに、第1実施形態及び第2実施形態における表情評価値を算出する手順、及びぼかし処理する手順に示す機能を備えることも可能である。この場合、予め画像処理プログラムを記憶媒体に格納しておき、コンピュータに接続した後に、この画像処理プログラムを実行させるか、または、インストールさせることが可能である。
In addition, since the digital camera 1 according to the second embodiment accepts a change in the degree of blurring, it is possible to acquire an image with a degree of blurring according to the user's preference.
(Supplement of embodiment)
(1) In the first embodiment and the second embodiment, the example of the digital camera has been described, but the present invention is not limited to this. For example, a program installed in a computer can be provided with functions shown in a procedure for calculating facial expression evaluation values and a blurring procedure in the first and second embodiments. In this case, it is possible to store the image processing program in a storage medium in advance and execute or install the image processing program after connecting to the computer.

(2)第1実施形態及び第2実施形態では、輝点を拡げることにより、ぼかし処理を施したが、これに限らない。例えば、ローパスフィルタ処理としても良い。   (2) In the first embodiment and the second embodiment, the blurring process is performed by expanding the bright spots, but the present invention is not limited to this. For example, low pass filter processing may be used.

(3)第1実施形態及び第2実施形態では、「丸1」を示すぼかし形状31、「丸2」を示すぼかし形状32、「星」を示すぼかし形状33の3種類のぼかし形状を示したが、これに限らない。例えば、「ハート」を示すぼかし形状を用いても良い。この「ハート」を示すぼかし形状は、輝点の部分がハート状に拡がり、かつ、輝点の輪郭が明瞭になるようにぼかす形状からなる。   (3) In the first embodiment and the second embodiment, three types of blur shapes are shown: a blur shape 31 indicating “circle 1”, a blur shape 32 indicating “circle 2”, and a blur shape 33 indicating “star”. However, it is not limited to this. For example, a blur shape indicating “heart” may be used. The blurring shape indicating the “heart” has a shape in which the bright spot portion spreads in a heart shape and is blurred so that the outline of the bright spot becomes clear.

(4)第1実施形態及び第2実施形態では、ぼかし度合い及びぼかし形状を決定する要素として、上記の(a)〜(g)を組み合わせる例を説明したが、ぼかし度合い及びぼかし形状を決定する要素はこれに限らない。   (4) In the first embodiment and the second embodiment, the example in which the above (a) to (g) are combined as elements for determining the blurring degree and the blurring shape has been described, but the blurring degree and the blurring shape are determined. The element is not limited to this.

(5)第1実施形態のデジタルカメラ1で複数の人物が含まれるシーンを撮像する場合に、顔検出部11が主要被写体Aを特定する手順について説明する。例えば、顔検出部11は、自動的に複数の人物から主要被写体Aを特定するか、あるいは、ユーザの指示に基づいて複数の人物から主要被写体Aを特定する。   (5) A procedure in which the face detection unit 11 specifies the main subject A when the digital camera 1 of the first embodiment captures a scene including a plurality of persons will be described. For example, the face detection unit 11 automatically specifies the main subject A from a plurality of persons or specifies the main subject A from a plurality of persons based on a user instruction.

自動的に主要被写体Aを特定する場合、顔検出部11は、複数の人物から主要被写体Aを特定する。例えば、顔検出部11は、検出した複数の顔領域のうちで、最も至近側に位置する顔を主要被写体Aとして特定する。一般的にデジタルカメラに対して最も至近側にある人物は、ユーザにとって主要な被写体である可能性が高いからである。このとき、顔検出部11は、顔の大きさに基づいて、顔のサイズが最も大きい人物を主要被写体Aとしても良く、あるいは、AF時に取得する被写体距離の情報に基づいて、最も至近側の人物を決定しても良い。また、顔検出部11は、AF時の焦点検出エリアの位置にいる人物を主要被写体Aとして特定するようにしても良い。   When the main subject A is automatically specified, the face detection unit 11 specifies the main subject A from a plurality of persons. For example, the face detection unit 11 identifies the face located closest to the main subject A among the detected face regions. This is because the person closest to the digital camera is generally likely to be the main subject for the user. At this time, the face detection unit 11 may set the person with the largest face size as the main subject A based on the size of the face, or based on the subject distance information acquired at the time of AF, A person may be determined. Further, the face detection unit 11 may specify a person who is in the position of the focus detection area during AF as the main subject A.

次に、ユーザの指示に基づいて主要被写体Aを特定する場合、制御部10は、メニュー画像により操作釦18を介して主要被写体Aの位置の入力を受け付ける。そして、制御部10は、ユーザから指定された位置にいる人物を主要被写体Aとする。このとき、制御部10は、ユーザが指定した主要被写体Aの位置を焦点検出エリアとしてAFを実行するようにしても良い。また、制御部10は、ユーザの入力に基づいて主要被写体Aの人数の上限を変更し、複数の人物を主要被写体Aとしても良い。   Next, when the main subject A is specified based on the user's instruction, the control unit 10 receives an input of the position of the main subject A via the operation button 18 using a menu image. Then, the control unit 10 sets the person at the position designated by the user as the main subject A. At this time, the control unit 10 may perform AF using the position of the main subject A designated by the user as the focus detection area. Further, the control unit 10 may change the upper limit of the number of main subjects A based on user input, and may set a plurality of people as the main subject A.

なお、第2実施形態のデジタルカメラ1で複数の人物が含まれる画像から、顔検出部11が主要被写体Aを特定する場合においても上記と同様の処理を行っても良い。   Even when the face detection unit 11 identifies the main subject A from an image including a plurality of persons in the digital camera 1 of the second embodiment, the same processing as described above may be performed.

本発明の第1実施形態におけるデジタルカメラ1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital camera 1 according to a first embodiment of the present invention. ぼかし処理前後の輝点の輝度分布を示す図である。It is a figure which shows the luminance distribution of the luminescent point before and behind a blurring process. ぼかし形状の例を示す図である。It is a figure which shows the example of a blurring shape. デジタルカメラ1における笑顔モードによる撮像時の制御部10の動作を示すフローチャートである。6 is a flowchart illustrating an operation of the control unit 10 during imaging in the smile mode in the digital camera 1. 本画像の例を示す図である。It is a figure which shows the example of this image. 主要被写体Aまたは背景領域Bと、ぼかし度合いまたはぼかし形状との関係を示す表である。It is a table | surface which shows the relationship between the main to-be-photographed object A or the background area | region B, and a blurring degree or a blurring shape. デジタルカメラ1における怒りモードによる撮像時の制御部10の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the control unit 10 during imaging in the anger mode in the digital camera 1. デジタルカメラ1における悲しみモードによる撮像時の制御部10の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the control unit 10 during imaging in a sadness mode in the digital camera 1. 第2実施形態のデジタルカメラ1における再生時の制御部10の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part 10 at the time of reproduction | regeneration in the digital camera 1 of 2nd Embodiment. 第2実施形態のデジタルカメラ1における再生時の表示部14の例を示す図である。It is a figure which shows the example of the display part 14 at the time of reproduction | regeneration in the digital camera 1 of 2nd Embodiment.

符号の説明Explanation of symbols

1…デジタルカメラ、2…撮像素子、6…画像処理部、7…圧縮伸長処理部、8…解析部、10…制御部、11…顔検出部、12…表情認識部、13…被写体抽出部、14…表示部、16…操作部
DESCRIPTION OF SYMBOLS 1 ... Digital camera, 2 ... Image sensor, 6 ... Image processing part, 7 ... Compression / decompression processing part, 8 ... Analysis part, 10 ... Control part, 11 ... Face detection part, 12 ... Expression recognition part, 13 ... Subject extraction part , 14 ... display unit, 16 ... operation unit

Claims (16)

画像から主要被写体を抽出するとともに、前記画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出部と、
前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出部と、
前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理部と
を備えることを特徴とする画像処理装置。
A subject extraction unit that extracts a main subject from an image and determines a range of a background area that does not include the main subject in the image;
An evaluation value calculation unit that evaluates the expression of the main subject and calculates an expression evaluation value indicating the degree of expression;
An image processing apparatus comprising: an image processing unit that performs a blurring process on the background area according to the facial expression evaluation value.
請求項1に記載の画像処理装置において、
前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値が高いほどぼかし度合いを強くする
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The evaluation value calculation unit calculates an evaluation value indicating the degree of smile as the facial expression evaluation value,
The image processing device, wherein the degree of blur is increased as the facial expression evaluation value is higher.
請求項2に記載の画像処理装置において、
前記画像処理部は、前記表情評価値が高いほど前記背景領域の輝度を上げる
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing device, wherein the brightness of the background region is increased as the facial expression evaluation value is higher.
請求項1から請求項3までのいずれか1項に記載の画像処理装置において、
前記背景領域の空間周波数を解析する解析部をさらに備え、
前記画像処理部は、高域周波数成分が多いほどぼかし度合いを強くする
ことを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 3,
An analysis unit for analyzing the spatial frequency of the background region;
The image processing device, wherein the degree of blurring is increased as the number of high frequency components increases.
請求項1から請求項4までのいずれか1項に記載の画像処理装置において、
前記画像に対する前記主要被写体の顔領域の割合を算出する割合算出部をさらに備え、
前記画像処理部は、前記顔領域の割合が閾値以上である場合に、ぼかし度合いを強くする
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4, wherein:
A ratio calculation unit for calculating a ratio of the face area of the main subject to the image;
The image processing device, wherein the blurring degree is increased when the ratio of the face area is equal to or greater than a threshold value.
請求項1から請求項5までのいずれか1項に記載の画像処理装置において、
前記背景領域の輝度を算出する輝度算出部をさらに備え、
前記画像処理部は、前記輝度が低いほどぼかし度合いを強くする
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5, wherein:
A luminance calculation unit for calculating the luminance of the background region;
The image processing device, wherein the degree of blur is increased as the luminance is lower.
請求項1から請求項6までのいずれか1項に記載の画像処理装置において、
前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、
前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、ぼかし度合いを強くする
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
An estimation unit for estimating at least one of the age and sex of the main subject;
The image processing unit increases the degree of blurring when the estimation unit estimates that the age of the main subject is equal to or lower than a threshold value or the main subject is a woman.
請求項7に記載の画像処理装置において、
前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、前記主要被写体の顔領域に対して赤味を増す色補正を施す
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The image processing unit performs color correction to increase redness with respect to the face area of the main subject when the estimation unit estimates that the age of the main subject is equal to or less than a threshold value or the main subject is a woman. An image processing apparatus characterized by performing the processing.
請求項1から請求項8までのいずれか1項に記載の画像処理装置において、
前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値に応じてぼかし形状を変更する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 8,
The evaluation value calculation unit calculates an evaluation value indicating the degree of smile as the facial expression evaluation value,
The image processing apparatus, wherein the image processing unit changes a blur shape according to the expression evaluation value.
請求項1から請求項9までのいずれか1項に記載の画像処理装置において、
前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、
前記画像処理部は、前記推定部の推定結果に応じてぼかし形状を変更する
ことを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 9,
An estimation unit for estimating at least one of the age and sex of the main subject;
The image processing unit is configured to change a blur shape according to an estimation result of the estimation unit.
請求項1に記載の画像処理装置において、
前記評価値算出部は、怒りの程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値が閾値以上である場合に、前記主要被写体の頭部の上部分だけにぼかし処理を施す
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The evaluation value calculation unit calculates an evaluation value indicating the degree of anger as the facial expression evaluation value,
The image processing device, wherein the image processing unit performs a blurring process only on an upper part of the head of the main subject when the facial expression evaluation value is equal to or greater than a threshold value.
請求項1に記載の画像処理装置において、
前記評価値算出部は、悲しみの程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値が閾値以上である場合に、前記背景領域の色調をモノトーンまたはセピア調にする色補正を施す
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The evaluation value calculation unit calculates an evaluation value indicating the degree of sadness as the facial expression evaluation value,
The image processing apparatus, wherein the image processing unit performs color correction to make the color tone of the background region monotone or sepia when the facial expression evaluation value is equal to or greater than a threshold value.
請求項1から請求項12までのいずれか1項に記載の画像処理装置において、
前記画像のうち、所定の表情の画像を表示する表示部と、
前記表示部に表示された前記画像からいずれかを選択する選択部とをさらに備え、
前記画像処理部は、前記選択部により選択された前記画像に対してぼかし処理を施す
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 12,
A display unit for displaying an image of a predetermined facial expression among the images;
A selection unit that selects any one of the images displayed on the display unit;
The image processing unit performs blurring processing on the image selected by the selection unit.
主要被写体を撮像することにより画像を取得する撮像部と、
請求項1から請求項13までのいずれか1項に記載の画像処理装置とを備えるデジタルカメラであって、
前記画像処理部は、少なくとも前記撮像部により取得した画像に対してぼかし処理を施す
ことを特徴とするデジタルカメラ。
An imaging unit that acquires an image by imaging a main subject;
A digital camera comprising the image processing apparatus according to any one of claims 1 to 13,
The digital camera according to claim 1, wherein the image processing unit performs blurring processing on at least an image acquired by the imaging unit.
請求項14に記載のデジタルカメラであって、
前記主要被写体の表情に応じて前記撮像部を制御する撮像制御部をさらに備える
ことを特徴とするデジタルカメラ。
The digital camera according to claim 14,
A digital camera, further comprising: an imaging control unit that controls the imaging unit according to a facial expression of the main subject.
処理対象の画像データに対する画像処理をコンピュータで実現するための画像処理プログラムであって、
画像から主要被写体を抽出するとともに、前記画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出ステップと、
前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出ステップと、
前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理ステップと
を備えることを特徴とする画像処理プログラム。
An image processing program for realizing image processing on image data to be processed by a computer,
A subject extraction step of extracting a main subject from the image and determining a range of a background area not including the main subject in the image;
An evaluation value calculating step for evaluating the expression of the main subject and calculating an expression evaluation value indicating the degree of the expression;
An image processing program comprising: an image processing step for performing a blurring process on the background area according to the facial expression evaluation value.
JP2008258543A 2008-10-03 2008-10-03 Image processing apparatus, image processing program, and digital camera Withdrawn JP2010092094A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008258543A JP2010092094A (en) 2008-10-03 2008-10-03 Image processing apparatus, image processing program, and digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008258543A JP2010092094A (en) 2008-10-03 2008-10-03 Image processing apparatus, image processing program, and digital camera

Publications (1)

Publication Number Publication Date
JP2010092094A true JP2010092094A (en) 2010-04-22

Family

ID=42254782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008258543A Withdrawn JP2010092094A (en) 2008-10-03 2008-10-03 Image processing apparatus, image processing program, and digital camera

Country Status (1)

Country Link
JP (1) JP2010092094A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004747A (en) * 2010-06-15 2012-01-05 Toshiba Corp Electronic equipment and image display method
WO2013153781A1 (en) * 2012-04-10 2013-10-17 株式会社デンソー Affect-monitoring system
JP2015159357A (en) * 2014-02-21 2015-09-03 キヤノン株式会社 Image processing system, image processing method, and program
JP2018174545A (en) * 2018-06-12 2018-11-08 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine
JP2019159939A (en) * 2018-03-14 2019-09-19 京セラドキュメントソリューションズ株式会社 Electronic device and image forming apparatus
JP7471510B2 (en) 2020-09-29 2024-04-19 北京字跳▲網▼絡技▲術▼有限公司 Method, device, equipment and storage medium for picture to video conversion - Patents.com

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004747A (en) * 2010-06-15 2012-01-05 Toshiba Corp Electronic equipment and image display method
WO2013153781A1 (en) * 2012-04-10 2013-10-17 株式会社デンソー Affect-monitoring system
JP2013216241A (en) * 2012-04-10 2013-10-24 Denso Corp Affect-monitoring system
CN104244824A (en) * 2012-04-10 2014-12-24 株式会社电装 Affect-monitoring system
US9465978B2 (en) 2012-04-10 2016-10-11 Denso Corporation Feeling monitoring system
JP2015159357A (en) * 2014-02-21 2015-09-03 キヤノン株式会社 Image processing system, image processing method, and program
JP2019159939A (en) * 2018-03-14 2019-09-19 京セラドキュメントソリューションズ株式会社 Electronic device and image forming apparatus
JP2018174545A (en) * 2018-06-12 2018-11-08 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine
JP7471510B2 (en) 2020-09-29 2024-04-19 北京字跳▲網▼絡技▲術▼有限公司 Method, device, equipment and storage medium for picture to video conversion - Patents.com

Similar Documents

Publication Publication Date Title
US8977053B2 (en) Image processing device and image processing method
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP4344925B2 (en) Image processing apparatus, image processing method, and printing system
JP6111723B2 (en) Image generating apparatus, image generating method, and program
JP4752941B2 (en) Image composition apparatus and program
JP2010211497A (en) Digital camera and image processing program
JP5949030B2 (en) Image generating apparatus, image generating method, and program
JP2010092094A (en) Image processing apparatus, image processing program, and digital camera
JP2010244239A (en) Image processor, digital camera and program
JP5272775B2 (en) Electronic still camera
JP2013172166A (en) Image processing apparatus, imaging apparatus, and program
JP2009200900A (en) Imaging apparatus
JP5353293B2 (en) Image processing apparatus and electronic still camera
JP2011135527A (en) Digital camera
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP5453796B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2011044964A (en) Imaging apparatus, imaging method and computer program
JP2012003324A (en) Image processing system, imaging apparatus, image processing program and memory medium
JP2010199968A (en) Digital camera
JP2010226416A (en) Digital camera
JP5891874B2 (en) Imaging apparatus and program
JP2013171433A (en) Digital camera, and image processing program
JP2014165876A (en) Image processing apparatus, imaging apparatus, and image processing program
JP4946913B2 (en) Imaging apparatus and image processing program
JP2014096836A (en) Digital camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206