JP2010092094A - Image processing apparatus, image processing program, and digital camera - Google Patents
Image processing apparatus, image processing program, and digital camera Download PDFInfo
- Publication number
- JP2010092094A JP2010092094A JP2008258543A JP2008258543A JP2010092094A JP 2010092094 A JP2010092094 A JP 2010092094A JP 2008258543 A JP2008258543 A JP 2008258543A JP 2008258543 A JP2008258543 A JP 2008258543A JP 2010092094 A JP2010092094 A JP 2010092094A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- evaluation value
- unit
- main subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理を行う画像処理装置、画像処理プログラム及びそれらを備えたデジタルカメラに関する。 The present invention relates to an image processing apparatus that performs image processing, an image processing program, and a digital camera including them.
従来から、被写体の表情を認識し、この認識結果に基づいて画像処理を行うデジタルカメラが知られる。例えば、特許文献1のデジタルカメラは、被写体の表情に応じて画像の明るさ補正、テキストやキャラクタの写し込みなどを行う。
ところで、ポートレート撮影においては、背景をぼかし、主要被写体を浮かび上がらせる写真表現が好まれている。しかし、上述したデジタルカメラでは、背景をぼかさないため、必ずしも好ましい画像を得ることができなかった。 By the way, in portrait photography, a photographic expression that blurs the background and highlights the main subject is preferred. However, since the above-described digital camera does not blur the background, a preferable image cannot always be obtained.
そこで、本発明は、ポートレート写真として好ましい画像を取得する画像処理装置、画像処理プログラム及びデジタルカメラを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing program, and a digital camera that acquire a preferable image as a portrait photograph.
本発明の画像処理装置は、画像から主要被写体を抽出するとともに、前記画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出部と、前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出部と、前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理部とを備える。 The image processing apparatus of the present invention extracts a main subject from an image, evaluates a facial expression of the main subject, a subject extraction unit that determines a range of a background area that does not include the main subject in the image, An evaluation value calculation unit that calculates a facial expression evaluation value indicating the degree of the image, and an image processing unit that performs a blurring process on the background area according to the facial expression evaluation value.
なお、好ましくは、前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値が高いほどぼかし度合いを強くしても良い。 Preferably, the evaluation value calculation unit may calculate an evaluation value indicating the degree of smile as the facial expression evaluation value, and the image processing unit may increase the blurring degree as the facial expression evaluation value is higher.
また、好ましくは、前記画像処理部は、前記表情評価値が高いほど前記背景領域の輝度を上げても良い。 Preferably, the image processing unit may increase the luminance of the background region as the facial expression evaluation value is higher.
また、好ましくは、前記背景領域の空間周波数を解析する解析部をさらに備え、前記画像処理部は、高域周波数成分が多いほどぼかし度合いを強くしても良い。 Preferably, the image processing unit may further include an analysis unit that analyzes a spatial frequency of the background region, and the degree of blurring may be increased as the number of high-frequency components increases.
また、好ましくは、前記画像に対する前記主要被写体の顔領域の割合を算出する割合算出部をさらに備え、前記画像処理部は、前記顔領域の割合が閾値以上である場合に、ぼかし度合いを強くしても良い。 Preferably, the image processing unit further includes a ratio calculation unit that calculates a ratio of the face area of the main subject to the image, and the image processing unit increases the degree of blurring when the ratio of the face area is equal to or greater than a threshold value. May be.
また、好ましくは、前記背景領域の輝度を算出する輝度算出部をさらに備え、前記画像処理部は、前記輝度が低いほどぼかし度合いを強くしても良い。 Preferably, the image processing unit may further include a luminance calculation unit that calculates the luminance of the background region, and the degree of blurring may be increased as the luminance is lower.
また、好ましくは、前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、ぼかし度合いを強くしても良い。 Preferably, the image processing unit further includes an estimation unit that estimates at least one of the age and sex of the main subject, and the image processing unit uses the estimation unit to determine whether the age of the main subject is equal to or lower than a threshold value, or the main subject is a female. When it is estimated that, the degree of blurring may be increased.
また、好ましくは、前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、前記主要被写体の顔領域に対して赤味を増す色補正を施しても良い。 Preferably, the image processing unit is reddish with respect to a face area of the main subject when the estimation unit estimates that the age of the main subject is equal to or less than a threshold value or the main subject is a woman. Color correction to increase the color may be performed.
また、好ましくは、前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値に応じてぼかし形状を変更しても良い。 Preferably, the evaluation value calculation unit may calculate an evaluation value indicating the degree of smile as the facial expression evaluation value, and the image processing unit may change a blur shape according to the facial expression evaluation value.
また、好ましくは、前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、前記画像処理部は、前記推定部の推定結果に応じてぼかし形状を変更しても良い。 Preferably, the image processing unit may further include an estimation unit that estimates at least one of age and sex of the main subject, and the image processing unit may change a blur shape according to an estimation result of the estimation unit.
また、好ましくは、前記評価値算出部は、怒りの程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値が閾値以上である場合に、前記主要被写体の頭部の上部分だけにぼかし処理を施しても良い。 Preferably, the evaluation value calculation unit calculates an evaluation value indicating a degree of anger as the facial expression evaluation value, and the image processing unit determines that the main subject is in the case where the facial expression evaluation value is greater than or equal to a threshold value. Only the upper part of the head may be blurred.
また、好ましくは、前記評価値算出部は、悲しみの程度を示す評価値を前記表情評価値として算出し、前記画像処理部は、前記表情評価値が閾値以上である場合に、前記背景領域の色調をモノトーンまたはセピア調にする色補正を施しても良い。 Preferably, the evaluation value calculation unit calculates an evaluation value indicating a degree of sadness as the facial expression evaluation value, and the image processing unit determines that the background region has a background value when the facial expression evaluation value is equal to or greater than a threshold value. You may perform the color correction which makes a color tone a monotone or a sepia tone.
また、好ましくは、前記画像のうち、所定の表情の画像を表示する表示部と、前記表示部に表示された前記画像からいずれかを選択する選択部とをさらに備え、前記画像処理部は、前記選択部により選択された前記画像に対してぼかし処理を施しても良い。 Preferably, the image processing unit further includes a display unit that displays an image of a predetermined facial expression among the images, and a selection unit that selects any one of the images displayed on the display unit. Blur processing may be performed on the image selected by the selection unit.
本発明のデジタルカメラは、主要被写体を撮像することにより画像を取得する撮像部と、第1の発明に記載の画像処理装置とを備えるデジタルカメラであって、前記画像処理部は、少なくとも前記撮像部により取得した画像に対してぼかし処理を施す。 A digital camera according to the present invention is a digital camera including an imaging unit that acquires an image by imaging a main subject and the image processing apparatus according to the first invention, wherein the image processing unit includes at least the imaging Blur processing is performed on the image acquired by the section.
なお、好ましくは、前記主要被写体の表情に応じて前記撮像部を制御する撮像制御部をさらに備えても良い。 Preferably, an imaging control unit that controls the imaging unit according to the facial expression of the main subject may be further provided.
本発明の画像処理プログラムは、処理対象の画像データに対する画像処理をコンピュータで実現するための画像処理プログラムであって、画像から主要被写体を抽出するとともに、前記画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出ステップと、前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出ステップと、前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理ステップとを備える。 An image processing program of the present invention is an image processing program for realizing image processing on image data to be processed by a computer, and extracts a main subject from an image and does not include the main subject in the image. A subject extraction step for determining a range of a background region; an evaluation value calculation step for evaluating a facial expression of the main subject and calculating a facial expression evaluation value indicating a degree of facial expression; and the facial expression evaluation value for the background region. And an image processing step for performing a blurring process accordingly.
本発明の画像処理装置、画像処理プログラム及びデジタルカメラによれば、ポートレート写真として好ましい画像を取得することができる。 According to the image processing apparatus, the image processing program, and the digital camera of the present invention, a preferable image can be acquired as a portrait photograph.
(第1実施形態)
以下、図面を用いて本発明の第1実施形態について説明する。なお、本実施形態では、本発明の画像処理装置の一例として、デジタルカメラを用いて説明する。図1は、本発明の第1実施形態におけるデジタルカメラ1の構成を示すブロック図である。図1に示すように、デジタルカメラ1は、撮像レンズ2、撮像素子3、A/D変換部4、バッファメモリ5、画像処理部6、圧縮伸長処理部7、制御部10、表示部14、メモリ15、操作部16、記録I/F部19、記録媒体20、バス21を備える。
(First Embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In this embodiment, a digital camera is used as an example of the image processing apparatus of the present invention. FIG. 1 is a block diagram showing the configuration of the
撮像レンズ2は、撮像素子3の撮像面に被写体像を結像する。撮像素子3は、撮像レンズ2を通過した光束による被写体像を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮影モードにおいて、撮像素子3は、所定間隔毎に間引き読み出しを行い、スルー画像を撮像する。その後、撮像素子3は、レリーズ釦17が全押しされると本画像を撮像する。また、撮像素子3は、後述する笑顔、怒り、悲しみの各表情モードにおいて、表情認識部12により、スルー画像から笑顔、怒り、悲しみの表情をそれぞれ認識した場合に、自動的に本画像を撮像することもできる。
The
撮像素子3から出力される画像信号は、A/D変換部4に入力される。A/D変換部4は、撮像素子3から出力されるアナログの画像信号をA/D変換し、デジタルの画像信号に変換する。なお、このデジタルの画像信号は、1コマにまとめられ、画像データとしてバッファメモリ5に記録される。バッファメモリ5は、画像処理部6による画像処理の前工程や後工程で画像データを一時的に記録する。
An image signal output from the
画像処理部6は、バッファメモリ5に記憶された画像データに対して画像処理を施す。なお、この画像処理としては、周知のホワイトバランス調整、色補間、階調変換処理、輪郭強調処理などが挙げられる。また、画像処理部6は、本画像や記録媒体20に記録された画像に対して、後述するぼかし処理を施す。圧縮伸長処理部7は、解析部8、圧縮部9を有する。解析部8は、画像データに対して空間周波数の解析を行う。圧縮部9は、JPEG(Joint Photographic Experts Group)形式による圧縮伸長処理を実行する。
The image processing unit 6 performs image processing on the image data stored in the buffer memory 5. Examples of the image processing include well-known white balance adjustment, color interpolation, gradation conversion processing, and contour enhancement processing. Further, the image processing unit 6 performs a blurring process to be described later on the main image and the image recorded on the
制御部10は、所定のシーケンスプログラムにしたがって、デジタルカメラ1の統括的な制御を行うとともに、撮像時に必要となる各種演算(AF、AEなど)を実行する。また、制御部10は、顔検出部11、表情認識部12、被写体抽出部13を有する。顔検出部11は、スルー画像、本画像、記録媒体20に記録された画像から特徴点を抽出して、後述する主要被写体Aの顔領域、顔の大きさ等を検出する。表情認識部12は、顔検出部11が検出した顔領域の表情を認識する。被写体抽出部13は、本画像、記録媒体20に記録された画像から主要被写体Aを抽出するとともに、後述する主要被写体Aを含まない背景領域Bの範囲を決定する。
The
また、制御部10は、表情の程度を示す表情評価値を算出する。例えば、制御部10は、表情評価値として、笑顔の程度を示す笑顔評価値、怒りの程度を示す怒り評価値、悲しみの程度を示す悲しみ評価値を算出する。メモリ15は、制御部10により笑顔評価値、怒り評価値、悲しみ評価値の算出にそれぞれ用いられる笑顔評価基準テーブル、怒り評価基準テーブル、悲しみ評価基準テーブルを予め記憶する。各表情評価値、各評価基準テーブルについては、後述する。
Further, the
表示部14は、制御部10の制御により各種の画像を表示する。表示部14に表示される各種の画像は、スルー画像、本画像、記録媒体20に記録された画像、メニュー画像などを含む。操作部16は、レリーズ釦17、操作釦18などを有する。レリーズ釦17は、撮像時にユーザにより操作される。操作釦18は、上記のメニュー画像等で操作される。なお、レリーズ釦17及び操作釦18の状態は制御部10により検知され、検知された釦の状態に基づいたシーケンスが実行される。記録I/F部19は、記録媒体20を接続するためのコネクタを備えている。この記録I/F部19と記録媒体20とが接続されることにより、記録媒体20に対してデータの書き込み/読み出しを実行する。バス21は、バッファメモリ5、画像処理部6、圧縮伸長処理部7、制御部10、表示部14、メモリ15、記録I/F部19を相互に接続することにより、データや信号の出入力を実行する。なお、A/D変換部4の出力はバス21を介して画像処理部6に接続される。
The
ここで、ぼかし処理について説明する。本実施形態のぼかし処理は、点拡がり関数により輝点を拡げる処理である。図2は、ぼかし処理前後の輝点の輝度分布を示す図である。図2の縦軸は輝度を示し、横軸は輝度中心からの拡がりを示す。 Here, the blurring process will be described. The blurring process of the present embodiment is a process of expanding a bright spot using a point spread function. FIG. 2 is a diagram illustrating the luminance distribution of the bright spots before and after the blurring process. The vertical axis in FIG. 2 indicates the luminance, and the horizontal axis indicates the spread from the luminance center.
画像処理部6は、図2に示すように、ぼかし処理前後で輝点の輝度情報が同等になるようにぼかし処理を施す。なお、輝度情報とは、図2では、ぼかし処理前の輝点の面積、すなわち斜線が引かれた領域Eの面積と、ぼかし処理後の輝点の面積、すなわち斜線が引かれた領域Fの面積とに相当する。画像処理部6は、背景領域Bにぼかし処理を施すことにより、主要被写体Aが浮かび上がるように表現された画像を得ることができる。なお、本実施形態では、ぼかし度合いの指標として、輝度がピークの1/2となる部分の幅寸法を用いる。例えば、図2のぼかし度合いはDで表される。 As shown in FIG. 2, the image processing unit 6 performs the blurring process so that the luminance information of the bright spots is the same before and after the blurring process. In FIG. 2, the luminance information is the area of the bright spot before the blurring process, that is, the area of the area E that is shaded, and the area of the bright spot after the blurring process, that is, the area F of the area F that is hatched. It corresponds to the area. The image processing unit 6 can obtain an image expressed so that the main subject A emerges by performing a blurring process on the background region B. In the present embodiment, the width dimension of the portion where the luminance is ½ of the peak is used as an index of the blurring degree. For example, the blurring degree in FIG.
また、画像処理部6は、輝点の拡がり方(以下、ぼかし形状という)を変えることができる。ぼかし形状は、二次元画像上に拡がった輝点の形状と、中心から周辺への輝度の減衰とにバリエーションを持っている。図3は、ぼかし形状の例を示す図である。図3に示すように、ぼかし形状の種類としては、「丸1」、「丸2」、「星」などがあり、「丸1」を示すぼかし形状は、輝点の部分が円状に拡がり、かつ、輝点の輪郭が明瞭になるようにぼかす形状からなる。以下、「丸1」のぼかし形状については、符号31を付して説明する。「丸2」を示すぼかし形状は、輝点の部分が円状に拡がり、かつ、輝点の中心から放線方向に向けてグラデーション状に輝度が低くなるようにぼかす形状からなる。以下、「丸2」のぼかし形状については、符号32を付して説明する。「星」を示すぼかし形状は、輝点の部分が星状に拡がり、かつ、輝点の輪郭が明瞭になるようにぼかす形状からなる。以下、「星」のぼかし形状については、符号33を付して説明する。
Further, the image processing unit 6 can change the way in which the bright spots are spread (hereinafter referred to as a blur shape). The blur shape has variations in the shape of a bright spot spread on a two-dimensional image and the attenuation of luminance from the center to the periphery. FIG. 3 is a diagram illustrating an example of a blurred shape. As shown in FIG. 3, the types of blur shapes include “
主要被写体Aの背景領域Bがぼけた画像は、主要被写体Aや背景領域Bの状況により好ましいぼけ方が異なる。例えば、晴れた日の昼間の屋外のような明るい撮影シーンの場合は、「丸2」に示すぼかし形状32のような、輪郭が明瞭でないぼかし形状を用いる方が、主要被写体Aが浮かび上がって強調されるとともに、見た目にも違和感の少ないぼかし画像を作成することができる。一方、夜景のような暗い撮影シーンの場合は、「丸1」に示すぼかし形状31のような、輪郭が明瞭なぼかし形状を用いる方が、背景領域Bの輝点が強調され、印象的なぼかし画像を作成することができる。また、主要被写体Aが子供の画像では、「星」に示すぼかし形状33を用いると、楽しくメルヘンチックな効果が演出でき、ぼかし処理が有効に作用する。
An image in which the background region B of the main subject A is blurred differs depending on the situation of the main subject A and the background region B. For example, in the case of a bright shooting scene such as outdoors in the daytime on a sunny day, the main subject A appears more clearly by using a blurring shape with an unclear outline such as the blurring shape 32 shown in “
なお、画像処理部6は、異なる点拡がり関数を用いることによって、ぼかし度合い及びぼかし形状を変更する。また、点拡がり関数の代わりに、ローパスフィルタ等の種々のデジタルフィルタを用いても、同様のぼかし処理を施すことができる。 The image processing unit 6 changes the blurring degree and the blurring shape by using different point spread functions. The same blurring process can be performed by using various digital filters such as a low-pass filter instead of the point spread function.
図4は、デジタルカメラ1における笑顔モードによる撮像時の制御部10の動作を示すフローチャートである。なお、以下の各表情モードにおいて、便宜上、1人の人物を撮像するシーンを前提として説明する。
FIG. 4 is a flowchart showing the operation of the
ステップS101で、制御部10は、笑顔モードを開始する。例えば、制御部10は、撮像素子3を制御して、スルー画像の撮像を開始する。
In step S101, the
ステップS102で、顔検出部11は、スルー画像から顔領域を検出する。例えば、顔検出部11は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。次に、表情認識部12は、顔検出部11が検出した顔領域の表情を認識する。例えば、表情認識部12は、特開平8−249453号公報、特開平10−255043号公報に示されるように、表情カテゴリとして、怒り、嫌悪、恐れ、悲しみ、笑顔、驚きの合計6種類の基本表情を考え、無表情から各基本表情への時系列画像の処理を行い、表情を認識する。
In step S102, the
ステップS103で、制御部10は、ステップS102で認識した表情が笑顔か否かを判定する。笑顔である場合(ステップS103の判定がYESとなる場合)には、ステップS104に進む。一方、笑顔でない場合(ステップS103の判定がNOとなる場合)には、ステップS102に戻る。
In step S103, the
ステップS104で、制御部10は、撮像素子3を制御して、本画像を撮像する。そして、制御部10は、画像処理部6を制御して、本画像データに画像処理を施し、バッファメモリ5に記憶する。主要被写体Aである子供と、背景領域Bである木々とが撮像された本画像の例を図5(1)に示す。
In step S <b> 104, the
ステップS105で、被写体抽出部13は、以下の要領によりステップS104で撮像した本画像から主要被写体Aを抽出するとともに、主要被写体Aを含まない背景領域Bの範囲を決定する。
In step S105, the
第1に、被写体抽出部13は、本画像内の輪郭線によって本画像を複数の領域に分割する。例えば、被写体抽出部13は、画像処理部6によるエッジ抽出処理で本画像を分割する。この場合、画像処理部6は、本画像データに対して微分フィルタ(ラプラシアンフィルタなど)によるエッジ抽出処理を施す。そして、被写体抽出部13は、抽出された輪郭線に基づいて本画像を複数の領域に分割する。
First, the
あるいは、被写体抽出部13は、解析部8の出力に基づいて本画像を複数の領域に分割することもできる。この場合には、被写体抽出部13は、本画像を8×8画素程度の画素ブロックに分割する。次に、解析部8は、上記の各々の画素ブロックに離散コサイン変換(DCT)処理を施し、各々の画素ブロック毎のDCT係数を取得する。
Alternatively, the
ここで、DCT係数と主要被写体Aの抽出処理との関係について簡単に説明する。輪郭が明確な画像には、画像データに高域周波数成分が多く含まれる。そのため、輪郭が明確な画像から得たDCT係数は0でない値を有する。一方、輪郭を含まない画像は、輪郭が明確な画像と比べて高域周波数成分が少なくなる。そのため、輪郭を含まない画像から得たDCT係数は、低い周波数成分から0となる。 Here, the relationship between the DCT coefficient and the extraction process of the main subject A will be briefly described. An image with a clear outline contains many high frequency components in the image data. Therefore, the DCT coefficient obtained from an image with a clear outline has a non-zero value. On the other hand, an image that does not include a contour has fewer high-frequency components than an image with a clear contour. Therefore, the DCT coefficient obtained from the image not including the contour becomes 0 from the low frequency component.
したがって、被写体抽出部13は、各周波数成分に対するDCT係数の分布に着目し、高域周波数成分に対応するDCT係数が0値ではない画素ブロックを被写体の輪郭とみなして抽出する。その後、被写体抽出部13は、抽出された画素ブロックに基づいて本画像を複数の領域に分割する。なお、被写体抽出部13は、本画像の色差及び明度などの情報に基づいて、輪郭で仕切られた各々の領域をグループ化するようにしても良い。
Therefore, the
第2に、顔検出部は、本画像から顔領域を検出する。そして、被写体抽出部13は、顔領域の位置に基づいて、上記で分割された本画像の領域から、主要被写体Aと背景領域Bとの範囲を決定する。図5(2)は、図5(1)の本画像を主要被写体A及び背景領域Bに分割した状態を示す図である。なお、図5(2)において、斜線が引かれた領域が背景領域Bである。
Secondly, the face detection unit detects a face region from the main image. Then, the
ステップS106で、制御部10は、特開2004−46591号公報に示されるように、笑顔評価テーブルを参照して、顔領域の眉、瞳孔、唇の各要素の形状の評価ポイントを算出し、各評価ポイントを係数により重み付けしたものを合算して笑顔評価値を算出する。なお、笑顔評価基準テーブルは、顔の構成要素を表すデータ(例えば、眉、目、唇)を格納する要素領域と、対応する顔の構成要素の係数を表すデータを格納する係数領域と、対応する顔の構成要素の基準画像及びその評価ポイントを格納する評価ポイント領域とにより構成される。また、笑顔評価値は、100点を満点とし、満面の笑みに近いほど高得点となる。
In step S106, the
ステップS107で、制御部10は、特開2007−280291号公報に記載された推論処理を用いて、主要被写体Aの年齢及び性別を推定する。そして、制御部10は、主要被写体Aの年齢が閾値以下である場合には、子供と判定する。
In step S107, the
ステップS108で、制御部10は、本画像に対する主要被写体Aの顔領域の割合を算出する。そして、制御部10は、顔領域の割合が閾値以上(例えば、10%)である場合には、バストショットであると判定する。
In step S108, the
ステップS109で、制御部10は、背景領域Bの輝度を算出する。例えば、制御部10は、背景領域Bを構成する全画素について、画素ごとに輝度を算出する。そして、制御部10は、この輝度の総和を背景領域Bの画素数で割り、背景領域Bを構成する全画素の輝度の平均値を算出する。
In step S109, the
ステップS110で、制御部10は、背景領域Bの複雑さの程度を求める。背景領域Bが複雑である場合には、画像データに高域周波数成分が多く含まれる。そのため、制御部10は、解析部8を制御して、ステップS105と同様の処理を行い、8×8画素程度の画素ブロックに分割した背景領域Bから、高域周波数成分に対応するDCT係数が0値ではない画素ブロックを抽出する。そして、制御部10は、抽出した画素ブロックの数に応じて、背景領域Bの複雑さの程度を求める。
In step S110, the
ステップS111で、制御部10は、以下の(a)〜(g)を組み合わせて、ぼかし度合い及びぼかし形状を決定する。これにより、主要被写体Aの笑顔にふさわしいぼかし処理を施すことができるため、ポートレート写真として好ましい画像を得ることができる。
In step S111, the
(a)制御部10は、ステップS106で算出した笑顔評価値が高いほどぼかし度合いを強くする。笑顔評価値とぼかし度合いとの関係を図6(1)に示す。図6(1)に示すように、ぼかし度合いが強くなるほど、輝点中央の輝度と略同等の輝度となる領域(以下、等輝度領域という)が狭くなり、また、等輝度領域の周辺部分の輝度変化が穏やかになる。逆に、ぼかし度合いが弱くなるほど、等輝度領域が広くなり、また、等輝度領域の周辺部分の輝度変化が急峻になる。これによって、笑顔評価値が大きく、満面の笑みに近い画像ほど、輝点中央の明るさが低く、中心から周辺部分への減衰もなだらかになるような強いぼかし度合いが選択され、より主要被写体Aが強調された画像となる。一方、笑顔評価値が小さい場合は、弱いぼかし度合いが選択され、ぼかし処理による主要被写体Aの強調は抑えられる。
(A) The
(b)制御部10は、ステップS109で算出した背景領域Bの輝度が低いほどぼかし度合いを強くする。背景領域Bの輝度とぼかし度合いとの関係を図6(2)に示す。背景領域Bの輝度が低い画像では、ぼかし処理による違和感が目立たないため、強いぼかし処理とすることで、主要被写体Aを強調する効果が大きく、かつ、違和感の少ない画像を得ることができる。
(B) The
(c)制御部10は、ステップS107で主要被写体Aが子供、または女性であると推定した場合に、ぼかし度合いを強くする。主要被写体Aが子供や女性の画像では、強いぼかし処理により、主要被写体Aを強調する画像が好まれるためである。
(C) When it is estimated that the main subject A is a child or a woman in step S107, the
(d)制御部10は、ステップS108でバストショットであると判定した場合に、ぼかし度合いを強くする。バストショットのように主要被写体Aが大きく映った画像では、ぼかし度合いが強い方が、画像の印象を好ましくする作用において、より効果的に作用するためである。一方、主要被写体Aが小さい画像で背景領域Bをぼかしてしまうと、画像の大部分がぼけた画像になり、必ずしも好ましい印象とならない。
(D) When the
(e)制御部10は、ステップS110で求めた背景領域Bが複雑さの程度が高いほど、ぼかし度合いを強くする。背景領域Bが複雑であるほど、主要被写体Aが目立たない可能性が高いためである。
(E) The
(f)制御部10は、主要被写体Aが女性である場合には、「丸1」を示すぼかし形状31を用い、主要被写体Aが子供である場合には、「星」を示すぼかし形状33を用いる。一方、主要被写体Aが大人の男性である場合には、「丸2」を示すぼかし形状32を用いる。主要被写体Aの種類とぼかし形状との関係を図6(3)に示す。
(F) When the main subject A is a woman, the
主要被写体Aが女性の場合は、「丸1」を示すぼかし形状31を用いると、背景領域Bの輝点が明瞭に拡がることで印象的な演出効果が得られる。また、主要被写体Aが子供の場合では、「星」を示すぼかし形状33を用いると、楽しくメルヘンチックな効果が演出でき、ぼかし処理を有効に作用させることができる。また、主要被写体Aが男性の場合は、「丸1」や「星」の様な演出効果は男性のイメージから外れる場合が多くそぐわないが、「丸2」を示すぼかし形状32を用いることで、違和感なく主要被写体Aを強調させた画像を得ることができる。
When the main subject A is a woman, if the blurring shape 31 indicating “
(g)制御部10は、笑顔評価値が70点以上である場合には、「丸1」を示すぼかし形状31を用い、笑顔評価値が70点未満である場合には、「丸2」を示すぼかし形状32を用いる。笑顔評価値とぼかし形状との関係を図6(4)に示す。笑顔評価値が大きい場合には、「丸1」を示すぼかし形状31による背景領域Bの輝点が明瞭に拡がったぼかし処理により、笑顔の主要被写体Aがより効果的に強調された画像となる。一方、笑顔評価値が小さい場合には、「丸2」を示すぼかし形状32を用いることで、過剰な演出効果の印象を防ぎつつ、主要被写体Aが強調された画像を得ることができる。
(G) When the smile evaluation value is 70 points or more, the
ステップS112で、制御部10は、画像処理部6を制御して、ステップS111で決定したぼかし度合い及びぼかし形状を用いて、背景領域Bに対してぼかし処理を施し、主要被写体Aが浮かび上がるように表現された画像を得る。ぼかし処理後の本画像の例を図5(3)に示す。図5(3)の例では、主要被写体Aが子供であるため、「星」を示すぼかし形状33が用いられる。これにより、背景領域Bがメルヘンチックになるため、子供らしさを強調することができる。
In step S112, the
ステップS113で、制御部10は、さらに主要被写体Aの笑顔にふさわしい演出をするために、画像処理部6を制御して、ステップS106で算出した笑顔評価値が高いほど背景領域Bの輝度を上げる。また、制御部10は、画像処理部6を制御して、主要被写体Aが子供、または女性である場合には、顔領域に対して赤味を増す色補正を行う。これにより、子供らしさ、または女性らしさをより強調することができる。なお、笑顔評価値が90点以上である場合には、背景領域Bに映り込む被写体をあたかも消してしまうような色処理を施しても良い。例えば、図5(3)の例では、背景領域Bが木々であるため、背景領域B全体を緑色に補間して一様の背景に加工しても良い。背景領域Bが一様な色であれば、主要被写体Aがより引き立った画像となる。
In step S113, the
ステップS114で、制御部10は、ステップS113で画像処理を行った本画像データを画像ファイルとして記録媒体20に記録し、一連の処理を終了する。なお、制御部10は、本画像データとともに、笑顔評価値とぼかし度合いとぼかし形状とをタグなどの情報として画像ファイル内に記録することが好ましい。
In step S114, the
次に、怒りモードにおけるぼかし処理について説明する。図7は、デジタルカメラ1における怒りモードによる撮像時の制御部10の動作を示すフローチャートである。
Next, the blurring process in the anger mode will be described. FIG. 7 is a flowchart illustrating the operation of the
ステップS201で、制御部10は、怒りモードを開始する。例えば、制御部10は、撮像素子3を制御して、スルー画像の撮像を開始する。
In step S201, the
ステップS202で、顔検出部11は、スルー画像から顔領域を検出する。次に、表情認識部12は、図4のステップS102と同様の処理を行い、顔検出部11が検出した顔領域の表情を認識する。
In step S202, the
ステップS203で、制御部10は、ステップS202で認識した表情が怒りか否かを判定する。怒りである場合(ステップS203の判定がYESとなる場合)には、ステップS204に進む。一方、怒りでない場合(ステップS203の判定がNOとなる場合)には、ステップS202に戻る。
In step S203, the
ステップS204で、制御部10は、撮像素子3を制御して、本画像を撮像する。そして、制御部10は、画像処理部6を制御して、本画像データに画像処理を施し、バッファメモリ5に記憶する。
In step S <b> 204, the
ステップS205で、被写体抽出部13は、図4のステップS105と同様の処理を行い、ステップS204で撮像した本画像から主要被写体Aを抽出するとともに、背景領域Bの範囲を決定する。
In step S205, the
ステップS206で、制御部10は、図4のステップS106と同様の処理を行い、予めメモリ15に記憶した怒り評価基準テーブルを用いて、怒り評価値を算出する。なお、怒り評価基準テーブルは、ステップS106で説明した笑顔評価基準テーブルと同様の構成とする。また、怒り評価値は、100点を満点とし、怒りの程度が高いほど高得点となる。
In step S206, the
ステップS207で、制御部10は、画像処理部6を制御して、背景領域Bのうち、主要被写体Aの頭の上部分だけに対してぼかし処理を施す。なお、制御部10は、ステップS206で算出した怒り評価値が高いほどぼかし度合いを強くしても良い。これにより、頭部から湯気が立っているように再現することができるので、主要被写体Aの怒りの表情をより引き立たせることができる。
In step S207, the
ステップS208で、制御部10は、画像処理部6を制御して、顔領域に対して赤味を増す色補正を行う。これにより、リアルに怒りの感情を画像として再現することができる。
In step S208, the
ステップS209で、制御部10は、ステップS208で色補正を行った本画像データを画像ファイルとして記録媒体20に記録し、一連の処理を終了する。なお、制御部10は、本画像データとともに、怒り評価値とぼかし度合いとをタグなどの情報として画像ファイル内に記録することが好ましい。
In step S209, the
次に、悲しみモードにおけるぼかし処理について説明する。図8は、デジタルカメラ1における悲しみモードによる撮像時の制御部10の動作を示すフローチャートである。
Next, the blurring process in the sadness mode will be described. FIG. 8 is a flowchart illustrating the operation of the
ステップS301で、制御部10は、悲しみモードを開始する。例えば、制御部10は、撮像素子3を制御して、スルー画像の撮像を開始する。
In step S301, the
ステップS302で、顔検出部11は、スルー画像から顔領域を検出する。次に、表情認識部12は、図4のステップS102と同様の処理を行い、顔検出部11が検出した顔領域の表情を認識する。
In step S302, the
ステップS303で、制御部10は、ステップS302で認識した表情が悲しみか否かを判定する。悲しみである場合(ステップS303の判定がYESとなる場合)には、ステップS304に進む。一方、悲しみでない場合(ステップS303の判定がNOとなる場合)には、ステップS302に戻る。
In step S303, the
ステップS304で、制御部10は、撮像素子3を制御して、本画像を撮像する。そして、制御部10は、画像処理部6を制御して、本画像データに画像処理を施し、バッファメモリ5に記憶する。
In step S304, the
ステップS305で、被写体抽出部13は、図4のステップS105と同様の処理を行い、ステップS304で撮像した本画像から主要被写体Aを抽出するとともに、背景領域Bの範囲を決定する。
In step S305, the
ステップS306で、制御部10は、図4のステップS106と同様の処理を行い、予めメモリ15に記憶した悲しみ評価基準テーブルを用いて、悲しみ評価値を算出する。なお、悲しみ評価基準テーブルは、ステップS106で説明した笑顔評価基準テーブルと同様の構成とする。また、悲しみ評価値は、100点を満点とし、悲しみの程度が高いほど高得点となる。
In step S306, the
ステップS307で、制御部10は、画像処理部6を制御して、背景領域Bに対してぼかし処理を施し、主要被写体Aが浮かび上がるように表現された画像を得る。なお、制御部10は、ステップS306で算出した悲しみ評価値が高いほどぼかし度合いを強くしても良い。これにより、主要被写体Aの悲しみの表情をより引き立たせることができる。
In step S307, the
ステップS308で、制御部10は、画像処理部6を制御して、顔領域に対して青味を増す色補正を行う。これにより、リアルに悲しみの感情を画像として再現することができる。
In step S308, the
ステップS309で、制御部10は、ステップS306で算出した悲しみ評価値が閾値以上か否かを判定する。悲しみ評価値が閾値以上である場合(ステップS309の判定がYESとなる場合)には、ステップS310に進む。一方、悲しみ評価値が閾値未満である場合(ステップS309の判定がNOとなる場合)には、ステップS311に進む。
In step S309, the
ステップS310で、制御部10は、画像処理部6を制御して、背景領域Bの色調をモノトーンまたはセピア調にする色補正を行う。これにより、哀愁の漂っている雰囲気の画像を再現することができる。
In step S310, the
ステップS311で、制御部10は、ステップS309の判定がYESとなる場合には、ステップS308で色補正を行った本画像データを画像ファイルとして記録媒体20に記録し、ステップS309の判定がNOとなる場合には、ステップS310で色補正行った本画像データを画像ファイルとして記録媒体に記録し、一連の処理を終了する。なお、制御部10は、本画像データとともに、悲しみ評価値とぼかし度合いとをタグなどの情報として画像ファイル内に記録することが好ましい。
If the determination in step S309 is YES in step S311, the
第1実施形態のデジタルカメラ1は、主要被写体Aの表情にふさわしい画像処理を行うことにより、主要被写体Aを引き立てる。そのため、第1実施形態のデジタルカメラ1によれば、ポートレート写真として好ましい画像を取得することができる。
The
また、第1実施形態のデジタルカメラ1は、主要被写体Aの表情を認識して自動的に本画像を撮像するため、シャッターチャンスを逃すことなく、所望の表情をした主要被写体Aの画像を取得することができる。
Further, since the
なお、第1実施形態では、各表情モードにおいて、表情認識部12により所定の表情を認識した場合に、自動的に本画像を撮像する例を示したが、これに限らない。例えば、各表情モードにおいて、表情認識とは無関係に、レリーズ釦17の全押しにより本画像を撮像できる構成にしても良い。また、撮影モードにおいて、レリーズ釦17の全押しにより撮像された本画像に対して、図4のステップS105以降の処理、または、図7のステップS205以降の処理、または、図8のステップS305以降の処理を行っても良い。
In the first embodiment, an example is shown in which the main image is automatically captured when a predetermined facial expression is recognized by the facial
また、顔検出部11により検出した顔領域の特徴点に基づいて顔認識データを生成し、メモリ15に記憶する構成にしても良い。この場合、制御部10は、スルー画像内の人物の顔が登録人物の顔か否かを判定する顔認識処理を行う。そして、制御部10は、登録人物に合致すると判定し、かつ、所定の表情を認識した場合に、自動的に本画像を撮像する。 さらに、登録人物ごとに表情認識レベルを設定できる構成にしても良い。例えば、普段あまり笑わない人は、少し笑っただけでも笑顔と認識して自動的に本画像を撮像するように設定することができる。
Further, face recognition data may be generated based on the feature points of the face area detected by the
また、ステップS207で、主要被写体Aの頭部の上部分に対して、ぼかし処理を施したが、これに限らない。例えば、画像をユラユラ揺れるアニメーション風に加工する「ugofy」v1.0.0.1を利用しても良い。これにより、主要被写体Aの頭部の上部分に動きをもたせることができるので、主要被写体Aの怒りの表情をより引き立たせることができる。 In step S207, the upper portion of the head of the main subject A is subjected to the blurring process, but the present invention is not limited to this. For example, “ugofy” v1.0.0.1, which processes an image in an animated manner that sways, may be used. Thereby, since the upper part of the head of the main subject A can be moved, the angry expression of the main subject A can be further enhanced.
また、被写体抽出部13による主要被写体Aの抽出方法は、上述した方法に限定されない。例えば、制御部10は、特開2002−44512号公報に示されるように、ステップS104で本画像を撮像するときに、撮像素子3を制御して、予備画像を撮像しておく。そして、被写体抽出部13は、本画像と予備画像との輝度を比較し、その結果に基づいて、本画像から主要被写体Aと背景領域Bとを分離しても良い。
Further, the extraction method of the main subject A by the
(第2実施形態)
以下、本発明の第2実施形態について説明する。第1実施形態では撮像時に本画像に対してぼかし処理を施す例を示した。第2実施形態では再生時に記録媒体20に記録された画像に対してぼかし処理を施す例を示す。ここで、以下の実施形態におけるデジタルカメラの構成は、図1に示す第1実施形態のデジタルカメラ1と共通するので重複説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the first embodiment, an example in which the blurring process is performed on the main image at the time of imaging is shown. In the second embodiment, an example in which blurring processing is performed on an image recorded on the
図9は、第2実施形態のデジタルカメラ1における再生時の制御部10の動作を示すフローチャートである。なお、便宜上、1人の人物を撮像した画像を前提として説明する。
FIG. 9 is a flowchart showing the operation of the
ステップS401で、制御部10は、再生モードを開始する。例えば、制御部10は、表示部14にレタッチ機能に関する複数の項目及び「スマイル背景ぼかし」の項目が表示されたメニュー画像41を表示する(図10(1)参照)。ここで、「スマイル背景ぼかし」は、笑顔の画像にぼかし処理を施す機能を示す項目である。
In step S401, the
ステップS402で、制御部10は、ユーザから操作釦18を介して、「スマイル背景ぼかし」の項目の選択を受け付ける。なお、制御部10は、「スマイル背景ぼかし」の項目が選択された場合に「背景をぼかして、被写体をより引き立つように加工します。あなたの笑顔がより引き立つ写真となるでしょう。」等の説明を表示部14に表示しても良い。
In step S <b> 402, the
ステップS403で、制御部10は、記録媒体20の画像ファイル内に記録されたタグなどの情報から笑顔評価値を読み出し、笑顔評価値が閾値以上である画像を笑顔の画像として読み出す。そして、制御部10は、図10(2)に示すように、読み出した画像に対応するサムネイル画像の一覧を表示部14のサムネイル表示領域42に表示する。なお、笑顔評価値が記録媒体20に記録されていない場合には、顔検出部11は、記録媒体20に記録された画像から顔領域を検出する。そして、表情認識部12は、顔検出部11が検出した顔領域から表情を認識し、笑顔の画像を読み出す。
In step S403, the
ステップS404で、制御部10は、ユーザから操作釦18を介して、ステップS403で表示したサムネイル画像の一覧から、いずれかの画像の選択を受け付ける。その後、制御部10は、図10(3)に示すように、選択を受け付けた画像に対してぼかし処理を施すか否かの選択を受け付ける。
In step S404, the
ステップS405〜S413は、図4のステップS105〜S113にそれぞれ対応するため、重複説明を省略する。 Steps S405 to S413 correspond to steps S105 to S113 in FIG.
ステップS414で、制御部10は、図10(4)に示すように、表示部14にステップS413で画像処理を行った画像43を表示する。また、制御部10は、スライダーバー44と、スライダーバー44内をスライドすることによりぼかし度合いを示すスライダー45を表示する。なお、スライダー45が右にあるほど、ぼかし度合いが強いことを示す。また、ユーザは、操作釦18を介してスライダー45の位置を変更することにより、ぼかし度合いをカスタマイズすることができる。
In step S414, the
ステップS415で、制御部10は、ユーザから操作釦18を介して、スライダー45の位置の変更を受け付けたか否かを判定する。スライダー45の位置の変更を受け付けた場合(ステップS415の判定がYESとなる場合)には、ステップS412に戻り、スライダー45の位置に応じたぼかし度合いになるように再度ぼかし処理を施す。スライダー45の位置の変更を受け付けない場合(ステップS415の判定がNOとなる場合)には、ステップS416に進む。
In step S415, the
ステップS416で、制御部10は、ユーザから操作釦18を介して、ステップS414で表示した画像43を記録するか否かの選択を受け付ける。画像43を記録する場合(ステップS416の判定がYESとなる場合)には、ステップS417に進む。一方、画像43を記録しない場合(ステップS416の判定がNOとなる場合)には、図9の処理を終了する。
In step S416, the
ステップS417で、制御部10は、ステップS413で画像処理を行った画像データを記録媒体20に記録し、一連の処理を終了する。
In step S417, the
なお、第2実施形態では、笑顔の画像に対してぼかし処理を施す例を示したが、怒りの表情の画像及び悲しみの表情の画像に対しても適用できる。例えば、制御部10は、怒りの表情の画像からいずれかの画像の選択を受け付け、図7のステップS205以降の処理を行う。その後、制御部10は、ぼかし度合いの変更を受け付けても良い。また、制御部10は、悲しみの表情の画像からいずれかの画像の選択を受け付け、図8のステップS305以降の処理を行う。その後、制御部10は、ぼかし度合いの変更を受け付けても良い。
In the second embodiment, the example in which the blurring process is performed on the smiley image has been described. However, the second embodiment can be applied to an image of an angry expression and an image of a sadness. For example, the
第2実施形態のデジタルカメラ1は、記録媒体20に記録した画像に対して、主要被写体Aの表情にふさわしい画像処理を行うことにより、主要被写体Aを引き立てる。したがって、第2実施形態のデジタルカメラ1によれば、第1実施形態と同様に、ポートレート写真として好ましい画像を取得することができる。
The
また、第2実施形態のデジタルカメラ1は、ぼかし度合いの変更を受け付けるため、ユーザの好みに応じたぼかし度合いの画像を取得することができる。
(実施形態の補足)
(1)第1実施形態及び第2実施形態では、デジタルカメラの例を説明したが、これに限らない。例えば、コンピュータに搭載されるプログラムに、第1実施形態及び第2実施形態における表情評価値を算出する手順、及びぼかし処理する手順に示す機能を備えることも可能である。この場合、予め画像処理プログラムを記憶媒体に格納しておき、コンピュータに接続した後に、この画像処理プログラムを実行させるか、または、インストールさせることが可能である。
In addition, since the
(Supplement of embodiment)
(1) In the first embodiment and the second embodiment, the example of the digital camera has been described, but the present invention is not limited to this. For example, a program installed in a computer can be provided with functions shown in a procedure for calculating facial expression evaluation values and a blurring procedure in the first and second embodiments. In this case, it is possible to store the image processing program in a storage medium in advance and execute or install the image processing program after connecting to the computer.
(2)第1実施形態及び第2実施形態では、輝点を拡げることにより、ぼかし処理を施したが、これに限らない。例えば、ローパスフィルタ処理としても良い。 (2) In the first embodiment and the second embodiment, the blurring process is performed by expanding the bright spots, but the present invention is not limited to this. For example, low pass filter processing may be used.
(3)第1実施形態及び第2実施形態では、「丸1」を示すぼかし形状31、「丸2」を示すぼかし形状32、「星」を示すぼかし形状33の3種類のぼかし形状を示したが、これに限らない。例えば、「ハート」を示すぼかし形状を用いても良い。この「ハート」を示すぼかし形状は、輝点の部分がハート状に拡がり、かつ、輝点の輪郭が明瞭になるようにぼかす形状からなる。
(3) In the first embodiment and the second embodiment, three types of blur shapes are shown: a blur shape 31 indicating “
(4)第1実施形態及び第2実施形態では、ぼかし度合い及びぼかし形状を決定する要素として、上記の(a)〜(g)を組み合わせる例を説明したが、ぼかし度合い及びぼかし形状を決定する要素はこれに限らない。 (4) In the first embodiment and the second embodiment, the example in which the above (a) to (g) are combined as elements for determining the blurring degree and the blurring shape has been described, but the blurring degree and the blurring shape are determined. The element is not limited to this.
(5)第1実施形態のデジタルカメラ1で複数の人物が含まれるシーンを撮像する場合に、顔検出部11が主要被写体Aを特定する手順について説明する。例えば、顔検出部11は、自動的に複数の人物から主要被写体Aを特定するか、あるいは、ユーザの指示に基づいて複数の人物から主要被写体Aを特定する。
(5) A procedure in which the
自動的に主要被写体Aを特定する場合、顔検出部11は、複数の人物から主要被写体Aを特定する。例えば、顔検出部11は、検出した複数の顔領域のうちで、最も至近側に位置する顔を主要被写体Aとして特定する。一般的にデジタルカメラに対して最も至近側にある人物は、ユーザにとって主要な被写体である可能性が高いからである。このとき、顔検出部11は、顔の大きさに基づいて、顔のサイズが最も大きい人物を主要被写体Aとしても良く、あるいは、AF時に取得する被写体距離の情報に基づいて、最も至近側の人物を決定しても良い。また、顔検出部11は、AF時の焦点検出エリアの位置にいる人物を主要被写体Aとして特定するようにしても良い。
When the main subject A is automatically specified, the
次に、ユーザの指示に基づいて主要被写体Aを特定する場合、制御部10は、メニュー画像により操作釦18を介して主要被写体Aの位置の入力を受け付ける。そして、制御部10は、ユーザから指定された位置にいる人物を主要被写体Aとする。このとき、制御部10は、ユーザが指定した主要被写体Aの位置を焦点検出エリアとしてAFを実行するようにしても良い。また、制御部10は、ユーザの入力に基づいて主要被写体Aの人数の上限を変更し、複数の人物を主要被写体Aとしても良い。
Next, when the main subject A is specified based on the user's instruction, the
なお、第2実施形態のデジタルカメラ1で複数の人物が含まれる画像から、顔検出部11が主要被写体Aを特定する場合においても上記と同様の処理を行っても良い。
Even when the
1…デジタルカメラ、2…撮像素子、6…画像処理部、7…圧縮伸長処理部、8…解析部、10…制御部、11…顔検出部、12…表情認識部、13…被写体抽出部、14…表示部、16…操作部
DESCRIPTION OF
Claims (16)
前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出部と、
前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理部と
を備えることを特徴とする画像処理装置。 A subject extraction unit that extracts a main subject from an image and determines a range of a background area that does not include the main subject in the image;
An evaluation value calculation unit that evaluates the expression of the main subject and calculates an expression evaluation value indicating the degree of expression;
An image processing apparatus comprising: an image processing unit that performs a blurring process on the background area according to the facial expression evaluation value.
前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値が高いほどぼかし度合いを強くする
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The evaluation value calculation unit calculates an evaluation value indicating the degree of smile as the facial expression evaluation value,
The image processing device, wherein the degree of blur is increased as the facial expression evaluation value is higher.
前記画像処理部は、前記表情評価値が高いほど前記背景領域の輝度を上げる
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The image processing device, wherein the brightness of the background region is increased as the facial expression evaluation value is higher.
前記背景領域の空間周波数を解析する解析部をさらに備え、
前記画像処理部は、高域周波数成分が多いほどぼかし度合いを強くする
ことを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 3,
An analysis unit for analyzing the spatial frequency of the background region;
The image processing device, wherein the degree of blurring is increased as the number of high frequency components increases.
前記画像に対する前記主要被写体の顔領域の割合を算出する割合算出部をさらに備え、
前記画像処理部は、前記顔領域の割合が閾値以上である場合に、ぼかし度合いを強くする
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein:
A ratio calculation unit for calculating a ratio of the face area of the main subject to the image;
The image processing device, wherein the blurring degree is increased when the ratio of the face area is equal to or greater than a threshold value.
前記背景領域の輝度を算出する輝度算出部をさらに備え、
前記画像処理部は、前記輝度が低いほどぼかし度合いを強くする
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein:
A luminance calculation unit for calculating the luminance of the background region;
The image processing device, wherein the degree of blur is increased as the luminance is lower.
前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、
前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、ぼかし度合いを強くする
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
An estimation unit for estimating at least one of the age and sex of the main subject;
The image processing unit increases the degree of blurring when the estimation unit estimates that the age of the main subject is equal to or lower than a threshold value or the main subject is a woman.
前記画像処理部は、前記推定部により前記主要被写体の年齢が閾値以下、または、前記主要被写体が女性であると推定した場合に、前記主要被写体の顔領域に対して赤味を増す色補正を施す
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 7.
The image processing unit performs color correction to increase redness with respect to the face area of the main subject when the estimation unit estimates that the age of the main subject is equal to or less than a threshold value or the main subject is a woman. An image processing apparatus characterized by performing the processing.
前記評価値算出部は、笑顔の程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値に応じてぼかし形状を変更する
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 8,
The evaluation value calculation unit calculates an evaluation value indicating the degree of smile as the facial expression evaluation value,
The image processing apparatus, wherein the image processing unit changes a blur shape according to the expression evaluation value.
前記主要被写体の年齢および性別の少なくとも一方を推定する推定部をさらに備え、
前記画像処理部は、前記推定部の推定結果に応じてぼかし形状を変更する
ことを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 9,
An estimation unit for estimating at least one of the age and sex of the main subject;
The image processing unit is configured to change a blur shape according to an estimation result of the estimation unit.
前記評価値算出部は、怒りの程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値が閾値以上である場合に、前記主要被写体の頭部の上部分だけにぼかし処理を施す
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The evaluation value calculation unit calculates an evaluation value indicating the degree of anger as the facial expression evaluation value,
The image processing device, wherein the image processing unit performs a blurring process only on an upper part of the head of the main subject when the facial expression evaluation value is equal to or greater than a threshold value.
前記評価値算出部は、悲しみの程度を示す評価値を前記表情評価値として算出し、
前記画像処理部は、前記表情評価値が閾値以上である場合に、前記背景領域の色調をモノトーンまたはセピア調にする色補正を施す
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The evaluation value calculation unit calculates an evaluation value indicating the degree of sadness as the facial expression evaluation value,
The image processing apparatus, wherein the image processing unit performs color correction to make the color tone of the background region monotone or sepia when the facial expression evaluation value is equal to or greater than a threshold value.
前記画像のうち、所定の表情の画像を表示する表示部と、
前記表示部に表示された前記画像からいずれかを選択する選択部とをさらに備え、
前記画像処理部は、前記選択部により選択された前記画像に対してぼかし処理を施す
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 12,
A display unit for displaying an image of a predetermined facial expression among the images;
A selection unit that selects any one of the images displayed on the display unit;
The image processing unit performs blurring processing on the image selected by the selection unit.
請求項1から請求項13までのいずれか1項に記載の画像処理装置とを備えるデジタルカメラであって、
前記画像処理部は、少なくとも前記撮像部により取得した画像に対してぼかし処理を施す
ことを特徴とするデジタルカメラ。 An imaging unit that acquires an image by imaging a main subject;
A digital camera comprising the image processing apparatus according to any one of claims 1 to 13,
The digital camera according to claim 1, wherein the image processing unit performs blurring processing on at least an image acquired by the imaging unit.
前記主要被写体の表情に応じて前記撮像部を制御する撮像制御部をさらに備える
ことを特徴とするデジタルカメラ。 The digital camera according to claim 14,
A digital camera, further comprising: an imaging control unit that controls the imaging unit according to a facial expression of the main subject.
画像から主要被写体を抽出するとともに、前記画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出ステップと、
前記主要被写体の表情を評価し、表情の程度を示す表情評価値を算出する評価値算出ステップと、
前記背景領域に対して、前記表情評価値に応じてぼかし処理を施す画像処理ステップと
を備えることを特徴とする画像処理プログラム。
An image processing program for realizing image processing on image data to be processed by a computer,
A subject extraction step of extracting a main subject from the image and determining a range of a background area not including the main subject in the image;
An evaluation value calculating step for evaluating the expression of the main subject and calculating an expression evaluation value indicating the degree of the expression;
An image processing program comprising: an image processing step for performing a blurring process on the background area according to the facial expression evaluation value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008258543A JP2010092094A (en) | 2008-10-03 | 2008-10-03 | Image processing apparatus, image processing program, and digital camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008258543A JP2010092094A (en) | 2008-10-03 | 2008-10-03 | Image processing apparatus, image processing program, and digital camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010092094A true JP2010092094A (en) | 2010-04-22 |
Family
ID=42254782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008258543A Withdrawn JP2010092094A (en) | 2008-10-03 | 2008-10-03 | Image processing apparatus, image processing program, and digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010092094A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012004747A (en) * | 2010-06-15 | 2012-01-05 | Toshiba Corp | Electronic equipment and image display method |
WO2013153781A1 (en) * | 2012-04-10 | 2013-10-17 | 株式会社デンソー | Affect-monitoring system |
JP2015159357A (en) * | 2014-02-21 | 2015-09-03 | キヤノン株式会社 | Image processing system, image processing method, and program |
JP2018174545A (en) * | 2018-06-12 | 2018-11-08 | 株式会社メイクソフトウェア | Photographing play machine, control method for photographing play machine, and control program for photographing play machine |
JP2019159939A (en) * | 2018-03-14 | 2019-09-19 | 京セラドキュメントソリューションズ株式会社 | Electronic device and image forming apparatus |
JP7471510B2 (en) | 2020-09-29 | 2024-04-19 | 北京字跳▲網▼絡技▲術▼有限公司 | Method, device, equipment and storage medium for picture to video conversion - Patents.com |
-
2008
- 2008-10-03 JP JP2008258543A patent/JP2010092094A/en not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012004747A (en) * | 2010-06-15 | 2012-01-05 | Toshiba Corp | Electronic equipment and image display method |
WO2013153781A1 (en) * | 2012-04-10 | 2013-10-17 | 株式会社デンソー | Affect-monitoring system |
JP2013216241A (en) * | 2012-04-10 | 2013-10-24 | Denso Corp | Affect-monitoring system |
CN104244824A (en) * | 2012-04-10 | 2014-12-24 | 株式会社电装 | Affect-monitoring system |
US9465978B2 (en) | 2012-04-10 | 2016-10-11 | Denso Corporation | Feeling monitoring system |
JP2015159357A (en) * | 2014-02-21 | 2015-09-03 | キヤノン株式会社 | Image processing system, image processing method, and program |
JP2019159939A (en) * | 2018-03-14 | 2019-09-19 | 京セラドキュメントソリューションズ株式会社 | Electronic device and image forming apparatus |
JP2018174545A (en) * | 2018-06-12 | 2018-11-08 | 株式会社メイクソフトウェア | Photographing play machine, control method for photographing play machine, and control program for photographing play machine |
JP7471510B2 (en) | 2020-09-29 | 2024-04-19 | 北京字跳▲網▼絡技▲術▼有限公司 | Method, device, equipment and storage medium for picture to video conversion - Patents.com |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8977053B2 (en) | Image processing device and image processing method | |
JP5949331B2 (en) | Image generating apparatus, image generating method, and program | |
JP4344925B2 (en) | Image processing apparatus, image processing method, and printing system | |
JP6111723B2 (en) | Image generating apparatus, image generating method, and program | |
JP4752941B2 (en) | Image composition apparatus and program | |
JP2010211497A (en) | Digital camera and image processing program | |
JP5949030B2 (en) | Image generating apparatus, image generating method, and program | |
JP2010092094A (en) | Image processing apparatus, image processing program, and digital camera | |
JP2010244239A (en) | Image processor, digital camera and program | |
JP5272775B2 (en) | Electronic still camera | |
JP2013172166A (en) | Image processing apparatus, imaging apparatus, and program | |
JP2009200900A (en) | Imaging apparatus | |
JP5353293B2 (en) | Image processing apparatus and electronic still camera | |
JP2011135527A (en) | Digital camera | |
US9323981B2 (en) | Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored | |
JP5453796B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP2011044964A (en) | Imaging apparatus, imaging method and computer program | |
JP2012003324A (en) | Image processing system, imaging apparatus, image processing program and memory medium | |
JP2010199968A (en) | Digital camera | |
JP2010226416A (en) | Digital camera | |
JP5891874B2 (en) | Imaging apparatus and program | |
JP2013171433A (en) | Digital camera, and image processing program | |
JP2014165876A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP4946913B2 (en) | Imaging apparatus and image processing program | |
JP2014096836A (en) | Digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111206 |