JP2013171433A - Digital camera, and image processing program - Google Patents

Digital camera, and image processing program Download PDF

Info

Publication number
JP2013171433A
JP2013171433A JP2012034907A JP2012034907A JP2013171433A JP 2013171433 A JP2013171433 A JP 2013171433A JP 2012034907 A JP2012034907 A JP 2012034907A JP 2012034907 A JP2012034907 A JP 2012034907A JP 2013171433 A JP2013171433 A JP 2013171433A
Authority
JP
Japan
Prior art keywords
color
image
image processing
unit
digital camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012034907A
Other languages
Japanese (ja)
Inventor
Tokimi Kuwata
旬美 鍬田
Masanaga Nakamura
正永 中村
Misa Kawamura
美砂 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012034907A priority Critical patent/JP2013171433A/en
Publication of JP2013171433A publication Critical patent/JP2013171433A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize, when performing color correction of an image of a characteristic part of a subject's face, suitable color correction while suppressing discomfort to the entire image.SOLUTION: A digital camera comprises: an imaging unit that photographs a subject image and creates an image; a detection unit that detects a face part of the subject person; an analysis unit that analyzes color distribution of parts of the image except the face part; and image processing unit that performs color correction of the image of a characteristic part of the face part detected by the detection unit. The image processing unit determines a representative color that represents parts except the face part on the basis of an analysis result of the analysis unit, and changes at least one of color tone, color saturation, and brightness included in correction conditions of color correction.

Description

本発明は、デジタルカメラおよび画像処理プログラムに関する。   The present invention relates to a digital camera and an image processing program.

従来より、画像処理により、デジタル画像に対して様々な画像処理を行う技術が考えられている。例えば、下記の特許文献1の画像処理方法は、入力画像データから、唇部分などのパーツを抽出し、色補正を行うことにより出力画像における女性の見映えを良くしている。   Conventionally, a technique for performing various image processing on a digital image by image processing has been considered. For example, the image processing method disclosed in Patent Document 1 described below improves the appearance of a woman in an output image by extracting parts such as lips from input image data and performing color correction.

特開2001−218020号公報JP 2001-2108020 A

しかし、上述した特許文献1の画像処理方法では、色補正の対象となるパーツの色味に基づいて色補正を行うため、色補正を施した部分の色味が浮いてしまい、全体として違和感のある画像になってしまうことがあった。   However, in the image processing method of Patent Document 1 described above, color correction is performed based on the color of the part that is subject to color correction. There were times when it became an image.

本発明は、上記問題に鑑みてなされたものであり、被写体の顔の特徴部分について、画像の色補正を行う際に、画像全体の違和感を抑えつつ、好適な色補正を実現することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to realize a suitable color correction while suppressing a sense of incongruity of the entire image when performing color correction of an image on a facial feature of a subject. And

本発明のデジタルカメラは、被写体像を撮像して画像を生成する撮像部と、前記画像から、被写体の人物の顔部分を検出する検出部と、前記画像のうち、前記顔部分を除く部分の色分布を解析する解析部と、前記検出部により検出した前記顔部分における特徴部分について、画像の色補正を行う画像処理部とを備え、前記画像処理部は、前記解析部による解析結果に基づいて、前記顔部分を除く部分を代表する代表色を求め、前記代表色に応じて、前記色補正の補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する。   The digital camera of the present invention includes an imaging unit that captures a subject image to generate an image, a detection unit that detects a face portion of a subject person from the image, and a portion of the image excluding the face portion. An analysis unit that analyzes a color distribution; and an image processing unit that performs color correction of an image on a feature portion of the face portion detected by the detection unit, the image processing unit based on an analysis result by the analysis unit Thus, a representative color representing the portion excluding the face portion is obtained, and at least one of hue, saturation, and lightness included in the correction condition of the color correction is changed according to the representative color.

なお、前記画像処理部は、前記解析結果に基づいて、前記顔部分を除く部分を複数の領域に分割し、各領域のうち占有面積が最も大きい領域の色を前記代表色としても良い。   The image processing unit may divide the portion excluding the face portion into a plurality of regions based on the analysis result, and may use the color of the region with the largest occupied area as the representative color.

また、前記画像処理部は、前記解析結果に基づいて、前記顔部分を除く部分を複数の領域に分割し、各領域の合焦状態に応じて代表領域を決定し、前記代表領域の色を前記代表色としても良い。   Further, the image processing unit divides a portion excluding the face portion into a plurality of regions based on the analysis result, determines a representative region according to an in-focus state of each region, and sets the color of the representative region. The representative color may be used.

また、前記画像処理部は、前記顔部分を除く部分の色の平均値を求め、前記平均値に対応する色を前記代表色としても良い。   Further, the image processing unit may obtain an average value of colors of portions excluding the face portion, and may use a color corresponding to the average value as the representative color.

また、前記画像処理部は、前記解析結果に基づいて、前記顔部分を除く部分を複数の領域に分割し、それぞれの領域の色と占有面積と合焦状態との少なくとも一方に基づいて、分割された各領域の重みを決定し、前記重みを加味して前記代表色を求めても良い。   Further, the image processing unit divides a portion excluding the face portion into a plurality of regions based on the analysis result, and divides the region based on at least one of a color, an occupied area, and an in-focus state of each region. It is also possible to determine the weight of each of the regions, and obtain the representative color in consideration of the weight.

また、前記画像を表示する表示部と、ユーザ操作を受け付ける受付部と、前記解析結果に基づき、前記補正条件の候補として、色相と彩度と明度との少なくとも1つが異なる複数の色候補を選択する選択部とをさらに備え、前記表示部は、複数の前記色候補を表示し、前記受付部は、複数の前記色候補のうち、いずれかの色候補を選択するユーザ操作を受け付け、前記画像処理部は、前記受付部を介してユーザにより選択された色候補に応じて、前記補正条件に含まれる色相と彩度と明度との少なくとも1つを変更しても良い。   In addition, a display unit that displays the image, a reception unit that receives a user operation, and a plurality of color candidates that differ in at least one of hue, saturation, and brightness as the correction condition candidates based on the analysis result A selection unit that displays the plurality of color candidates, and the reception unit receives a user operation for selecting any one of the plurality of color candidates, and the image The processing unit may change at least one of hue, saturation, and lightness included in the correction condition in accordance with a color candidate selected by the user via the reception unit.

また、前記画像処理部は、前記受付部を介してユーザにより選択された色候補を記憶し、各色候補の選択頻度に応じて、前記補正条件に含まれる色相と彩度と明度との少なくとも1つを変更しても良い。   The image processing unit stores color candidates selected by the user via the receiving unit, and at least one of hue, saturation, and brightness included in the correction condition according to the selection frequency of each color candidate. You may change one.

また、前記画像処理部は、前記画像が生成された日時に関する情報と場所に関する情報との少なくとも一方を加味して、前記補正条件に含まれる色相と彩度と明度との少なくとも1つを変更しても良い。   In addition, the image processing unit changes at least one of hue, saturation, and brightness included in the correction condition in consideration of at least one of information on a date and time when the image is generated and information on a place. May be.

また、上記発明に関する構成を、処理対象の画像データに対する画像処理を実現するための画像処理プログラムに変換して表現したものも本発明の具体的態様として有効である。   In addition, a configuration obtained by converting the configuration related to the above invention into an image processing program for realizing image processing for image data to be processed is also effective as a specific aspect of the present invention.

本発明によれば、被写体の顔の特徴部分について、画像の色補正を行う際に、画像全体の違和感を抑えつつ、好適な色補正を実現することができる。   According to the present invention, it is possible to realize suitable color correction while suppressing a sense of incongruity of the entire image when performing color correction of an image on a feature portion of a face of a subject.

本実施形態のデジタルカメラの機能ブロック図である。It is a functional block diagram of the digital camera of this embodiment. 撮像指示が行われた際の制御部7の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part 7 when an imaging instruction | indication is performed. メイク処理を行う際の制御部7の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part 7 at the time of performing makeup processing. 被写体の一例を示す図である。It is a figure which shows an example of a to-be-photographed object. HSV色空間について説明する図である。It is a figure explaining HSV color space. 「薄い赤」の定義について説明する図である。It is a figure explaining the definition of "light red." 「濃い青」の定義について説明する図である。It is a figure explaining the definition of "dark blue". 被写体の別の例を示す図である。It is a figure which shows another example of a to-be-photographed object. メイク処理を行う際の制御部7の動作を示す別のフローチャートである。It is another flowchart which shows operation | movement of the control part 7 at the time of performing makeup processing. 色補正の候補条件の表示例を示す図である。It is a figure which shows the example of a display of the candidate conditions of color correction. 色補正の候補条件の表示例を示す別の図である。It is another figure which shows the example of a display of the candidate conditions of color correction.

以下、図面を用いて本発明の第1実施形態について説明する。図1は、本発明の第1実施形態におけるデジタルカメラ1の構成を示すブロック図である。図1に示すように、デジタルカメラ1は、撮像レンズ2、撮像素子3、A/D変換部4、バッファメモリ5、画像処理部6、制御部7、表示部8、操作部9、メモリ10、記録I/F部11、記録媒体12、接続部13、通信部14、バス15を備える。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the digital camera 1 according to the first embodiment of the present invention. As shown in FIG. 1, the digital camera 1 includes an imaging lens 2, an imaging device 3, an A / D conversion unit 4, a buffer memory 5, an image processing unit 6, a control unit 7, a display unit 8, an operation unit 9, and a memory 10. A recording I / F unit 11, a recording medium 12, a connection unit 13, a communication unit 14, and a bus 15.

撮像レンズ2は、撮像素子3の撮像面に被写体像を結像する。なお、撮像レンズ2は、ズームレンズやフォーカスレンズ等の複数のレンズからなる撮像光学系であっても良い。撮像素子3は、撮像レンズ2を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮像素子3は、非撮像時、所定間隔毎に間引き読み出しを行い、スルー画像(構図確認用の画像)を取得する。その後、撮像素子3は、後述するレリーズ釦18が全押しされると本画像を取得する。   The imaging lens 2 forms a subject image on the imaging surface of the imaging element 3. The imaging lens 2 may be an imaging optical system including a plurality of lenses such as a zoom lens and a focus lens. The imaging element 3 photoelectrically converts the subject light that has passed through the imaging lens 2 and outputs analog image signals corresponding to R, G, and B colors. The imaging device 3 performs thinning-out reading at predetermined intervals during non-imaging, and acquires a through image (image for composition confirmation). Thereafter, the image sensor 3 acquires the main image when a release button 18 described later is fully pressed.

撮像素子3から出力される画像信号は、A/D変換部4に入力される。A/D変換部4は、撮像素子3から出力されるアナログの画像信号をA/D変換し、デジタルの画像信号に変更する。なお、このデジタルの画像信号は、1コマにまとめられ、画像データとしてバッファメモリ5に記録される。バッファメモリ5は、画像処理部6による画像処理の前工程や後工程で画像データを一時的に記録する。   An image signal output from the image sensor 3 is input to the A / D converter 4. The A / D conversion unit 4 performs A / D conversion on the analog image signal output from the image sensor 3 and changes it to a digital image signal. The digital image signals are collected into one frame and recorded in the buffer memory 5 as image data. The buffer memory 5 temporarily records image data in the pre-process and post-process of image processing by the image processing unit 6.

画像処理部6は、バッファメモリ5に記録された画像データに対して画像処理を施す。なお、この画像処理としては、周知のホワイトバランス調整、色補間、階調変換処理、輪郭強調処理等が挙げられる。また、画像処理部6は、記録媒体12に画像ファイルを記録する前にJPEG(Joint Photographic Experts Group)形式等で圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。   The image processing unit 6 performs image processing on the image data recorded in the buffer memory 5. Examples of the image processing include well-known white balance adjustment, color interpolation, gradation conversion processing, and contour enhancement processing. The image processing unit 6 also executes a process of compressing in JPEG (Joint Photographic Experts Group) format or the like before recording an image file on the recording medium 12, and a process of decompressing and restoring the compressed data.

また、画像処理部6は、メイク処理として、顔における特徴部分(眉、目、口等)の色を補正する。例えば、画像処理部6は上瞼の色に青味を増す色補正や、唇の色に赤味を増す色補正を行う。これにより、アイシャドーや口紅のようなポイントメイクの効果が得られるため、被写体となる女性の見栄えを良くすることができる。具体的な処理については、特開2001−218020号公報などにより公知である。なお、画像処理部6は、メイク処理の際に、顔における特徴部分の形状の調整をあわせて行っても良い。例えば、画像処理部6は目の部分を大きくする補正や鼻の幅を狭くする補正などを行っても良い。   Further, the image processing unit 6 corrects the color of the characteristic part (eyebrow, eyes, mouth, etc.) in the face as a makeup process. For example, the image processing unit 6 performs color correction for increasing the bluish color for the upper eyelid color and color correction for increasing the red color for the lip color. Thereby, since the effect of point makeup such as eye shadow and lipstick is obtained, the appearance of a woman as a subject can be improved. Specific processing is known from Japanese Patent Application Laid-Open No. 2001-218020. Note that the image processing unit 6 may also adjust the shape of the feature portion of the face during the makeup process. For example, the image processing unit 6 may perform correction for increasing the size of the eyes or correction for reducing the width of the nose.

この他に、画像処理部6は、以下に示す処理を行っても良い。これらの処理はいわゆる美肌処理の一例である。   In addition to this, the image processing unit 6 may perform the following processing. These processes are examples of so-called skin beautification processes.

画像処理部6は、例えば、画像の露出をオーバー側に補正する露出補正を行う。これにより、被写体の肌が白く表現された好ましい画像を得ることができる。   For example, the image processing unit 6 performs exposure correction for correcting the exposure of the image to the over side. Thereby, a preferable image in which the skin of the subject is expressed white can be obtained.

また、画像処理部6は、ソフトフォーカス処理を行う。ソフトフォーカス処理は、例えば、所定のソフトフォーカス効果を示すフィルタやローパスフィルタなどを用いて行われる。なお、元画像からマスク画像を生成し、生成したマスク画像に基づいてフィルタ処理後の画像と元画像とを合成することによりソフトフォーカス処理を行っても良い。このようなソフトフォーカス処理により、被写体が女性である場合、女性らしさが強調されるとともに、柔らかみのある好ましい画像を得ることができる。また、被写体のしわや、ニキビなどの凹凸感、肌荒れ等が目立ちにくい好ましい画像を得ることができる。   The image processing unit 6 performs soft focus processing. The soft focus process is performed using, for example, a filter showing a predetermined soft focus effect, a low-pass filter, or the like. Note that soft focus processing may be performed by generating a mask image from the original image and combining the image after filtering and the original image based on the generated mask image. By such soft focus processing, when the subject is a woman, femininity is emphasized, and a preferable soft image can be obtained. In addition, it is possible to obtain a preferable image in which wrinkles of the subject, unevenness such as acne, rough skin, and the like are hardly noticeable.

また、画像処理部6は、彩度のパラメータや明度のパラメータを補正し、肌を白く表現したり、肌色のくすみ等を軽減したりしても良い。   Further, the image processing unit 6 may correct the saturation parameter and the brightness parameter to express the skin white, reduce the dullness of the skin color, and the like.

また、画像処理部6は、画像に含まれる人物を痩身に見せる補正を行う。例えば、画像処理部6は、画像の縦横比を若干縦長に変更した後、人物の部分を切り出し、画像の大きさを調整する。或いは画像処理部6は、特開2004−264893号公報のように、顔の輪郭を補正して頬を細く見せるようにしても良い。また、鮮鋭化処理によって顔の輪郭を強調したり、歪み補正技術を用いて口の口角の角度や顎の輪郭を補正したりしても良い。   Further, the image processing unit 6 performs correction to make the person included in the image look slim. For example, the image processing unit 6 changes the aspect ratio of the image to be slightly long and then cuts out a person portion and adjusts the size of the image. Alternatively, the image processing unit 6 may correct the outline of the face and make the cheek look thin as disclosed in Japanese Patent Application Laid-Open No. 2004-264893. Also, the outline of the face may be enhanced by sharpening processing, or the angle of the mouth corner and the outline of the chin may be corrected using a distortion correction technique.

また、画像処理部6は、ハイライト抑える処理を行うことにより、閃光発光などの強い光に起因して発生しやすいテカリを軽減しても良い。また、部分的にテカリを強調することにより、肌を瑞々しく見せる補正を行っても良い。   Further, the image processing unit 6 may reduce the shine that is likely to occur due to strong light such as flashing by performing highlight suppression processing. Moreover, you may perform the correction | amendment which makes skin look fresh by emphasizing a part partially.

また、画像処理部6は、上述した処理の他に、ダイナミックレンジ拡張、暗部補正、エッジのアンシャープマスク処理、ノイズ処理など処理を行っても良い。   In addition to the above-described processing, the image processing unit 6 may perform processing such as dynamic range expansion, dark portion correction, edge unsharp mask processing, and noise processing.

なお、このような美肌処理は、単純に女性の見映えを良くするだけのものではなく、顔を明るく、好ましく撮影することができるので、被写体が男性や子供である場合にも有用である。   Such skin beautification processing is useful not only for improving the appearance of a woman but also for a subject such as a man or a child because his face can be brightly photographed.

制御部7は、所定のシーケンスプログラムにしたがって、デジタルカメラ1の統括的な制御を行うとともに、撮像時に必要となる各種演算(AF、AE等)を実行する。また、制御部7は、顔検出部16の機能を有している。   The control unit 7 performs overall control of the digital camera 1 according to a predetermined sequence program, and executes various calculations (AF, AE, etc.) necessary for imaging. The control unit 7 has the function of the face detection unit 16.

顔検出部16は、スルー画像、本画像、記録媒体12に記録された画像から特徴点を抽出して顔領域、顔領域の大きさ(顔面積)等を検出する。例えば、顔検出部16は、特開2001−16573号公報等に記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。そして、顔検出部16は、顔領域の位置情報を特定する。例えば、顔検出部16は、画像の横方向をX軸、縦方向をY軸とし、顔領域に含まれる画素のX座標及びY座標を算出する。さらに、顔検出部16は、特開2004−222118号公報等に記載された特徴点を用いた演算処理によって、検出した人物の人種、年齢、性別などを判別する。   The face detection unit 16 extracts feature points from the through image, the main image, and the image recorded on the recording medium 12, and detects the face area, the size of the face area (face area), and the like. For example, the face detection unit 16 extracts a face region by a feature point extraction process described in Japanese Patent Application Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head apexes, and chin lower end points. Then, the face detection unit 16 specifies the position information of the face area. For example, the face detection unit 16 calculates the X coordinate and the Y coordinate of the pixels included in the face area, with the horizontal direction of the image as the X axis and the vertical direction as the Y axis. Furthermore, the face detection unit 16 determines the race, age, gender, and the like of the detected person by arithmetic processing using feature points described in Japanese Patent Application Laid-Open No. 2004-222118.

表示部8は、制御部7の制御により各種の画像を表示する。表示部8に表示される各種の画像は、スルー画像、本画像、記録媒体12に記録された画像、メニュー画像等を含む。また、表示部8は、タッチパネル17を備える。タッチパネル17は、パネル上で指又はスタイラス等がタッチされた位置、ドラッグされた方向、ドラッグされた回数を検出する。タッチパネル17の状態は制御部7により検知される。なお、タッチパネル17は、表示部8の表面全体に積層して配置するため、表示部8と同等の大きさを有する透明なパネルで構成されている。また、本実施形態の例では、タッチパネル17は、静電気による電気信号を感知する静電容量式のパネルで構成されている。なお、静電容量式に限らず、圧力による電圧の変化を検知する抵抗膜式のパネルなどを用いても良い。   The display unit 8 displays various images under the control of the control unit 7. Various images displayed on the display unit 8 include a through image, a main image, an image recorded on the recording medium 12, a menu image, and the like. The display unit 8 includes a touch panel 17. The touch panel 17 detects a position where a finger or a stylus is touched on the panel, a dragged direction, and the number of times the drag is performed. The state of the touch panel 17 is detected by the control unit 7. Note that the touch panel 17 is configured by a transparent panel having a size equivalent to that of the display unit 8 because the touch panel 17 is stacked on the entire surface of the display unit 8. Moreover, in the example of this embodiment, the touch panel 17 is comprised with the electrostatic capacitance type panel which senses the electrical signal by static electricity. Not only the capacitance type, but also a resistive film type panel that detects a change in voltage due to pressure may be used.

操作部9は、レリーズ釦18、十字キー19等を有する。レリーズ釦18は、撮像時にユーザにより操作される。十字キー19は、上記のメニュー画像等で操作される。なお、レリーズ釦18及び十字キー19の状態は制御部7により検知され、検知された釦の状態に基づいたシーケンスが実行される。記録I/F部11は、記録媒体12を接続するためのコネクタを備えている。この記録I/F部11と記録媒体12とが接続されることにより、記録媒体12に対してデータの書き込み/読み出しを実行する。   The operation unit 9 includes a release button 18, a cross key 19, and the like. The release button 18 is operated by the user during imaging. The cross key 19 is operated on the above menu image or the like. The states of the release button 18 and the cross key 19 are detected by the control unit 7, and a sequence based on the detected button state is executed. The recording I / F unit 11 includes a connector for connecting the recording medium 12. When the recording I / F unit 11 and the recording medium 12 are connected, data writing / reading is executed on the recording medium 12.

接続部13は、入出力端子などを備え、デジタルカメラ1の外部の機器と相互に接続し、画像データなど入出力する。通信部14は、無線または有線で、デジタルカメラ1の外部の機器と通信を行う。バス15は、バッファメモリ5、画像処理部6、制御部7、表示部8、メモリ10、記録I/F部11を相互に接続することにより、データや信号の出入力を実行する。   The connection unit 13 includes input / output terminals and the like, and is connected to an external device of the digital camera 1 to input / output image data and the like. The communication unit 14 communicates with a device external to the digital camera 1 by wireless or wired. The bus 15 connects the buffer memory 5, the image processing unit 6, the control unit 7, the display unit 8, the memory 10, and the recording I / F unit 11 to execute data and signal input / output.

以上説明した構成のデジタルカメラ1は、撮像により生成した画像に、上述したメイク処理を施すメイク処理モードを有する。メイク処理モードは、ポートレートモードや風景モードなどの既存のシーンモードと独立に備えられる。すなわち、メイク処理モードは、既存のシーンモードに追加して設定可能なモードである。メイク処理モードは、制御部7により自動で設定される。また、ポートレートモードや風景モードなどの既存のシーンモードは、操作部9やタッチパネル17を介したユーザの指定により設定される。   The digital camera 1 having the above-described configuration has a makeup processing mode in which the makeup processing described above is performed on an image generated by imaging. The makeup processing mode is provided independently of existing scene modes such as portrait mode and landscape mode. That is, the makeup processing mode is a mode that can be set in addition to the existing scene mode. The makeup processing mode is automatically set by the control unit 7. Further, existing scene modes such as portrait mode and landscape mode are set by user designation via the operation unit 9 or the touch panel 17.

なお、制御部7による自動設定の他に、操作部9やタッチパネル17を介したユーザの指定によりメイク処理モードを設定可能としても良い。ユーザの指定に際しては、操作部9に専用のボタンなどを設けても良いし、表示部8にメニュー画面などを表示しても良い。また、メイク処理モードを、既存のシーンモードの一つとして備えても良い。   In addition to the automatic setting by the control unit 7, the makeup processing mode may be set by user designation via the operation unit 9 or the touch panel 17. When the user designates, a dedicated button or the like may be provided on the operation unit 9 or a menu screen or the like may be displayed on the display unit 8. Further, the makeup processing mode may be provided as one of existing scene modes.

上述したメイク処理モードが設定され、レリーズ釦18を介したユーザ操作により撮像指示が行われる際の制御部7の動作について、図2に示すフローチャートを参照して説明する。   The operation of the control unit 7 when the above-described makeup processing mode is set and an imaging instruction is given by a user operation via the release button 18 will be described with reference to the flowchart shown in FIG.

ステップS1において、制御部7は、公知技術と同様に、被写体像を撮像する際の撮影条件を決定する。なお、制御部7は、メイク処理モードが設定されている際に好ましい撮影条件を決定しても良い。例えば、露出や撮影感度などを、メイク処理モードに適した条件としても良い。   In step S <b> 1, the control unit 7 determines shooting conditions for shooting a subject image, as in the known technique. The control unit 7 may determine a preferable shooting condition when the makeup processing mode is set. For example, exposure, shooting sensitivity, and the like may be conditions suitable for the makeup processing mode.

ステップS2において、制御部7は、撮像レンズ2、撮像素子3、A/D変換部4等を制御し、被写体像を撮像して画像を生成する。   In step S <b> 2, the control unit 7 controls the imaging lens 2, the imaging device 3, the A / D conversion unit 4, and the like to capture a subject image and generate an image.

ステップS3において、制御部7は、顔検出部16により、ステップS2で生成した画像に対して、顔検出及び顔認識を行う。さらに、制御部7は、予め登録された特定人物の顔画像をもとに、顔認識処理を行っても良い。例えば、上述した顔検出により検出された顔の特徴点に基づいて、ステップS2で生成した画像に含まれる顔の特徴点の位置、各顔パーツの大きさ、各特徴点の相対距離などを演算する。そして、演算結果と、予め登録された特定人物の顔画像の画像データとを比較して、相似度を求める。そして、画像処理部6は、求めた相似度が所定の閾値を上回る場合に、予め登録された特定人物に合致したと判定する。また、スルー画像の撮影時に同様の顔検出及び顔認識を行い、その結果を利用しても良い。ただし、スルー画像の撮影中には、処理の高速化が求められる。そのため、スルー画像の撮影時には、より簡略化した顔検出及び顔認識を行っても良い。さらに、スルー画像の撮影中に行った顔検出及び顔認識の結果に基づいて、表情認識を行い、認識結果に基づいて、撮像タイミングを制御する構成としても良い。例えば、顔検出部16は、上述した顔検出及び顔認識の結果に基づいて主要被写体の顔の表情を認識する。そして、制御部7は、認識した表情が、例えば、目つぶりしていない状態や笑顔の状態などの所定の状態であるタイミングで撮像を行うことにより、撮影失敗の可能性を低減し、好ましい撮像を実現することができる。なお、表情認識は、例えば、顔検出部16は、特開2004−272933号公報や特開2001−51338号公報等に記載され技術を用いることができる。   In step S3, the controller 7 causes the face detector 16 to perform face detection and face recognition on the image generated in step S2. Furthermore, the control unit 7 may perform face recognition processing based on a face image of a specific person registered in advance. For example, based on the face feature points detected by the face detection described above, the position of the face feature points, the size of each face part, the relative distance of each feature point, etc. included in the image generated in step S2 are calculated. To do. Then, the calculation result and the image data of the face image of the specific person registered in advance are compared to obtain the similarity. The image processing unit 6 determines that the specific person registered in advance is matched when the obtained similarity exceeds a predetermined threshold. Further, the same face detection and face recognition may be performed at the time of shooting a through image, and the result may be used. However, high-speed processing is required during shooting of a through image. Therefore, more simplified face detection and face recognition may be performed when a through image is captured. Furthermore, a configuration may be adopted in which facial expression recognition is performed based on the results of face detection and face recognition performed during the shooting of a through image, and the imaging timing is controlled based on the recognition results. For example, the face detection unit 16 recognizes the facial expression of the main subject based on the above-described face detection and face recognition results. Then, the control unit 7 reduces the possibility of shooting failure by performing imaging at a timing when the recognized facial expression is in a predetermined state such as a state where the eyes are not blinking or a state of smile, and preferable imaging is performed. Can be realized. For facial expression recognition, for example, the face detection unit 16 can use techniques described in Japanese Patent Application Laid-Open Nos. 2004-272933 and 2001-51338.

ステップS4において、制御部7は、画像処理部6を制御して、ステップS3で行った顔検出及び顔認識の結果に基づいて、ステップS2で生成した画像に対して、メイク処理を行う。メイク処理の詳細は後述する。なお、制御部7は、ステップS2で生成した画像のExif情報(付帯情報)に、メイク処理の内容を示す情報を記録しても良い。このような情報を記録することにより、ユーザは、どのようなメイク処理が施されたのかを、画像の再生時に確認することができる。なお、メイク処理の内容を示す情報を、付帯情報として記録する代わりに、画像と対応付けた別のファイルとして記録しても良い。   In step S4, the control unit 7 controls the image processing unit 6 to perform a makeup process on the image generated in step S2 based on the results of face detection and face recognition performed in step S3. Details of the makeup process will be described later. Note that the control unit 7 may record information indicating the contents of the makeup process in the Exif information (supplementary information) of the image generated in step S2. By recording such information, the user can confirm what makeup processing has been performed at the time of image reproduction. Note that the information indicating the contents of the makeup process may be recorded as a separate file associated with the image instead of being recorded as supplementary information.

ステップS5において、制御部7は、ステップS4でメイク処理を施した画像を記録I/F部11を介して記録媒体12に記録して、一連の処理を終了する。   In step S5, the control unit 7 records the image subjected to the make process in step S4 on the recording medium 12 via the recording I / F unit 11, and ends the series of processes.

次に、図2のフローチャートのステップS4で説明したメイク処理について、図3に示すフローチャートを参照して説明する。   Next, the makeup process described in step S4 of the flowchart of FIG. 2 will be described with reference to the flowchart shown in FIG.

ステップS11において、制御部7は、メイク処理の条件を決定する。制御部7は、図2のステップS3で行った顔検出及び顔認識の結果に基づいて、顔における特徴部分(眉、目、口等。以下、「パーツ」と称する。)を抽出し、各パーツのメイク処理の条件を決定する。メイク処理の条件には、各パーツの色補正の条件や、形状の調整の条件などが含まれる。これらの条件は、表示部8、操作部9、タッチパネル17などを介して公知技術と同様に行われる。また、メイク処理の条件は、撮影に先立って予め行われていても良い。   In step S11, the control unit 7 determines a condition for the makeup process. Based on the results of face detection and face recognition performed in step S3 in FIG. 2, the control unit 7 extracts feature portions (eyebrows, eyes, mouth, etc., hereinafter referred to as “parts”) in the face, and each of them. Determine the conditions for makeup processing of parts. The conditions for makeup processing include conditions for color correction of each part, conditions for shape adjustment, and the like. These conditions are performed in the same manner as known technology via the display unit 8, the operation unit 9, the touch panel 17, and the like. Further, the makeup processing conditions may be performed in advance prior to shooting.

なお、以下では、図4のように、対象の画像に人物が1人のみ含まれる場合を例に挙げて説明する。また、以下では、図4における顔領域Fのうち、唇の部分Lの色を補正する場合を例に挙げて説明する。対象の画像に複数の人物が含まれる場合には、順次同様の処理を行っても良いし、一括して同様の処理を行っても良い。また、唇以外のパーツ(眉、目、頬など)についても、順次同様の処理を行う。   In the following, a case where only one person is included in the target image as shown in FIG. 4 will be described as an example. In the following, a case where the color of the lip portion L in the face region F in FIG. 4 is corrected will be described as an example. When a plurality of persons are included in the target image, the same processing may be performed sequentially or the same processing may be performed collectively. The same processing is sequentially performed for parts other than the lips (eg, eyebrows, eyes, cheeks).

また、本実施形態では、色を表現する際に、HSV色空間を用いる。HSV色空間は、図5に示すように、色の種類を示す「色相(H)」、色の鮮やかさを示す「彩度(S)」、色の明るさを示す「明度(V)」の3要素からなる。色相(H)は、0〜360の値で示され、彩度(S)および明度(V)は、0〜100の値で示される。   In the present embodiment, the HSV color space is used when expressing colors. As shown in FIG. 5, the HSV color space includes “hue (H)” indicating the type of color, “saturation (S)” indicating the vividness of the color, and “brightness (V)” indicating the brightness of the color. It consists of three elements. Hue (H) is indicated by a value from 0 to 360, and saturation (S) and lightness (V) are indicated by a value from 0 to 100.

ここでは、色補正の条件として、図4における顔領域Fのうち唇の部分Lの色を、「薄い赤」に補正する条件が決定されたものとして説明を行う。「薄い赤」とは、図6に示すように、色相(H)=0,彩度(S)=33,明度(V)=100で定義される色である。   Here, description will be made assuming that the condition for correcting the color of the lip portion L in the face region F in FIG. 4 to “light red” is determined as the color correction condition. As shown in FIG. 6, “light red” is a color defined by hue (H) = 0, saturation (S) = 33, and lightness (V) = 100.

ステップS12において、制御部7は、図2のステップS3で行った顔検出により検出した顔を除く領域の色分布を解析する。図4の例では、制御部7は、顔領域Fを除く領域の色分布を解析する。   In step S12, the control unit 7 analyzes the color distribution of the region excluding the face detected by the face detection performed in step S3 of FIG. In the example of FIG. 4, the control unit 7 analyzes the color distribution of the area excluding the face area F.

ステップS13において、制御部7は、ステップS12で行った色分布の解析結果に基づいて、顔を除く領域の代表値を求める。なお、この場合の「顔を除く領域」には、顔領域Fを除く領域全てが含まれるため、例えば、人物が身に付けている洋服の色や毛髪の色なども考慮して代表色を求めることができる。一例として、人物が身に着けている洋服を例に挙げると、ある服を着た場合に限って、顔色がくすんで見えるということがある。このような場合には、色彩対比現象が関わっている。例えば、彩度対比においては、高彩度色に囲まれた色は実際よりくすんだ色に見える。したがって、上述した方法で代表値を求めることにより、このような色彩対比現象も考慮した代表色を求めることができる。   In step S13, the control unit 7 obtains a representative value of the region excluding the face based on the analysis result of the color distribution performed in step S12. In this case, the “region excluding the face” includes all the regions excluding the face region F. For example, the representative color is selected in consideration of the color of the clothes worn by the person and the color of the hair. Can be sought. As an example, taking clothes worn by a person as an example, the complexion may appear dull only when wearing certain clothes. In such a case, a color contrast phenomenon is involved. For example, in saturation contrast, a color surrounded by high saturation colors appears to be duller than it actually is. Therefore, by obtaining the representative value by the method described above, it is possible to obtain a representative color considering such a color contrast phenomenon.

制御部7は、代表値を、以下の何れかの方法で求める。   The control unit 7 obtains the representative value by any of the following methods.

(1)顔を除く領域を、色に基づいて複数の領域に分割し、占有面積が最も大きい領域の色を代表色として代表値を求める方法。   (1) A method of dividing a region excluding a face into a plurality of regions based on colors and obtaining a representative value using a color of a region having the largest occupied area as a representative color.

図4の例では、制御部7は、顔領域Fを除く領域のうち、占有面積の大きい空の領域B1、海の領域B2、砂浜の領域B3から、占有面積が最も大きい空の領域B1の色を代表色として代表値を求める。   In the example of FIG. 4, the control unit 7 selects the empty region B1 having the largest occupied area from the empty region B1, the sea region B2, and the sandy beach region B3 having the largest occupied area among the regions other than the face region F. A representative value is obtained using a color as a representative color.

この方法で代表値を求めることにより、背景に含まれる色や、各領域の占有面積を考慮して代表色を求めることができる。   By obtaining the representative value by this method, the representative color can be obtained in consideration of the color included in the background and the area occupied by each region.

(2)顔を除く領域を、色に基づいて複数の領域に分割し、合焦状態が最も良い領域の色を代表色として代表値を求める方法。   (2) A method in which a region excluding a face is divided into a plurality of regions based on colors, and a representative value is obtained using a color in a region with the best focus state as a representative color.

制御部7は、各領域の周波数成分や、撮影時のAF情報などに基づいて合焦状態が最も良い領域を選択する。図4の例では、制御部7は、顔領域Fを除く領域のうち、一番手前に存在するため、合焦状態が最も良い椰子の木の葉の領域B4の色を代表色として代表値を求める。   The control unit 7 selects a region with the best in-focus state based on the frequency component of each region, AF information at the time of shooting, and the like. In the example of FIG. 4, the control unit 7 is present in the foreground among the regions other than the face region F, and thus obtains a representative value using the color of the palm leaf region B4 in the best focus state as the representative color. .

この方法で代表値を求めることにより、背景に含まれる色や、各領域の合焦状態を考慮して代表色を求めることができる。   By obtaining the representative value by this method, the representative color can be obtained in consideration of the color included in the background and the in-focus state of each region.

(3)顔を除く領域の平均色を代表色として代表値を求める方法。   (3) A method of obtaining a representative value using the average color of the region excluding the face as a representative color.

図4の例では、制御部7は、顔領域Fを除く領域の平均色を求め、この色を代表色として代表値を求める。   In the example of FIG. 4, the control unit 7 obtains an average color of an area excluding the face area F, and obtains a representative value using this color as a representative color.

この方法で代表値を求めることにより、簡易に代表色を求めることができる。   By obtaining the representative value by this method, the representative color can be easily obtained.

(4)顔を除く領域を、色に基づいて複数の領域に分割する。そして、各領域の占有面積と合焦状態との少なくとも一方に基づいて、各領域の重みを決定する。そして、決定した重みを加味して代表領域を求め、その代表領域の色を代表色として代表値を求める方法。   (4) The area excluding the face is divided into a plurality of areas based on the color. Then, the weight of each region is determined based on at least one of the area occupied by each region and the in-focus state. Then, a method for obtaining a representative value by considering the determined weight and obtaining a representative value using the color of the representative region as a representative color.

制御部7は、(1)で説明した占有面積や(2)で説明した合焦状態に基づいて、予め定められた方法で各領域の重みを決定する。そして、例えば、重みを加味して、(3)で説明した平均値を求めることにより、代表値を求める。   The control unit 7 determines the weight of each region by a predetermined method based on the occupied area described in (1) and the in-focus state described in (2). Then, for example, the representative value is obtained by calculating the average value described in (3) with the weight added.

この方法で代表値を求めることにより、背景の詳細な色分布に応じた代表色を求めることができる。   By obtaining the representative value by this method, the representative color corresponding to the detailed color distribution of the background can be obtained.

なお、上記(1)から(4)で説明した方法のうち、2つ以上の方法を組み合わせて代表色を求めても良い。また、以下では、空の領域B1の色(「濃い青」)を代表色として代表値を求める場合を例に挙げて説明する。「濃い青」とは、図7に示すように、色相(H)=200,彩度(S)=100,明度(V)=66で定義される色である。   In addition, you may obtain | require a representative color combining 2 or more methods among the methods demonstrated by said (1) to (4). In the following description, a case where a representative value is obtained using the color of the sky region B1 (“dark blue”) as a representative color will be described as an example. “Dark blue” is a color defined by hue (H) = 200, saturation (S) = 100, brightness (V) = 66, as shown in FIG.

ステップS14において、制御部7は、ステップS13で求めた代表値に基づいて、ステップS11で決定したメイクの条件のうち、色補正の条件を変更する。   In step S14, the control unit 7 changes the color correction condition among the makeup conditions determined in step S11 based on the representative value obtained in step S13.

ステップS11で決定した色補正の条件は、色相(H)=0,彩度(S)=33,明度(V)=100の「薄い赤」であり、ステップS13で求めた代表値は、色相(H)=200,彩度(S)=100,明度(V)=66の「濃い青」である。   The color correction conditions determined in step S11 are “light red” with hue (H) = 0, saturation (S) = 33, and lightness (V) = 100. The representative value obtained in step S13 is the hue. “Dark blue” with (H) = 200, saturation (S) = 100, and lightness (V) = 66.

制御部7は、色補正の条件のうち、色相を所定値分(例えば、20)だけ代表値に近づけるように変更する。すなわち、色補正の条件の色相(H)=0(=360)を、代表値の色相(H)=200に近づけ、変更後の色補正の条件の色相(H)=340とする。この変更により、変更後のメイクの色補正の条件は、より青みがかった色に変更される。   Of the color correction conditions, the control unit 7 changes the hue so as to approach the representative value by a predetermined value (for example, 20). That is, the hue (H) = 0 (= 360) of the color correction condition is brought close to the hue (H) = 200 of the representative value, and the hue (H) = 340 of the color correction condition after the change is set. As a result of this change, the color correction condition for the makeup after the change is changed to a more bluish color.

なお、制御部7は、色補正の条件のうち、色相(H)を変更する代わりに、彩度(S)および明度(V)を変更しても良い。例えば、色補正の条件の彩度(S)=33および明度(V)=100を、代表値の彩度(S)=100および明度(V)=66に所定値分(例えば、5)だけ近づけ、変更後の色補正の条件の彩度(S)=38,明度(V)=95とする。この変更により、変更後の色補正の条件は、より暗いトーンの色に変更される。   The control unit 7 may change the saturation (S) and the lightness (V) in the color correction conditions instead of changing the hue (H). For example, the saturation (S) = 33 and the lightness (V) = 100 of the color correction condition are changed by a predetermined value (for example, 5) to the saturation (S) = 100 and the lightness (V) = 66 of the representative value. The saturation (S) = 38 and lightness (V) = 95, which are the color correction conditions after the change, are set. With this change, the color correction condition after the change is changed to a darker tone color.

ステップS15において、制御部7は、全てのパーツについて色補正の条件を変更したか否かを判定する。制御部7は、全てのパーツについて色補正の条件を変更したと判定すると、ステップS16に進む。一方、全てのパーツについて色補正の条件を変更していないと判定すると、制御部7は、ステップS11に戻り、色補正の条件を変更していないパーツについて、ステップS11以降の処理を行う。   In step S15, the control unit 7 determines whether or not the color correction conditions have been changed for all parts. If the control unit 7 determines that the color correction conditions have been changed for all parts, the process proceeds to step S16. On the other hand, if it is determined that the color correction conditions have not been changed for all parts, the control unit 7 returns to step S11, and performs the processes in and after step S11 for the parts for which the color correction conditions have not been changed.

ステップS16において、制御部7は、画像処理部6を制御して色補正を実行し、メイク処理を終了する。このとき、画像処理部6は、ステップS14で変更した色補正の条件にしたがって、色補正を実行する。また、上述したように、メイク処理として各パーツの形状の調整の条件が決定されている場合には、画像処理部6は、これらの処理を連続して、または、同時に行う。   In step S <b> 16, the control unit 7 controls the image processing unit 6 to perform color correction, and ends the makeup process. At this time, the image processing unit 6 performs color correction according to the color correction conditions changed in step S14. Further, as described above, when the condition for adjusting the shape of each part is determined as the makeup process, the image processing unit 6 performs these processes continuously or simultaneously.

なお、図3のフローチャートでは、図4に示したように、空や海などの濃い青色系の背景である場合を例に挙げて説明した。しかし、例えば、図8に示すように、桜の花などの明るい赤色系の背景である場合には、ステップS14において、赤みがかった色への変更や明るいトーンへの変更が行われることになる。メイクの色補正の条件を、背景の代表色に近づける変更を行うことにより、画像全体のカラーバランスを改善したり、画像全体の違和感を抑えたりすることができる。   In the flowchart of FIG. 3, as illustrated in FIG. 4, the case where the background is a dark blue background such as the sky or the sea has been described as an example. However, for example, as shown in FIG. 8, in the case of a bright red background such as a cherry blossom, a change to a reddish color or a change to a bright tone is performed in step S14. By changing the makeup color correction condition to be close to the representative color of the background, it is possible to improve the color balance of the entire image or to suppress the uncomfortable feeling of the entire image.

また、色補正の条件を変更する際には、変更内容を、表示部8などによりユーザが確認可能な構成としても良い。   In addition, when changing the color correction conditions, the change contents may be configured to be confirmed by the user using the display unit 8 or the like.

また、変更する幅(上記した「所定値」の幅)は、ユーザにより指定可能な構成としても良い。例えば、色相(H)は、図5中の環状の要素であり、36度以上変更する(「所定値」の幅を36以上とする)と、明らかに別の色領域に変更されてしまい、ユーザに、大きな違和感を感じさせることになる。したがって、ユーザにより指定可能とする場合には、上限値を設けると良い。   The width to be changed (the above-mentioned “predetermined value” width) may be configured to be specified by the user. For example, the hue (H) is an annular element in FIG. 5, and when it is changed by 36 degrees or more (the width of the “predetermined value” is set to 36 or more), it is clearly changed to another color area. This makes the user feel a great sense of incongruity. Therefore, when it is possible to specify by the user, it is preferable to set an upper limit value.

ところで、図3のフローチャートでは、色補正の条件の変更を自動で行う場合を説明した。しかし、ユーザの好みや要望をより反映できるようにしても良い。図3で説明したメイク処理の変形例について、図9に示すフローチャートを参照して説明する。   By the way, in the flowchart of FIG. 3, the case where the color correction condition is automatically changed has been described. However, the user's preferences and requests may be more reflected. A modification of the makeup process described in FIG. 3 will be described with reference to a flowchart shown in FIG.

ステップS21からステップS23において、制御部7は、図3のステップS11からステップS13と同様の処理を行う。   In step S21 to step S23, the control unit 7 performs the same processing as in step S11 to step S13 of FIG.

ステップS24において、制御部7は、ステップS23で求めた代表値に基づいて、ステップS11で決定したメイクの条件のうち、色補正の候補条件を選択する。   In step S24, the control unit 7 selects candidate conditions for color correction among the makeup conditions determined in step S11 based on the representative value obtained in step S23.

制御部7は、図3のステップS14と同様の処理を行って、いくつかの色補正の候補条件を選択する。例えば、図3のステップS14と同様の処理を行って求めた色補正の条件に、色相(H)、彩度(S)、明度(V)の少なくとも1つについて所定の幅を持たせて候補条件を選択する。   The control unit 7 performs the same process as step S14 in FIG. 3 and selects some candidate conditions for color correction. For example, the color correction condition obtained by performing the same processing as in step S14 in FIG. 3 has a predetermined width for at least one of hue (H), saturation (S), and brightness (V), and is a candidate. Select a condition.

ステップS25において、制御部7は、ステップS24で選択した色補正の候補条件を表示部8に表示する。図10に色補正の候補条件の表示例を示す。図10の例では、選択した色補正の候補条件を、カラーパレットC1として表示部8に表示している。このような表示を行うことにより、ユーザは、操作部9やタッチパネル17を介した操作により、簡単に所望の候補条件を選択することができる。なお、ユーザの操作性や利便性をより向上させるために、複数のパーツについて一括して候補条件を決定して表示する構成としても良い。例えば、図11に示すように、複数のパーツ(図11では、目について「アイカラー」、頬について「チーク」、唇について「リップ」)に関する色補正の候補条件を含むカラーパレットC2を、表示部8に表示しても良い。   In step S25, the control unit 7 displays the color correction candidate conditions selected in step S24 on the display unit 8. FIG. 10 shows a display example of candidate conditions for color correction. In the example of FIG. 10, the selected candidate conditions for color correction are displayed on the display unit 8 as a color palette C1. By performing such display, the user can easily select a desired candidate condition by an operation via the operation unit 9 or the touch panel 17. In order to further improve the operability and convenience for the user, a configuration may be adopted in which candidate conditions are collectively determined and displayed for a plurality of parts. For example, as shown in FIG. 11, a color palette C2 including color correction candidate conditions for a plurality of parts (in FIG. 11, “eye color” for eyes, “teak” for cheeks, “lip” for lips) is displayed. You may display on the part 8.

カラーパレットC2については、横一列(例えば、図11中E1)を一括して選択可能な構成としても良いし、パーツ毎に好みの候補条件を選択可能な構成としても良い。また、一度に全ての候補条件を表示するのが困難な場合には、上下、左右方向にさらなる候補条件が存在することを示すいわゆるスクロールアイコンなどを表示部8に表示すれば良い。なお、図10および図11は、色補正の候補条件の一表示例であり、表示の内容はこの例に限定されない。例えば、文字情報や音声情報などを利用しても良い。   The color palette C2 may have a configuration in which one horizontal row (for example, E1 in FIG. 11) can be selected at once, or a favorite candidate condition can be selected for each part. If it is difficult to display all candidate conditions at once, a so-called scroll icon or the like indicating that additional candidate conditions exist in the vertical and horizontal directions may be displayed on the display unit 8. FIGS. 10 and 11 are display examples of candidate conditions for color correction, and the display contents are not limited to this example. For example, character information or voice information may be used.

ステップS26において、制御部7は、ステップS25で表示した候補条件のうち、何れかの候補条件が選択されたか否かを判定する。制御部7は、何れかの候補条件が選択されるまで待機し、何れかの候補条件が選択されたと判定すると、選択候補条件を色補正の条件とし、ステップS27に進む。   In step S26, the control unit 7 determines whether any candidate condition is selected from the candidate conditions displayed in step S25. The control unit 7 waits until any candidate condition is selected. If the control unit 7 determines that any candidate condition is selected, the control unit 7 sets the selected candidate condition as a color correction condition, and proceeds to step S27.

ステップS27において、制御部7は、全てのパーツについて色補正の条件を決定したか否かを判定する。制御部7は、全てのパーツについて色補正の条件を決定したと判定すると、ステップS28に進む。一方、全てのパーツについて色補正の条件を決定していないと判定すると、制御部7は、ステップS21に戻り、色補正の条件を決定していないパーツについて、ステップS21以降の処理を行う。   In step S27, the control unit 7 determines whether or not color correction conditions have been determined for all parts. If the control unit 7 determines that the color correction conditions have been determined for all parts, the process proceeds to step S28. On the other hand, if it is determined that the color correction conditions have not been determined for all parts, the control unit 7 returns to step S21, and performs the processes after step S21 for the parts for which the color correction conditions have not been determined.

ステップS28において、制御部7は、図3のステップS16と同様に、画像処理部6を制御して色補正を実行する。このとき、画像処理部6は、ステップS26で選択された色補正の候補条件にしたがって、色補正を実行する。また、上述したように、メイク処理として各パーツの形状の調整の条件が決定されている場合には、画像処理部6は、これらの処理を連続して、または、同時に行う。   In step S28, the control unit 7 performs color correction by controlling the image processing unit 6 in the same manner as in step S16 of FIG. At this time, the image processing unit 6 performs color correction in accordance with the color correction candidate conditions selected in step S26. Further, as described above, when the condition for adjusting the shape of each part is determined as the makeup process, the image processing unit 6 performs these processes continuously or simultaneously.

なお、ステップS26で説明したユーザによる選択に関して、学習機能を採用しても良い。例えば、ステップS26において、ユーザにより候補条件が選択されるたびに、その頻度を記憶しておき、記憶した選択頻度に応じて、ステップS24で説明した色補正の候補条件の選択を行っても良い。   Note that a learning function may be employed for the selection by the user described in step S26. For example, every time a candidate condition is selected by the user in step S26, the frequency may be stored, and the color correction candidate condition described in step S24 may be selected according to the stored selection frequency. .

以上説明したように、本実施形態によれば、被写体像を撮像して画像を生成する撮像部と、画像から、被写体の人物の顔部分を検出する検出部と、画像のうち、顔部分を除く部分の色分布を解析する解析部と、検出部により検出した顔部分における特徴部分について、画像の色補正を行う画像処理部とを備える。そして、解析部による解析結果に基づいて、顔部分を除く部分を代表する代表色を求め、代表色に応じて、色補正の補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する。したがって、色補正を施した部分の色味が浮いてしまうのを抑えることにより画像全体の違和感を抑えつつ、背景の色分布に応じた好適な色補正を実現することができる。   As described above, according to the present embodiment, the imaging unit that captures the subject image and generates the image, the detection unit that detects the face portion of the person of the subject from the image, and the face portion of the image. An analysis unit that analyzes the color distribution of the excluded portion, and an image processing unit that performs color correction of an image on a feature portion in the face portion detected by the detection unit. Then, based on the analysis result by the analysis unit, a representative color representing the portion excluding the face portion is obtained, and at least one of hue, saturation, and brightness included in the color correction correction condition is determined according to the representative color. change. Therefore, it is possible to realize suitable color correction according to the color distribution of the background while suppressing a sense of incongruity of the entire image by suppressing the color tone of the portion subjected to color correction from floating.

また、本実施形態によれば、解析結果に基づいて、顔部分を除く部分を複数の領域に分割し、各領域のうち占有面積が最も大きい領域の色を代表色とする。したがって、背景のうち、見た目の影響の大きい部分の色に応じた色補正を実現することができる。   Further, according to the present embodiment, the portion excluding the face portion is divided into a plurality of regions based on the analysis result, and the color of the region with the largest occupied area among the regions is set as the representative color. Therefore, it is possible to realize color correction according to the color of the portion of the background that has a large visual influence.

また、本実施形態によれば、解析結果に基づいて、顔部分を除く部分を複数の領域に分割し、各領域の合焦状態に応じて代表領域を決定し、代表領域の色を代表色とする。したがって、背景のうち、見た目の影響の大きい部分の色に応じた色補正を実現することができる。   Further, according to the present embodiment, based on the analysis result, the part excluding the face part is divided into a plurality of areas, the representative area is determined according to the focus state of each area, and the color of the representative area is set as the representative color. And Therefore, it is possible to realize color correction according to the color of the portion of the background that has a large visual influence.

また、本実施形態によれば、顔部分を除く部分の色の平均値を求め、平均値に対応する色を代表色とする。したがって、背景の色分布に応じた色補正を簡単な処理で実現することができる。   Further, according to the present embodiment, the average value of the color of the part excluding the face part is obtained, and the color corresponding to the average value is set as the representative color. Therefore, color correction according to the background color distribution can be realized by simple processing.

また、本実施形態によれば、解析結果に基づいて、顔部分を除く部分を複数の領域に分割し、それぞれの領域の色と占有面積と合焦状態と周波数成分との少なくとも1つに基づいて、分割された各領域の重みを決定し、重みを加味して代表色を求める。したがって、背景の色分布に応じた好適な色補正を実現することができる。   Further, according to the present embodiment, based on the analysis result, the portion excluding the face portion is divided into a plurality of regions, and based on at least one of the color, occupied area, in-focus state, and frequency component of each region. Thus, the weight of each divided area is determined, and the representative color is obtained by taking the weight into consideration. Therefore, suitable color correction according to the background color distribution can be realized.

また、本実施形態によれば、画像を表示する表示部と、ユーザ操作を受け付ける受付部と、解析結果に基づき、補正条件の候補として、色相と彩度と明度との少なくとも1つが異なる複数の色候補を選択する選択部とをさらに備える。そして、表示部は、複数の色候補を表示し、受付部は、複数の色候補のうち、いずれかの色候補を選択するユーザ操作を受け付け、画像処理部は、受付部を介してユーザにより選択された色候補に応じて、補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する。したがって、ユーザは、簡単な操作を行うだけで、好適な色補正を実現することができる。   Further, according to the present embodiment, a display unit that displays an image, a reception unit that receives a user operation, and a plurality of different hue conditions, saturations, and brightness values as candidates for correction conditions based on the analysis result. And a selection unit that selects color candidates. The display unit displays a plurality of color candidates, the reception unit receives a user operation for selecting one of the plurality of color candidates, and the image processing unit is received by the user via the reception unit. According to the selected color candidate, at least one of hue, saturation, and lightness included in the correction condition is changed. Therefore, the user can realize suitable color correction only by performing a simple operation.

また、本実施形態では、受付部を介してユーザにより選択された色候補を記憶し、各色候補の選択頻度に応じて、補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する。したがって、ユーザの操作性を向上させることができるとともに、よりユーザの好みを反映した色補正を実現することができる。   In the present embodiment, the color candidate selected by the user via the reception unit is stored, and at least one of hue, saturation, and brightness included in the correction condition is changed according to the selection frequency of each color candidate. To do. Therefore, user operability can be improved, and color correction reflecting the user's preference can be realized.

なお、本実施形態において、図3のステップS14で説明した色補正の条件を変更する際、および、図9のステップS24で説明した色補正の候補条件を選択する際に、対象の画像が生成された日時に関する情報や場所に関する情報を加味しても良い。   In this embodiment, when changing the color correction conditions described in step S14 in FIG. 3 and when selecting the color correction candidate conditions described in step S24 in FIG. 9, a target image is generated. Information on the date and time and information on the location may be taken into account.

例えば、制御部7は、撮影情報の撮影年月日から季節や撮影時刻などの情報を取得したり、GPS情報から撮影場所、地域、国などの情報を取得したりする。そして、これらの情報を加味して、色補正の条件を変更したり、色補正の候補条件を選択したりすることができる。季節を加味する場合には、例えば、夏(6月〜8月)および冬(12月〜2月)には、青みを強めるようにし、春(3月〜5月)および秋(9月〜11月)には、黄みを強めるようにする。また、撮影時刻を加味する場合には、例えば、朝は明度を下げる(淡くする)ようにし、昼は明度を下げ彩度を上げる(明るくする)ように、夜は彩度を上げる(派手にする)ようにする。また、撮影場所として国の情報を加味する場合には、各国の人種や文化に起因する配色の好みなどを加味しても良い。このように、画像が生成された日時に関する情報や場所に関する情報などを加味して、補正条件に含まれる色相と彩度と明度との少なくとも1つを変更することにより、より雰囲気があり、芸術性の高い画像を生成することができる。   For example, the control unit 7 acquires information such as the season and shooting time from the shooting date of the shooting information, or acquires information such as the shooting location, region, and country from the GPS information. Then, in consideration of these pieces of information, the color correction conditions can be changed, or the color correction candidate conditions can be selected. When seasons are taken into account, for example, in summer (June to August) and winter (December to February), bluishness is enhanced, and in spring (March to May) and autumn (September to In November), the yellow will be strengthened. In addition, when taking the shooting time into account, for example, the lightness is lowered (lightened) in the morning, the lightness is lowered (lightened) in the daytime, and the saturation is increased (lightly) at night. Do). In addition, when country information is taken into account as a shooting location, a color scheme preference caused by the race or culture of each country may be added. In this way, by adding at least one of hue, saturation, and lightness included in the correction condition in consideration of information on the date and time when the image was generated, information on the location, and the like, there is a more atmosphere and art. A highly specific image can be generated.

また、本実施形態では、色補正の条件として色相(H)のみ、または、彩度(S)および明度(V)を変更する場合を例に挙げて説明したが、本発明はこの例に限定されない。例えば、HSV色空間の場合には、色相(H)、彩度(S)、明度(V)のうち少なくとも1つの要素を変更することにより、本実施形態と同様の効果を得ることができる。いずれの要素を変更するかは、ユーザにより設定可能な構成としても良い。   Further, in the present embodiment, the case where only the hue (H) or the saturation (S) and the lightness (V) is changed as the color correction condition has been described as an example. However, the present invention is limited to this example. Not. For example, in the case of the HSV color space, the same effect as that of the present embodiment can be obtained by changing at least one element of hue (H), saturation (S), and brightness (V). Which element is changed may be configured to be settable by the user.

また、本実施形態では、色を表現する際に、HSV色空間を用いる場合を例に挙げて説明したが、本発明はこの例に限定されない。例えば、YCbCr色空間など、HSV色空間以外の色空間を用いても本発明と同様の処理を行い、同様の効果を得ることができる。   In this embodiment, the case where the HSV color space is used when expressing the color has been described as an example. However, the present invention is not limited to this example. For example, even when a color space other than the HSV color space, such as a YCbCr color space, is used, the same processing as in the present invention can be performed and the same effect can be obtained.

また、本実施形態では、背景の代表色に近づける方向に色補正の条件を変更する場合を例に挙げて説明したが、本発明はこの例に限定されない。例えば、表現上の対比効果を目的とし、あえて、背景の代表色から遠ざける方向に色補正の条件を変更する構成としても良い。   In this embodiment, the case where the color correction condition is changed in a direction approaching the representative color of the background has been described as an example. However, the present invention is not limited to this example. For example, a configuration may be used in which the color correction condition is changed in a direction away from the background representative color for the purpose of a contrast effect on expression.

また、本実施形態で説明した一連の処理を、記録された画像の再生時に行っても良い。例えば、図2のフローチャートのステップS3およびステップS4で説明した処理(図3および図9のフローチャートを含む)を、対象画像が再生される際に行っても良い。   Further, the series of processing described in the present embodiment may be performed when a recorded image is reproduced. For example, the processing (including the flowcharts of FIGS. 3 and 9) described in steps S3 and S4 in the flowchart of FIG. 2 may be performed when the target image is reproduced.

また、本実施形態では、デジタルカメラ1を例に挙げて説明したが、本発明はこの例に限定されない。例えば、図1に示した以外の構成を有するデジタルカメラにも本発明を同様に適用することができる。また、動画像を撮像可能なデジタルカメラにも本発明を同様に適用することができる。さらに、携帯電話などに積載されるデジタルカメラにも本発明を同様に適用することができる。   In the present embodiment, the digital camera 1 has been described as an example, but the present invention is not limited to this example. For example, the present invention can be similarly applied to a digital camera having a configuration other than that shown in FIG. Further, the present invention can be similarly applied to a digital camera capable of capturing a moving image. Furthermore, the present invention can be similarly applied to a digital camera mounted on a mobile phone or the like.

また、本実施形態の制御部7が行った処理の一部または全部を、コンピュータで実現する構成としても良い。この場合、コンピュータに、本実施形態の制御部7が行った処理(図2、図3および図9)の一部または全部を実行するための画像処理プログラムを記憶しておき、この画像処理プログラムにより、同様の処理を行うことで、本実施形態と同等の効果を得ることができる。なお、画像処理プログラムで実現する際には、Exif情報などの付帯情報に基づいて、各処理を行えば良い。   Moreover, it is good also as a structure which implement | achieves a part or all of the process which the control part 7 of this embodiment performed with a computer. In this case, an image processing program for executing part or all of the processing (FIGS. 2, 3, and 9) performed by the control unit 7 of the present embodiment is stored in the computer, and the image processing program Thus, by performing the same processing, it is possible to obtain the same effect as the present embodiment. Note that, when the image processing program is used, each process may be performed based on incidental information such as Exif information.

1…デジタルカメラ、3…撮像素子、6…画像処理部、7…制御部、16…顔検出部 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 3 ... Image sensor, 6 ... Image processing part, 7 ... Control part, 16 ... Face detection part

Claims (9)

被写体像を撮像して画像を生成する撮像部と、
前記画像から、被写体の人物の顔部分を検出する検出部と、
前記画像のうち、前記顔部分を除く部分の色分布を解析する解析部と、
前記検出部により検出した前記顔部分における特徴部分について、画像の色補正を行う画像処理部とを備え、
前記画像処理部は、前記解析部による解析結果に基づいて、前記顔部分を除く部分を代表する代表色を求め、前記代表色に応じて、前記色補正の補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する
ことを特徴とするデジタルカメラ。
An imaging unit that captures a subject image and generates an image;
A detection unit for detecting a face portion of a subject person from the image;
An analysis unit that analyzes a color distribution of a part of the image excluding the face part;
An image processing unit that performs color correction of an image on the feature portion of the face portion detected by the detection unit;
The image processing unit obtains a representative color representing a portion excluding the face portion based on an analysis result by the analysis unit, and according to the representative color, hue and saturation included in the correction condition of the color correction A digital camera characterized by changing at least one of brightness and brightness.
請求項1に記載のデジタルカメラにおいて、
前記画像処理部は、前記解析結果に基づいて、前記顔部分を除く部分を複数の領域に分割し、各領域のうち占有面積が最も大きい領域の色を前記代表色とする
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The image processing unit divides a portion excluding the face portion into a plurality of regions based on the analysis result, and a color of a region having the largest occupied area among the regions is set as the representative color. Digital camera.
請求項1に記載のデジタルカメラにおいて、
前記画像処理部は、前記解析結果に基づいて、前記顔部分を除く部分を複数の領域に分割し、各領域の合焦状態に応じて代表領域を決定し、前記代表領域の色を前記代表色とする
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The image processing unit divides a portion excluding the face portion into a plurality of regions based on the analysis result, determines a representative region according to an in-focus state of each region, and sets the color of the representative region to the representative region A digital camera characterized by color.
請求項1に記載のデジタルカメラにおいて、
前記画像処理部は、前記顔部分を除く部分の色の平均値を求め、前記平均値に対応する色を前記代表色とする
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The image processing unit obtains an average value of colors of portions excluding the face portion, and uses a color corresponding to the average value as the representative color.
請求項1に記載のデジタルカメラにおいて、
前記画像処理部は、前記解析結果に基づいて、前記顔部分を除く部分を複数の領域に分割し、それぞれの領域の色と占有面積と合焦状態との少なくとも一方に基づいて、分割された各領域の重みを決定し、前記重みを加味して前記代表色を求める
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The image processing unit divides a portion excluding the face portion into a plurality of regions based on the analysis result, and divides the regions based on at least one of a color, an occupied area, and an in-focus state of each region. A digital camera characterized in that a weight of each region is determined, and the representative color is obtained in consideration of the weight.
請求項1に記載のデジタルカメラにおいて、
前記画像を表示する表示部と、
ユーザ操作を受け付ける受付部と、
前記解析結果に基づき、前記補正条件の候補として、色相と彩度と明度との少なくとも1つが異なる複数の色候補を選択する選択部とをさらに備え、
前記表示部は、複数の前記色候補を表示し、
前記受付部は、複数の前記色候補のうち、いずれかの色候補を選択するユーザ操作を受け付け、
前記画像処理部は、前記受付部を介してユーザにより選択された色候補に応じて、前記補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
A display unit for displaying the image;
A reception unit for receiving user operations;
A selection unit that selects a plurality of color candidates having at least one of hue, saturation, and brightness as the correction condition candidates based on the analysis result;
The display unit displays a plurality of the color candidates,
The reception unit receives a user operation for selecting any one of the plurality of color candidates,
The image processing unit changes at least one of hue, saturation, and brightness included in the correction condition according to a color candidate selected by a user via the reception unit. .
請求項6に記載のデジタルカメラにおいて、
前記画像処理部は、前記受付部を介してユーザにより選択された色候補を記憶し、各色候補の選択頻度に応じて、前記補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 6, wherein
The image processing unit stores color candidates selected by the user via the receiving unit, and at least one of hue, saturation, and lightness included in the correction condition according to the selection frequency of each color candidate. A digital camera characterized by changing.
請求項1から請求項7のいずれか1項に記載のデジタルカメラにおいて、
前記画像処理部は、前記画像が生成された日時に関する情報と場所に関する情報との少なくとも一方を加味して、前記補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する
ことを特徴とするデジタルカメラ。
The digital camera according to any one of claims 1 to 7,
The image processing unit changes at least one of hue, saturation, and lightness included in the correction condition in consideration of at least one of information on a date and time when the image is generated and information on a place. A featured digital camera.
画像を取得する取得ステップと、
前記取得ステップにおいて取得した前記画像から、被写体の人物の顔部分を検出する検出ステップと、
前記画像のうち、前記顔部分を除く部分の色分布を解析する解析ステップと、
前記検出ステップにおいて検出した前記顔部分における特徴部分について、画像の色補正を行う画像処理ステップとをコンピュータで実現することを特徴とする画像処理プログラムであって、
前記画像処理部ステップでは、前記解析ステップにおける解析結果に基づいて、前記顔部分を除く部分を代表する代表色を求め、前記代表色に応じて、前記色補正の補正条件に含まれる色相と彩度と明度との少なくとも1つを変更する
ことを特徴とする画像処理プログラム。
An acquisition step of acquiring an image;
A detection step of detecting a face portion of the person of the subject from the image acquired in the acquisition step;
An analysis step of analyzing a color distribution of a portion of the image excluding the face portion;
An image processing program characterized in that an image processing step for performing color correction of an image on a feature portion in the face portion detected in the detection step is realized by a computer,
In the image processing unit step, based on the analysis result in the analysis step, a representative color representing a portion excluding the face portion is obtained, and the hue and saturation included in the correction condition for the color correction are determined according to the representative color. An image processing program that changes at least one of brightness and brightness.
JP2012034907A 2012-02-21 2012-02-21 Digital camera, and image processing program Pending JP2013171433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012034907A JP2013171433A (en) 2012-02-21 2012-02-21 Digital camera, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012034907A JP2013171433A (en) 2012-02-21 2012-02-21 Digital camera, and image processing program

Publications (1)

Publication Number Publication Date
JP2013171433A true JP2013171433A (en) 2013-09-02

Family

ID=49265318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012034907A Pending JP2013171433A (en) 2012-02-21 2012-02-21 Digital camera, and image processing program

Country Status (1)

Country Link
JP (1) JP2013171433A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018014646A (en) * 2016-07-21 2018-01-25 キヤノン株式会社 Image processing apparatus and image processing method
JP2018117289A (en) * 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program
WO2022172676A1 (en) * 2021-02-09 2022-08-18 ソニーグループ株式会社 Imaging device, image processing method, program, and image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228322A (en) * 2006-02-24 2007-09-06 Seiko Epson Corp Image processing apparatus, image processing method and image processing program
JP2009105951A (en) * 2009-01-26 2009-05-14 Seiko Epson Corp Correction of color of image data
JP2010211497A (en) * 2009-03-10 2010-09-24 Nikon Corp Digital camera and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228322A (en) * 2006-02-24 2007-09-06 Seiko Epson Corp Image processing apparatus, image processing method and image processing program
JP2009105951A (en) * 2009-01-26 2009-05-14 Seiko Epson Corp Correction of color of image data
JP2010211497A (en) * 2009-03-10 2010-09-24 Nikon Corp Digital camera and image processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018014646A (en) * 2016-07-21 2018-01-25 キヤノン株式会社 Image processing apparatus and image processing method
JP2018117289A (en) * 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program
WO2022172676A1 (en) * 2021-02-09 2022-08-18 ソニーグループ株式会社 Imaging device, image processing method, program, and image processing device

Similar Documents

Publication Publication Date Title
JP2010211497A (en) Digital camera and image processing program
US8977053B2 (en) Image processing device and image processing method
US20080112648A1 (en) Image processor and image processing method
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
US20130016246A1 (en) Image processing device and electronic apparatus
JP4752941B2 (en) Image composition apparatus and program
JP4663699B2 (en) Image display device and image display method
JP6111723B2 (en) Image generating apparatus, image generating method, and program
JP2010199720A (en) Digital camera
JP2010244239A (en) Image processor, digital camera and program
JP2018206144A (en) Image processing apparatus, image processing method and program
JP2013172166A (en) Image processing apparatus, imaging apparatus, and program
JP2013171433A (en) Digital camera, and image processing program
JP2010092094A (en) Image processing apparatus, image processing program, and digital camera
JP2010066853A (en) Image processing device, method and program
JP5272775B2 (en) Electronic still camera
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
US8971636B2 (en) Image creating device, image creating method and recording medium
JP2012003324A (en) Image processing system, imaging apparatus, image processing program and memory medium
JP2010199968A (en) Digital camera
JP2010226416A (en) Digital camera
JP2012004719A (en) Image processing device, image processing program, and electronic camera
JP2010251909A (en) Digital camera and image processing program
JP2014096836A (en) Digital camera
JP2010251908A (en) Digital camera and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161213