JP2011035650A - Image pickup apparatus, image processing method and program - Google Patents

Image pickup apparatus, image processing method and program Download PDF

Info

Publication number
JP2011035650A
JP2011035650A JP2009179759A JP2009179759A JP2011035650A JP 2011035650 A JP2011035650 A JP 2011035650A JP 2009179759 A JP2009179759 A JP 2009179759A JP 2009179759 A JP2009179759 A JP 2009179759A JP 2011035650 A JP2011035650 A JP 2011035650A
Authority
JP
Japan
Prior art keywords
image
subject
extraction
imaging
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009179759A
Other languages
Japanese (ja)
Other versions
JP5402361B2 (en
Inventor
Tetsuji Makino
哲司 牧野
Ryohei Yamamoto
量平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009179759A priority Critical patent/JP5402361B2/en
Publication of JP2011035650A publication Critical patent/JP2011035650A/en
Application granted granted Critical
Publication of JP5402361B2 publication Critical patent/JP5402361B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup apparatus for simply extracting a subject region at one shot by discriminating an image pickup environment suitable for extraction of the subject region in one shot. <P>SOLUTION: The image pickup apparatus 100 includes: a degree-of-non-flatness computing section 7 for computing a degree of non-flatness of image frames of an image for extracting a first subject; a degree-of-non-flatness determining section 8a for determining whether or not the degree of non-flatness of the image frames of the image for extracting the first subject is a predetermined value or lower; a background generating section 8d for generating a background image for extraction on the basis of the image frames of the image for extracting the first subject when it is determined that the degree of non-flatness is the predetermined value or lower; and a cutout image generating section 8f for extracting a subject region from an image including the subject on the basis of difference information of each corresponding pixel between an image including the subject picked up by an electronic image pickup section 2 in accordance with an image pickup instruction from an operation input section 12 and the background image for extraction. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像された画像から被写体領域を抽出する撮像装置、画像処理方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an image processing method, and a program for extracting a subject area from a captured image.

従来、撮像装置を用いて、背景内に被写体が存在する画像と被写体が存在しない背景画像を撮影して、背景画像と被写体が存在する画像から差分情報を生成し、被写体のみを抜き出すアプリケーションが知られている(例えば、特許文献1参照)。   Conventionally, there is an application that uses an imaging device to capture an image with a subject in the background and a background image without the subject, generate difference information from the background image and the image with the subject, and extract only the subject. (For example, refer to Patent Document 1).

特開平10−21408号公報Japanese Patent Laid-Open No. 10-21408

しかしながら、上記特許文献1のように、背景内に被写体が存在する画像と被写体が存在しない背景画像とを2回に分けて撮影する場合、2回の撮影の間に画角の移動が生じ易く、被写体を抽出する処理にて背景自体の画素値に差分が発生して背景部分を被写体と誤認識して被写体の抽出を適正に行うことができないといった問題がある。
一方、1回の撮影で生成された1枚の撮影画像から被写体を切り抜く技術も知られているが、撮影環境によっては適用が困難となっている。
However, as in the above-mentioned Patent Document 1, when an image with a subject in the background and a background image without the subject are shot in two shots, the angle of view easily moves between the two shots. In the process of extracting the subject, there is a problem that a difference occurs in the pixel value of the background itself, and the background portion is erroneously recognized as the subject and the subject cannot be properly extracted.
On the other hand, a technique for clipping a subject from a single photographed image generated by one photographing is also known, but it is difficult to apply depending on the photographing environment.

そこで、本発明の課題は、1回の撮影での被写体領域の抽出に適した撮影環境を判別することができ、被写体領域の抽出を一回の撮影で簡便に行うことができる撮像装置、画像処理方法及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an imaging apparatus and an image that can determine a shooting environment suitable for extraction of a subject area in one shooting and can easily perform extraction of a subject area in one shooting. A processing method and a program are provided.

上記課題を解決するため、請求項1に記載の発明の撮像装置は、
撮像手段と、この撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段と、この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段と、この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する第1判定手段と、前記撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する第1撮像指示手段と、前記第1判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段と、前記第1撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段と、を備えたことを特徴としている。
In order to solve the above problem, an imaging apparatus according to claim 1 is provided.
Imaging means, generating means for generating an image frame of a subject extraction image for extracting a subject area imaged by the imaging means, and non-flatness of the image frame of the subject extraction image generated by the generating means A first determination unit that determines whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation unit is equal to or less than a predetermined value; An image frame of the subject extraction image when the non-flatness is determined to be less than or equal to a predetermined value by the first imaging instruction means for instructing imaging of a subject-existing image in which a subject exists. A background generation unit that generates a background image for extraction based on the image, the subject presence image captured by the imaging unit in accordance with an imaging instruction by the first imaging instruction unit, and the Based on the difference information of each pixel corresponding to the output for the background image, it is characterized by comprising, a subject extracting unit for extracting the subject region from the subject-including image.

請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記生成手段は、背景内に被写体の存在しない第1被写体抽出用画像と前記背景内に被写体の存在する第2被写体抽出用画像の各々を前記撮像手段により撮像して各々の画像フレームを生成し、前記第1被写体抽出用画像の画像フレームと前記第2被写体抽出用画像の画像フレームとの対応する各画素の相違度が所定値以下であるか否かを判定する第2判定手段を更に備え、前記背景生成手段は、前記第2判定手段により相違度が所定値以下であると判定された画素に基づいて、前記抽出用背景画像を生成することを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
The generating means images each of a first subject extraction image in which no subject exists in the background and a second subject extraction image in which the subject exists in the background by the imaging means, and generates each image frame. And a second determination means for determining whether or not a difference between corresponding pixels of the image frame of the first subject extraction image and the image frame of the second subject extraction image is equal to or less than a predetermined value. The background generation means generates the background image for extraction based on a pixel whose degree of difference is determined to be equal to or less than a predetermined value by the second determination means.

請求項3に記載の発明は、請求項2に記載の撮像装置において、
前記背景生成手段は、前記第2判定手段により相違度が所定値以下であると判定された画素と同じ色の前記抽出用背景画像を生成することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 2,
The background generation unit generates the extraction background image having the same color as a pixel whose degree of difference is determined to be less than or equal to a predetermined value by the second determination unit.

請求項4に記載の発明は、請求項2又は3に記載の撮像装置において、
前記撮像手段により先に撮像される前記第1被写体抽出用画像と当該第1被写体抽出用画像の撮像後に撮像される前記第2被写体抽出用画像の各々の撮像条件を同じ条件に設定する撮像条件設定手段を更に備えることを特徴としている。
The invention according to claim 4 is the imaging apparatus according to claim 2 or 3,
Imaging conditions for setting the imaging conditions of the first subject extraction image first captured by the imaging unit and the second subject extraction image captured after the first subject extraction image is captured to the same condition It is characterized by further comprising setting means.

請求項5に記載の発明は、請求項4に記載の撮像装置において、
前記撮像条件設定手段は、更に、前記第2被写体抽出用画像の撮像後に、前記撮像手段により前記被写体存在画像を撮像する際の撮像条件を設定することを特徴としている。
The invention according to claim 5 is the imaging apparatus according to claim 4,
The imaging condition setting means is further characterized in that after the second subject extraction image is captured, an imaging condition for capturing the subject existing image by the imaging means is set.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、
前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するための抽出用情報を生成する第1抽出用情報生成手段を更に備え、前記被写体抽出手段は、前記第1抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴としている。
Invention of Claim 6 is an imaging device as described in any one of Claims 1-5,
First extraction information generating means for generating extraction information for extracting the subject region from the subject existing image based on difference information of corresponding pixels between the subject existing image and the extraction background image; Further, the subject extraction means extracts the subject region from the subject existing image using the extraction information generated by the first extraction information generation means.

請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、
前記演算手段は、前記非平坦度として、前記被写体抽出用画像の複数の特徴点を抽出し、前記第1判定手段は、更に、前記演算手段により抽出された前記複数の特徴点が所定値以下であるか否かを判定し、前記背景生成手段は、更に、前記第1判定手段により特徴点が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴としている。
The invention according to claim 7 is the imaging apparatus according to any one of claims 1 to 6,
The calculation means extracts a plurality of feature points of the subject extraction image as the non-flatness, and the first determination means further includes the plurality of feature points extracted by the calculation means being a predetermined value or less. The background generation means further generates the background image for extraction when the first determination means determines that the feature point is equal to or less than a predetermined value. Yes.

請求項8に記載の発明は、請求項1〜7の何れか一項に記載の撮像装置において、
前記演算手段は、前記非平坦度として、前記被写体抽出用画像の複数の画像領域内の画素値のばらつき量を演算し、前記第1判定手段は、更に、前記演算手段により演算された前記複数の画像領域内の画素値のばらつき量が所定値以下であるか否かを判定し、前記背景生成手段は、更に、前記第1判定手段により画素値のばらつき量が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴としている。
The invention according to claim 8 is the imaging apparatus according to any one of claims 1 to 7,
The calculation means calculates, as the non-flatness, a variation amount of pixel values in a plurality of image regions of the subject extraction image, and the first determination means further includes the plurality of the calculation values calculated by the calculation means. It is determined whether or not the variation amount of the pixel value in the image area is equal to or less than a predetermined value, and the background generation unit further determines that the variation amount of the pixel value is equal to or less than the predetermined value by the first determination unit. In such a case, the extraction background image is generated.

請求項9に記載の発明は、請求項1〜8の何れか一項に記載の撮像装置において、
前記撮像手段は、前記第1判定手段により前記被写体抽出用画像の非平坦度が所定値以下であると判定された場合に、前記被写体存在画像を撮像することを特徴としている。
The invention according to claim 9 is the imaging apparatus according to any one of claims 1 to 8,
The image pickup means picks up the subject existing image when the first determination means determines that the non-flatness of the subject extraction image is a predetermined value or less.

請求項10に記載の発明は、請求項1〜9の何れか一項に記載の撮像装置において、
前記第1判定手段により非平坦度が所定値以下でないと判定された場合に、前記被写体存在画像の背景と同一の背景内に被写体の存在しない被写体非存在画像の前記撮像手段による撮像を指示する第2撮像指示手段を更に備え、前記被写体抽出手段は、前記第2撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体非存在画像と前記被写体存在画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出することを特徴としている。
The invention according to claim 10 is the imaging apparatus according to any one of claims 1 to 9,
When the first determination unit determines that the non-flatness is not equal to or less than a predetermined value, the imaging unit instructs the imaging unit to capture a subject nonexistent image in the same background as the background of the subject existing image. A second imaging instruction means, wherein the subject extraction means is a difference between corresponding pixels of the subject non-existence image captured by the imaging means and the subject presence image in accordance with an imaging instruction by the second imaging instruction means; The subject area is extracted from the subject existing image based on the information.

請求項11に記載の発明は、請求項10に記載の撮像装置において、
前記被写体非存在画像と前記被写体存在画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するための抽出用情報を生成する第2抽出用情報生成手段を更に備え、前記被写体抽出手段は、前記第2抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴としている。
The invention according to claim 11 is the imaging apparatus according to claim 10,
Second extraction information generating means for generating extraction information for extracting the subject region from the subject presence image based on difference information of corresponding pixels between the subject non-existence image and the subject presence image. Further, the subject extraction means is characterized in that the subject area is extracted from the subject existing image using the extraction information generated by the second extraction information generation means.

請求項12に記載の発明の画像処理方法は、
撮像手段と、この撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する撮像指示手段とを備える撮像装置に、前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成ステップと、この生成ステップにより生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算ステップと、この演算ステップにより演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定ステップと、この判定ステップにより非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成ステップと、前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するステップと、を実行させることを特徴としている。
An image processing method according to a twelfth aspect of the present invention includes:
A subject extraction image for extracting a subject area imaged by the imaging means in an imaging apparatus comprising an imaging means and an imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means A generation step for generating the image frame, a calculation step for calculating the non-flatness of the image frame of the subject extraction image generated by the generation step, and an image of the subject extraction image calculated by the calculation step A determination step for determining whether or not the non-flatness of the frame is equal to or less than a predetermined value, and when it is determined by this determination step that the non-flatness is equal to or less than a predetermined value, the image frame of the subject extraction image A background generation step of generating a background image for extraction based on the image, and imaging by the imaging unit according to an imaging instruction by the imaging instruction unit Based on the difference information of each pixel corresponding to the subject-image and the extracted background image, it is characterized in that to execute the steps of extracting the subject region from the subject-including image.

請求項13に記載の発明のプログラムは、
撮像手段と、この撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する撮像指示手段とを備える撮像装置のコンピュータを、前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段、この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段、この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定手段、前記判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段、前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段、として機能させることを特徴としている。
The program of the invention described in claim 13 is:
A computer of an imaging apparatus comprising imaging means and imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means, subject extraction for extracting a subject area imaged by the imaging means Generating means for generating an image frame of the image for calculation, calculating means for calculating the non-flatness of the image frame of the image for subject extraction generated by the generating means, and the image of the image for subject extraction calculated by the calculating means A determination unit that determines whether or not the non-flatness of the frame is equal to or less than a predetermined value, and when the non-flatness is determined to be equal to or less than the predetermined value by the determination unit, based on the image frame of the subject extraction image Background generation means for generating a background image for extraction, and the subject existing image imaged by the imaging means in accordance with an imaging instruction by the imaging instruction means The extraction based on the corresponding differential information of each pixel of the background image, is characterized in that to function as the subject extracting unit for extracting the subject region from the subject-including image and.

本発明によれば、1回の撮影での被写体領域の抽出に適した撮影環境を判別することができ、この撮影環境にて被写体領域の抽出を一回の撮影で簡便に行うことができる。   According to the present invention, it is possible to determine a shooting environment suitable for extracting a subject area in one shooting, and it is possible to easily extract a subject area in one shooting in this shooting environment.

本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 to which this invention is applied. 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to subject clipping processing by the imaging apparatus of FIG. 1. 図2の被写体切り抜き処理の続きを示すフローチャートである。FIG. 3 is a flowchart showing a continuation of the subject clipping process in FIG. 2. FIG. 図2の被写体切り抜き処理における背景生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a background generation process in the subject clipping process of FIG. 2. 図2の被写体切り抜き処理における第1領域検出処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a first area detection process in the subject clipping process of FIG. 2. 図2の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 図2の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 本発明を適用した実施形態2の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 2 to which this invention is applied. 図8の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。9 is a flowchart illustrating an example of an operation related to a subject clipping process performed by the imaging apparatus in FIG. 8. 図9の被写体切り抜き処理の続きを示すフローチャートである。10 is a flowchart showing a continuation of the subject clipping process in FIG. 9. 図9の被写体切り抜き処理における第2領域検出処理に係る動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation related to a second area detection process in the subject clipping process of FIG. 9. 図9の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 変形例1の第1領域検出処理に係る動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation related to a first area detection process according to Modification 1;

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
実施形態1の撮像装置100は、第1被写体抽出用画像P2aの画像フレームの非平坦度が所定値以下であると判定された場合に、当該第1被写体抽出用画像P2aの画像フレームに基づいて抽出用背景画像P3を生成して、抽出用背景画像P3と被写体存在画像P1aの対応する各画素の差分情報に基づいて、被写体存在画像P1aから被写体領域を抽出する。
[Embodiment 1]
When it is determined that the non-flatness of the image frame of the first subject extraction image P2a is equal to or less than a predetermined value, the imaging apparatus 100 according to the first embodiment is based on the image frame of the first subject extraction image P2a. An extraction background image P3 is generated, and a subject region is extracted from the subject presence image P1a based on difference information between corresponding pixels of the extraction background image P3 and the subject presence image P1a.

図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、解像度変換部6と、非平坦度演算部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、CPU13とを備えている。
また、撮像制御部3と、非平坦度演算部7と、画像処理部8と、CPU13は、例えば、カスタムLSI1Aとして設計されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to the first embodiment to which the present invention is applied.
As illustrated in FIG. 1, the imaging apparatus 100 includes a lens unit 1, an electronic imaging unit 2, an imaging control unit 3, an image data generation unit 4, an image memory 5, a resolution conversion unit 6, and non-flatness. A calculation unit 7, an image processing unit 8, a recording medium 9, a display control unit 10, a display unit 11, an operation input unit 12, and a CPU 13 are provided.
Further, the imaging control unit 3, the non-flatness calculation unit 7, the image processing unit 8, and the CPU 13 are designed as, for example, a custom LSI 1A.

レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体Sの撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The lens unit 1 includes a plurality of lenses and includes a zoom lens, a focus lens, and the like.
Although not shown, the lens unit 1 includes a zoom drive unit that moves the zoom lens in the optical axis direction when the subject S is imaged, a focus drive unit that moves the focus lens in the optical axis direction, and the like. May be.

電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the lens unit 1 into a two-dimensional image signal. To do.

このように構成されたレンズ部1及び電子撮像部2は、撮像手段を構成している。   The lens unit 1 and the electronic imaging unit 2 configured in this way constitute imaging means.

撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮影時にライブビュー画像表示を行う場合には、撮像制御部3は、電子撮像部2により被写体Sを所定の撮像フレームレートで連続して撮像させて、各画像フレームを電子撮像部2から画像データ生成部4に逐次出力させる。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image data generation unit 4.
When live view image display is performed at the time of shooting, the imaging control unit 3 causes the electronic imaging unit 2 to continuously capture the subject S at a predetermined imaging frame rate, and each image frame from the electronic imaging unit 2. The image data generation unit 4 sequentially outputs the data.

また、撮像制御部3は、撮像条件設定手段として、レンズ部1及び電子撮像部2による撮像条件の調整制御を行う。例えば、撮像制御部3は、レンズ部1を光軸方向に移動させて合焦条件を調整するAF(自動合焦処理)や、露出条件(シャッター速度、絞り、増幅率等)を調整するAE(自動露出処理)や、ホワイトバランスを調整するAWB(自動ホワイトバランス)等を行う。
具体的には、第1被写体抽出用画像P2aのライブビュー画像の非平坦度の判定処理(後述)にて、特徴点や当該特徴点内の画素値のばらつき量が所定値以下であると判定された後、第1被写体抽出用画像P2a(図6(b)参照)が撮像された場合には、撮像制御部3は、当該第1被写体抽出用画像P2aの撮像の際の撮像条件を固定した状態を維持する。
そして、ユーザによるシャッタボタン12aの撮像指示操作に基づいて、撮像制御部3は、第1被写体抽出用画像P2aの撮像後に固定された撮像条件で、レンズ部1を通過した被写体存在画像P1a(図7(a)参照)と同一の画角の光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から第2被写体抽出用画像P2b(図6(c)参照)に係る画像フレームを読み出させる。即ち、撮像制御部3は、レンズ部1及び電子撮像部2によりライブビュー画像として撮像される第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bの各々の撮像条件を同じ条件に設定する。
Further, the imaging control unit 3 performs adjustment control of imaging conditions by the lens unit 1 and the electronic imaging unit 2 as imaging condition setting means. For example, the imaging control unit 3 moves the lens unit 1 in the optical axis direction to adjust the focusing condition (automatic focusing process), and adjusts the exposure condition (shutter speed, aperture, amplification factor, etc.). (Automatic exposure processing), AWB (automatic white balance) for adjusting white balance, and the like are performed.
Specifically, in the non-flatness determination process (described later) of the live view image of the first subject extraction image P2a, it is determined that the variation amount of the feature point and the pixel value in the feature point is equal to or less than a predetermined value. After that, when the first subject extraction image P2a (see FIG. 6B) is captured, the imaging control unit 3 fixes the imaging conditions when capturing the first subject extraction image P2a. Maintain the state.
Then, based on the imaging instruction operation of the shutter button 12a by the user, the imaging control unit 3 uses the subject presence image P1a (see FIG. 5) that has passed through the lens unit 1 under the imaging conditions fixed after the first subject extraction image P2a is captured. 7 (a)) is converted into a two-dimensional image signal by the electronic imaging unit 2, and the second subject extraction image P2b (FIG. 6C) is converted from the imaging region of the electronic imaging unit 2. ))) Is read out. That is, the imaging control unit 3 sets the imaging conditions of the first subject extraction image P2a and the second subject extraction image P2b captured as live view images by the lens unit 1 and the electronic imaging unit 2 to the same condition. .

また、撮像制御部3は、第2被写体抽出用画像P2bの画像フレームの撮像後に、レンズ部1及び電子撮像部2により撮像される被写体存在画像P1aの撮像条件を被写体Sに合わせて調整する。その後、撮像制御部3は、レンズ部1を通過した被写体存在画像P1aの光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から第2被写体抽出用画像P2bに係る画像フレームを読み出させる。
なお、被写体存在画像P1aの撮像の際には、レンズ部1のレンズ位置の調整動作に時間がかかることを考慮すると、AF(自動合焦処理)を行わずに、例えば、AE(自動露出処理)やAWB(自動ホワイトバランス)等を行うのが好ましい。
Further, the imaging control unit 3 adjusts the imaging condition of the subject existing image P1a captured by the lens unit 1 and the electronic imaging unit 2 in accordance with the subject S after imaging the image frame of the second subject extraction image P2b. Thereafter, the imaging control unit 3 causes the electronic imaging unit 2 to convert the optical image of the subject existing image P1a that has passed through the lens unit 1 into a two-dimensional image signal, and extracts the second subject from the imaging region of the electronic imaging unit 2. The image frame related to the image P2b is read out.
Note that when taking the subject presence image P1a, considering that it takes time to adjust the lens position of the lens unit 1, for example, AE (automatic exposure processing) is performed without performing AF (automatic focusing processing). ) Or AWB (automatic white balance).

画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image data generation unit 4 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the electronic imaging unit 2, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an image memory 5 used as a buffer memory via a DMA controller (not shown).

なお、A/D変換後のデジタルデータを現像するデモザイク部(図示略)が、カスタムLSI1Aに実装されていても良い。   A demosaic unit (not shown) for developing the digital data after A / D conversion may be mounted on the custom LSI 1A.

画像メモリ5は、例えば、DRAM等により構成され、解像度変換部6と、非平坦度演算部7と、画像処理部8と、CPU13等によって処理されるデータ等を一時記憶する。   The image memory 5 is constituted by, for example, a DRAM or the like, and temporarily stores data processed by the resolution conversion unit 6, the non-flatness calculation unit 7, the image processing unit 8, the CPU 13, and the like.

解像度変換部6は、画像メモリ5に格納された画像のYUVデータを取得して、当該YUVデータに対して解像度変換処理を行う。具体的には、解像度変換部6は、撮影時にライブビュー画像表示を行う場合に、電子撮像部2により所定の撮像フレームレートで連続して撮像され、画像データ生成部4により生成された画像フレーム(例えば、3200×2400画素)のYUVデータに基づいて、ライブビュー画像表示用の画像フレーム(例えば、320×240画素)のYUVデータを逐次生成する。
即ち、解像度変換部6は、画像データ生成部4により生成された被写体抽出用画像(第1被写体抽出用画像P2a及び第2被写体抽出用画像P2b;図6(b)、図6(c)参照)のYUVデータに基づいて、当該被写体抽出用画像のライブビュー画像表示用の画像フレーム(例えば、第1ライブビュー画像や第2ライブビュー画像等)のYUVデータを順次生成する。
ここで、解像度変換部6は、レンズ部1及び電子撮像部2により撮像された被写体抽出用画像の画像フレームを生成する生成手段を構成している。
The resolution conversion unit 6 acquires YUV data of an image stored in the image memory 5 and performs resolution conversion processing on the YUV data. Specifically, the resolution conversion unit 6 continuously captures images at a predetermined imaging frame rate by the electronic imaging unit 2 and displays the image frames generated by the image data generation unit 4 when performing live view image display during shooting. Based on YUV data (for example, 3200 × 2400 pixels), YUV data of an image frame for live view image display (for example, 320 × 240 pixels) is sequentially generated.
That is, the resolution conversion unit 6 generates the subject extraction images generated by the image data generation unit 4 (first subject extraction image P2a and second subject extraction image P2b; see FIGS. 6B and 6C). ) YUV data of an image frame (for example, a first live view image, a second live view image, etc.) for displaying a live view image of the subject extraction image is sequentially generated.
Here, the resolution conversion unit 6 constitutes a generation unit that generates an image frame of a subject extraction image captured by the lens unit 1 and the electronic imaging unit 2.

非平坦度演算部7は、演算手段として、第1被写体抽出用画像P2aの画像フレームの非平坦度を演算する。具体的には、非平坦度演算部7は、特徴量演算部7aと、ばらつき量算出部7bとを具備する。   The non-flatness calculation unit 7 calculates non-flatness of the image frame of the first subject extraction image P2a as calculation means. Specifically, the non-flatness calculation unit 7 includes a feature amount calculation unit 7a and a variation amount calculation unit 7b.

特徴量演算部7aは、非平坦度として、第1被写体抽出用画像P2aの画像フレームから特徴点を抽出する特徴抽出処理を行う。
具体的には、特徴量演算部7aは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)に基づいて、高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出する。
The feature amount calculator 7a performs feature extraction processing for extracting feature points from the image frame of the first subject extraction image P2a as the non-flatness.
Specifically, the feature amount calculation unit 7a generates a high-frequency component based on an image frame (first live view image) for displaying a live view image of the first subject extraction image P2a generated by the resolution conversion unit 6. A block region having a large number of features (for example, a square of 16 × 16 pixels) is extracted as a feature point.

ばらつき量算出部7bは、非平坦度として、特徴点内の画素値のばらつき量を算出する。
ばらつき量算出部7bは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)の特徴点(ブロック領域)内の画素値のばらつき量として、例えば、標準偏差を下記式(1)に従って算出する。

Figure 2011035650
なお、上記式(1)において、b:各ブロック領域の画素値としては、例えば、輝度値が挙げられる。 The variation amount calculation unit 7b calculates the variation amount of the pixel value in the feature point as the non-flatness.
The variation amount calculation unit 7b calculates the pixel value in the feature point (block area) of the image frame (first live view image) for displaying the live view image of the first subject extraction image P2a generated by the resolution conversion unit 6. As the variation amount, for example, a standard deviation is calculated according to the following formula (1).
Figure 2011035650
In the above formula (1), b: a pixel value of each block area includes, for example, a luminance value.

このように、特徴量演算部7a及びばらつき量算出部7bは、第1被写体抽出用画像P2aの画像フレームの非平坦度を演算する演算手段を構成している。   As described above, the feature amount calculation unit 7a and the variation amount calculation unit 7b constitute a calculation unit that calculates the non-flatness of the image frame of the first subject extraction image P2a.

画像処理部8は、非平坦度演算処理にて演算された非平坦度の判定を行う非平坦度判定部8aを具備している。
非平坦度判定部8aは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)の特徴点、即ち、特徴量演算部7aにより抽出された第1ライブビュー画像の特徴の高いブロック領域が所定値以下であるか否かを判定する。また、非平坦度判定部8aは、ばらつき量算出部7bにより算出された第1ライブビュー画像の特徴点内の画素値のばらつき量が所定値以下であるか否かを判定する。
ここで、非平坦度判定部8aは、被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する第1判定手段を構成している。
The image processing unit 8 includes a non-flatness determination unit 8a that determines the non-flatness calculated in the non-flatness calculation process.
The non-flatness determination unit 8a is a feature point of a live view image display image frame (first live view image) of the first subject extraction image P2a generated by the resolution conversion unit 6, that is, a feature amount calculation unit 7a. It is determined whether or not the block region having a high feature of the first live view image extracted by the above is equal to or less than a predetermined value. Further, the non-flatness determination unit 8a determines whether or not the variation amount of the pixel value in the feature point of the first live view image calculated by the variation amount calculation unit 7b is equal to or less than a predetermined value.
Here, the non-flatness determination unit 8a constitutes first determination means for determining whether or not the non-flatness of the image frame of the subject extraction image is equal to or less than a predetermined value.

また、画像処理部8は、複数の画像の対応する画素どうしの相違度を算出する相違度算出部8bを具備している。
相違度算出部8bは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)と第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレーム(第2ライブビュー画像)との対応する各画素の相違度Dを下記式(2)に従って算出する。また、相違度算出部8bは、背景生成処理にて生成された抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度Dを下記式(2)に従って算出する。

Figure 2011035650
なお、上記式(2)にあっては、第1ライブビュー画像若しくは抽出用背景画像P3のYUVデータを「Y」、「U」、「V」で表し、第2ライブビュー画像若しくは被写体存在画像P1aのYUVデータを「Yc」、「Uc」、「Vc」で表す。また、Gは、色差信号U、Vのゲインを表している。
また、上記した相違度Dの算出式(2)は、一例であってこれに限られるものではない。 Further, the image processing unit 8 includes a dissimilarity calculating unit 8b that calculates the dissimilarity between corresponding pixels of a plurality of images.
The dissimilarity calculation unit 8b is configured to display an image frame (first live view image) for displaying a live view image of the first subject extraction image P2a generated by the resolution conversion unit 6 and a live view image of the second subject extraction image P2b. The difference D of each pixel corresponding to the image frame for display (second live view image) is calculated according to the following equation (2). Further, the difference calculation unit 8b calculates the difference D of each corresponding pixel between the extraction background image P3 generated by the background generation process and the subject existing image P1a according to the following equation (2).
Figure 2011035650
In the above formula (2), YUV data of the first live view image or the extraction background image P3 is represented by “Y”, “U”, “V”, and the second live view image or the subject existing image. The YUV data of P1a is represented by “Yc”, “Uc”, “Vc”. G represents the gain of the color difference signals U and V.
Further, the calculation formula (2) for the degree of difference D described above is an example, and the present invention is not limited to this.

また、画像処理部8は、相違度算出部8bにより算出された複数の画像の対応する画素どうしの相違度Dを判定する相違度判定部8cを具備している。
相違度判定部8cは、相違度算出部8bにより算出された第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dが所定値以下であるか否かを判定する。
ここで、相違度判定部8cは、第1被写体抽出用画像P2aの画像フレームと第2被写体抽出用画像P2bの画像フレームとの対応する各画素の相違度Dが所定値以下であるか否かを判定する第2判定手段を構成している。
In addition, the image processing unit 8 includes a dissimilarity determination unit 8c that determines the dissimilarity D between corresponding pixels of the plurality of images calculated by the dissimilarity calculation unit 8b.
The difference determination unit 8c determines whether or not the difference D of each pixel corresponding to the first live view image and the second live view image calculated by the difference calculation unit 8b is equal to or less than a predetermined value.
Here, the dissimilarity determination unit 8c determines whether or not the dissimilarity D of each corresponding pixel between the image frame of the first subject extraction image P2a and the image frame of the second subject extraction image P2b is equal to or less than a predetermined value. The second determination means for determining the above is configured.

また、画像処理部8は、クロマキー技術を利用して被写体領域を抽出するための抽出用背景画像P3を生成する背景生成部8dを具備している。
背景生成部8dは、非平坦度判定部8aによって、第1ライブビュー画像の特徴点が所定値以下であり、且つ、特徴点内の画素値のばらつき量が所定値以下であると判定された場合に、第1被写体抽出用画像P2aに基づいて抽出用背景画像P3を生成する。具体的には、相違度判定部8cにより第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dが所定値以下であると判定された場合に、背景生成部8dは、当該相違度Dが所定値以下であると判定された画素と同じ色の抽出用背景画像P3を生成する。例えば、図6(b)に示すように、特徴量の少ない無地の背景をバックに被写体Sを撮影する場合、第1被写体抽出用画像P2aの特徴量が少なくなり、当該第1被写体抽出用画像P2aを第2被写体抽出用画像P2bと重ねた状態で、被写体Sが重ならない領域の画素と同じ色の抽出用背景画像P3を生成する。
なお、クロマキーとは、特定の色背景を用いて一の画像データから被写体Sを切り抜く手法である。クロマキーでは、通常、背景に被写体Sと補色の関係にある青や緑のスクリーンを用いるようになっている。そこで、第1被写体抽出用画像P2aと第2被写体抽出用画像P2bとの相違度が所定値以下の画素と同じ色の抽出用背景画像P3を生成することで、抽出用背景画像P3と被写体存在画像P1aの色情報を基にして背景部分と被写体S部分を分離することができる。
In addition, the image processing unit 8 includes a background generation unit 8d that generates an extraction background image P3 for extracting a subject area using the chroma key technique.
In the background generation unit 8d, the non-flatness determination unit 8a determines that the feature point of the first live view image is equal to or less than a predetermined value and the variation amount of the pixel value in the feature point is equal to or less than the predetermined value. In this case, an extraction background image P3 is generated based on the first subject extraction image P2a. Specifically, when the difference determination unit 8c determines that the difference D of each corresponding pixel between the first live view image and the second live view image is equal to or less than a predetermined value, the background generation unit 8d Then, an extraction background image P3 having the same color as that of the pixel for which the degree of difference D is determined to be equal to or less than a predetermined value is generated. For example, as shown in FIG. 6B, when the subject S is photographed against a plain background with a small feature amount, the feature amount of the first subject extraction image P2a decreases, and the first subject extraction image In a state where P2a is overlapped with the second subject extraction image P2b, an extraction background image P3 having the same color as the pixels in the region where the subject S does not overlap is generated.
Note that the chroma key is a method of cutting out the subject S from one image data using a specific color background. In the chroma key, a blue or green screen having a complementary color relationship with the subject S is usually used as the background. Therefore, by generating the extraction background image P3 having the same color as the pixel whose difference between the first subject extraction image P2a and the second subject extraction image P2b is a predetermined value or less, the extraction background image P3 and the subject exist. The background portion and the subject S portion can be separated based on the color information of the image P1a.

ここで、背景生成部8dは、非平坦度判定部8aにより第1被写体抽出用画像P2aの非平坦度が所定値以下であると判定された場合に、第1被写体抽出用画像P2aの画像フレームに基づいて抽出用背景画像P3を生成する背景生成手段を構成している。   Here, when the non-flatness determination unit 8a determines that the non-flatness of the first subject extraction image P2a is equal to or less than a predetermined value, the background generation unit 8d performs the image frame of the first subject extraction image P2a. The background generation means for generating the extraction background image P3 based on the above is configured.

また、画像処理部8は、被写体存在画像P1aから被写体領域を抽出するためのマスク画像Mを生成するマスク生成部8eを具備している。
マスク生成部8eは、相違度算出部8bにより算出された抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度Dに基づいて相違度マップを生成する。そして、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化(0、255)してマスク画像Mを生成する。
The image processing unit 8 also includes a mask generation unit 8e that generates a mask image M for extracting a subject area from the subject presence image P1a.
The mask generation unit 8e generates a dissimilarity map based on the dissimilarity D of each corresponding pixel between the extraction background image P3 and the subject presence image P1a calculated by the dissimilarity calculation unit 8b. Then, the mask generation unit 8e generates a mask image M by binarizing (0, 255) the generated difference map with a predetermined threshold.

また、マスク生成部8eは、細かいノイズを除去するための収縮処理を行って所定値よりも小さい画素集合を除いた後、収縮分を修正するための膨張処理を行い、その後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めも行う。さらに、マスク生成部8eは、領域情報に対して平均化フィルタをかけて領域の縁部に合成階調をつける。
ここで、マスク生成部8eは、抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度(差分情報)Dに基づいて、被写体存在画像P1aから被写体領域を抽出するためのマスク画像(抽出用情報)Mを生成する第1抽出用情報生成手段を構成している。
Further, the mask generation unit 8e performs a contraction process for removing fine noise to remove a pixel set smaller than a predetermined value, and then performs a expansion process for correcting the contraction. By performing a labeling process for assigning the same numbers to the pixel sets to be configured, a hole area is also filled by replacing an area having a predetermined ratio or less in the number of constituent pixels of the effective area with the effective area. Further, the mask generation unit 8e applies an averaging filter to the region information to add a composite gradation to the edge of the region.
Here, the mask generation unit 8e extracts a subject area from the subject existing image P1a based on the degree of difference (difference information) D between corresponding pixels of the extraction background image P3 and the subject existing image P1a. First extraction information generating means for generating an image (extraction information) M is configured.

また、画像処理部8は、被写体Sの画像を所定の単一色背景画像P5(図7(d)参照)と合成して被写体切り抜き画像P4(図7(d)参照)の画像データを生成する切抜画像生成部8fを具備している。
切抜画像生成部8fは、αブレンドを利用して、マスク生成部8eにより生成されたマスク画像Mを用いて被写体存在画像P1aから被写体領域を切り出して、単一色背景画像P5と合成して被写体切り抜き画像P4の画像データを生成する。なお、マスク画像Mの縁部分には、合成階調がつけられているため、切り出された被写体領域と単一色背景画像P5との境界部分がはっきりしていない自然な感じに合成することができる。
ここで、切抜画像生成部8fは、抽出用背景画像P3と被写体存在画像P1aの対応する各画素の差分情報に基づいて、被写体存在画像P1aから被写体領域を抽出する被写体抽出手段を構成している。
The image processing unit 8 combines the image of the subject S with a predetermined single color background image P5 (see FIG. 7D) to generate image data of the subject cutout image P4 (see FIG. 7D). A cut-out image generation unit 8f is provided.
The cut-out image generation unit 8f uses α blend to cut out the subject area from the subject existing image P1a using the mask image M generated by the mask generation unit 8e, and combines it with the single color background image P5 to cut out the subject. Image data of the image P4 is generated. In addition, since the synthetic gradation is given to the edge part of the mask image M, it can be combined with a natural feeling in which the boundary part between the clipped subject area and the single color background image P5 is not clear. .
Here, the cut-out image generation unit 8f constitutes subject extraction means for extracting a subject region from the subject existing image P1a based on the difference information of each corresponding pixel between the extraction background image P3 and the subject existing image P1a. .

記録媒体9は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部8のJPEG圧縮部(図示略)により符号化された撮像画像の記録用の画像データを記憶する。
また、記録媒体9は、画像処理部8のマスク生成部8eにより生成されたマスク画像Mと、被写体切り抜き画像P4の画像データをそれぞれ圧縮した上で対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として保存する。
The recording medium 9 is composed of, for example, a nonvolatile memory (flash memory) or the like, and stores image data for recording a captured image encoded by a JPEG compression unit (not shown) of the image processing unit 8.
In addition, the recording medium 9 compresses the mask image M generated by the mask generation unit 8e of the image processing unit 8 and the image data of the subject cutout image P4, and associates them with each other to obtain image data of the subject cutout image P4. Save the extension as “.jpe”.

表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
The display control unit 10 performs control to read display image data temporarily stored in the image memory 5 and display the display image data on the display unit 11.
Specifically, the display control unit 10 includes a VRAM, a VRAM controller, a digital video encoder, and the like. The digital video encoder periodically reads the luminance signal Y and the color difference signals Cb and Cr read from the image memory 5 and stored in the VRAM (not shown) under the control of the CPU 13 from the VRAM via the VRAM controller. Are read out, a video signal is generated based on these data, and is output to the display unit 11.

表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部11は、撮像モードにて、レンズ部1及び電子撮像部2による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。   The display unit 11 is, for example, a liquid crystal display device, and displays an image captured by the electronic imaging unit 2 based on a video signal from the display control unit 10 on a display screen. Specifically, the display unit 11 displays a live view image based on a plurality of image frames generated by imaging the subject S by the lens unit 1 and the electronic imaging unit 2 in the imaging mode, The REC view image picked up as is displayed.

操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体Sの撮影指示に係るシャッタボタン12a、メニュー画面にて撮像モードや機能等の選択指示に係るモードボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備えている。
そして、ユーザにより操作入力部12の所定のボタンが操作されると、当該ボタンに対応する制御指示をCPU13に出力する。CPU13は、制御指示が入力されると、操作されたボタンに応じて各部を制御する処理を行う。
The operation input unit 12 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 12 includes a shutter button 12a related to an instruction to shoot the subject S, a mode button 12b related to an instruction to select an imaging mode or a function on a menu screen, and a zoom button ( (Not shown).
When a predetermined button of the operation input unit 12 is operated by the user, a control instruction corresponding to the button is output to the CPU 13. When a control instruction is input, the CPU 13 performs a process of controlling each unit according to the operated button.

また、シャッタボタン12aは、第1撮像指示手段として、ユーザにより所定操作されると、電子撮像部2による被写体存在画像P1aの撮像指示をCPU13に出力する。   Further, the shutter button 12a as a first imaging instruction means outputs an imaging instruction of the subject existing image P1a by the electronic imaging unit 2 to the CPU 13 when a predetermined operation is performed by the user.

CPU13は、撮像装置100の各部を制御するものである。具体的には、CPU13は、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。   The CPU 13 controls each part of the imaging device 100. Specifically, the CPU 13 performs various control operations in accordance with various processing programs (not shown) for the imaging apparatus 100.

次に、撮像装置100による画像処理方法に係る被写体切り抜き処理について、図2〜図7を参照して説明する。
図2及び図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
Next, the subject clipping process according to the image processing method performed by the imaging apparatus 100 will be described with reference to FIGS.
2 and 3 are flowcharts showing an example of an operation related to the subject clipping process.

被写体切り抜き処理は、ユーザによる操作入力部12のモードボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に、CPU13によって制御される当該撮像装置100の各部により実行される処理である。
図2に示すように、先ず、表示制御部10は、レンズ部1及び電子撮像部2による被写体Sの撮像に従って解像度変換部6により順次生成された画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、背景指示メッセージ(例えば、「背景に向けてください」等)を表示部11の表示画面に表示させる(ステップS1;図6(a)参照)。
The subject clipping process is controlled by the CPU 13 when the subject clipping mode is instructed from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the mode button 12b of the operation input unit 12 by the user. This process is executed by each unit of the imaging apparatus 100.
As shown in FIG. 2, first, the display control unit 10 displays a live view image based on the image frames sequentially generated by the resolution conversion unit 6 in accordance with the imaging of the subject S by the lens unit 1 and the electronic imaging unit 2. And a background instruction message (for example, “Please turn to the background”) is displayed on the display screen of the display unit 11 (step S1; FIG. 6A). )reference).

そして、表示制御部10は、レンズ部1及び電子撮像部2による被写体Sの撮像によって、解像度変換部6により順次生成された第1被写体抽出用画像P2aの画像フレームに基づいてライブビュー画像を更新させる制御を行う(ステップS2)。ライブビュー画像の更新が行われる毎に、非平坦度演算部7の特徴量演算部7aは、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)のYUVデータに基づいて、特徴の高いブロック領域(特徴点)を抽出し、ばらつき量算出部7bは、各ブロック領域内のばらつき量としての標準偏差を式(1)に従って算出する(ステップS3)。

Figure 2011035650
Then, the display control unit 10 updates the live view image based on the image frame of the first subject extraction image P2a sequentially generated by the resolution conversion unit 6 by imaging the subject S by the lens unit 1 and the electronic imaging unit 2. Control is performed (step S2). Each time the live view image is updated, the feature amount calculation unit 7a of the non-flatness calculation unit 7 performs YUV of the image frame (first live view image) for displaying the live view image of the first subject extraction image P2a. Based on the data, a block region (feature point) having a high feature is extracted, and the variation amount calculation unit 7b calculates a standard deviation as a variation amount in each block region according to the equation (1) (step S3).
Figure 2011035650

次に、非平坦度判定部8aは、特徴量演算部7aにより抽出された特徴の高い特徴点(ブロック領域)が所定値以下であるか否か、及びばらつき量算出部7bにより算出されたブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定することで、特徴点及び当該ブロック領域内の画素値のばらつき量がないか否かを判断する(ステップS4)。
ここで、特徴点及び当該ブロック領域内の画素値のばらつき量があると判断されると(ステップS4;NO)、CPU13は、ユーザによる操作入力部12の所定操作に基づいて終了指示が入力された否かを判定する(ステップS5)。
Next, the non-flatness determination unit 8a determines whether or not a feature point (block region) having a high feature extracted by the feature amount calculation unit 7a is equal to or less than a predetermined value, and the block calculated by the variation amount calculation unit 7b. By determining whether or not the variation amount of the pixel value in the region is equal to or less than a predetermined value, it is determined whether or not there is a variation amount of the feature point and the pixel value in the block region (step S4).
Here, when it is determined that there is a variation amount between the feature point and the pixel value in the block area (step S4; NO), the CPU 13 receives an end instruction based on a predetermined operation of the operation input unit 12 by the user. (Step S5).

ステップS5にて、終了指示が入力されていないと判定されると(ステップS5;NO)、CPU13は、処理をステップS2に移行して、それ以降の処理を実行する。
一方、終了指示が入力されたと判定されると(ステップS5;YES)、CPU13は、被写体切り抜き処理を終了させる。
If it is determined in step S5 that an end instruction has not been input (step S5; NO), the CPU 13 proceeds to step S2 and executes the subsequent processes.
On the other hand, if it is determined that an end instruction has been input (step S5; YES), the CPU 13 ends the subject clipping process.

また、ステップS4にて、特徴点及び当該ブロック領域内の画素値のばらつき量がないと判断されると(ステップS4;YES)、即ち、例えば、特徴量の少ない無地の背景をバックに被写体Sを撮影する場合(図6(b)参照)、撮像制御部3は、背景内に被写体Sの存在しない第1被写体抽出用画像P2aの光学像を所定の撮像条件で電子撮像部2に撮像させ、解像度変換部6は、当該撮像によって画像データ生成部4により生成された第1被写体抽出用画像P2aのYUVデータに基づいて、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)を生成して、画像メモリ5に保存する(ステップS6)。
その後、撮像制御部3は、当該第1被写体抽出用画像P2aの撮像の際の合焦位置(AF)や露出条件(AE)やホワイトバランス(AWB)等の撮像条件を固定した状態を維持する(ステップS7)。
If it is determined in step S4 that there is no variation amount between the feature point and the pixel value in the block area (step S4; YES), for example, the subject S with a plain background having a small feature amount as a background. (See FIG. 6B), the imaging control unit 3 causes the electronic imaging unit 2 to capture an optical image of the first subject extraction image P2a in which the subject S does not exist in the background under a predetermined imaging condition. Based on the YUV data of the first subject extraction image P2a generated by the image data generation unit 4 by the imaging, the resolution conversion unit 6 displays an image frame (for displaying a live view image of the first subject extraction image P2a). A first live view image) is generated and stored in the image memory 5 (step S6).
Thereafter, the imaging control unit 3 maintains a state in which imaging conditions such as a focus position (AF), an exposure condition (AE), and a white balance (AWB) at the time of imaging the first subject extraction image P2a are fixed. (Step S7).

次に、表示制御部10は、ライブビュー画像に重畳させて撮像指示メッセージ(例えば、「被写体Sを撮影してください」等)を表示部11の表示画面に表示させる(ステップS8;図6(b)参照)。
その後、表示制御部10は、レンズ部1及び電子撮像部2による被写体Sの撮像に従って解像度変換部6により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行う(ステップS9)。ライブビュー画像の更新が行われる際に、CPU13は、ユーザにより操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたか否かを判定する(ステップS10)。
Next, the display control unit 10 superimposes it on the live view image and displays an imaging instruction message (for example, “Please shoot subject S”) on the display screen of the display unit 11 (step S8; FIG. 6 ( b)).
Thereafter, the display control unit 10 performs control to update the live view image based on the image frames sequentially generated by the resolution conversion unit 6 in accordance with the imaging of the subject S by the lens unit 1 and the electronic imaging unit 2 (step S9). When the live view image is updated, the CPU 13 determines whether the user has operated the shutter button 12a of the operation input unit 12 for a predetermined operation to input an imaging instruction (step S10).

ステップS10にて、撮像指示が入力されていないと判定されると(ステップS10;NO)、ユーザによる操作入力部12の所定操作に基づいて終了指示が入力された否かを判定する(ステップS11)。
ここで、終了指示が入力されていないと判定されると(ステップS11;NO)、CPU13は、処理をステップS9に移行して、それ以降の処理を実行する。
一方、終了指示が入力されたと判定されると(ステップS11;YES)、CPU13は、被写体切り抜き処理を終了させる。
If it is determined in step S10 that an imaging instruction has not been input (step S10; NO), it is determined whether an end instruction has been input based on a predetermined operation of the operation input unit 12 by the user (step S11). ).
If it is determined that the end instruction has not been input (step S11; NO), the CPU 13 shifts the process to step S9 and executes the subsequent processes.
On the other hand, if it is determined that an end instruction has been input (step S11; YES), the CPU 13 ends the subject clipping process.

その後、ユーザは、被写体Sを画角内に移動させる、或いは被写体Sが移動するのを待った後(図6(c)参照)、ステップS10にて、撮像指示が入力されたと判定されると(ステップS10;YES)、撮像制御部3は、背景内に被写体Sの存在する第2被写体抽出用画像P2bの光学像を所定の撮像条件で電子撮像部2に撮像させ、解像度変換部6は、当該撮像によって画像データ生成部4により生成された第2被写体抽出用画像P2bのYUVデータに基づいて、第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレーム(第2ライブビュー画像)を生成して、画像メモリ5に保存する(ステップS12)。   Thereafter, the user moves the subject S within the angle of view or waits for the subject S to move (see FIG. 6C), and then determines in step S10 that an imaging instruction has been input ( (Step S10; YES), the imaging control unit 3 causes the electronic imaging unit 2 to capture an optical image of the second subject extraction image P2b in which the subject S is present in the background under predetermined imaging conditions, and the resolution conversion unit 6 Based on the YUV data of the second subject extraction image P2b generated by the image data generation unit 4 by the imaging, an image frame (second live view image) for displaying the live view image of the second subject extraction image P2b is obtained. Generated and stored in the image memory 5 (step S12).

図3に示すように、続けて、撮像制御部3は、被写体存在画像P1a(図7(a)参照)の撮像の際の露出条件(AE)やホワイトバランス(AWB)等の撮像条件を被写体Sに合わせて調整する(ステップS13)。なお、図7(a)にあっては、測光エリア枠Wを被写体Sの顔の位置に合わせた状態を模式的に表している。
その後、撮像制御部3は、調整された撮像条件で被写体存在画像P1aの光学像を電子撮像部2により撮像させ、電子撮像部2から転送された被写体存在画像P1aの画像フレームに基づいて、被写体存在画像P1aのYUVデータを画像データ生成部4に生成させて、当該YUVデータを画像メモリ5に一時記憶させる(ステップS14)。
これにより、特徴量の少ない背景をバックに被写体Sが撮影された被写体存在画像P1aが生成される。
As shown in FIG. 3, the imaging control unit 3 continues to set the imaging conditions such as the exposure condition (AE) and white balance (AWB) when imaging the subject existing image P1a (see FIG. 7A). Adjust according to S (step S13). FIG. 7A schematically shows a state in which the photometric area frame W is aligned with the face position of the subject S.
Thereafter, the imaging control unit 3 causes the electronic imaging unit 2 to capture an optical image of the subject existing image P1a under the adjusted imaging conditions, and based on the image frame of the subject existing image P1a transferred from the electronic imaging unit 2, The YUV data of the existing image P1a is generated by the image data generation unit 4, and the YUV data is temporarily stored in the image memory 5 (step S14).
As a result, a subject existing image P1a in which the subject S is photographed against a background with a small feature amount is generated.

次に、CPU13は、非平坦度演算部7及び画像処理部8に、被写体存在画像P1aから被写体領域を抽出するための抽出用背景画像P3を生成させる背景生成処理を行わせる(ステップS15)。   Next, the CPU 13 causes the non-flatness calculation unit 7 and the image processing unit 8 to perform background generation processing for generating an extraction background image P3 for extracting a subject area from the subject existing image P1a (step S15).

ここで、背景生成処理について図4を参照して詳細に説明する。
図4は、背景生成処理に係る動作の一例を示すフローチャートである。
図4に示すように、画像処理部8の相違度算出部8bは、画像メモリ5に保存されている第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dを下記式(2)に従って算出する(ステップS31)。

Figure 2011035650
Here, the background generation processing will be described in detail with reference to FIG.
FIG. 4 is a flowchart illustrating an example of an operation related to the background generation process.
As shown in FIG. 4, the dissimilarity calculation unit 8 b of the image processing unit 8 calculates the dissimilarity D of each pixel corresponding to the first live view image and the second live view image stored in the image memory 5 as follows. It calculates according to Formula (2) (step S31).
Figure 2011035650

次に、画像処理部8の相違度判定部8cは、相違度算出部8bにより算出された第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dが所定値以下であるか否かを判定して、相違度Dが所定値以下である画素の集合を背景領域として特定する(ステップS32)。
続けて、非平坦度演算部7の特徴量演算部7aは、相違度判定部8cにより特定された背景領域を第1被写体抽出用画像P2aの画像フレームに適用した後、当該第1被写体抽出用画像P2aの画像フレームに基づいて、高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出し、ばらつき量算出部7bは、特徴量演算部7aにより抽出された特徴点(ブロック領域)内の画素値のばらつき量として、標準偏差を下記式(1)に従って算出する(ステップS33)。

Figure 2011035650
Next, the dissimilarity determination unit 8c of the image processing unit 8 has the dissimilarity D of each pixel corresponding to the first live view image and the second live view image calculated by the dissimilarity calculation unit 8b equal to or less than a predetermined value. It is determined whether or not there is, and a set of pixels whose dissimilarity D is equal to or less than a predetermined value is specified as a background region (step S32).
Subsequently, the feature amount calculation unit 7a of the non-flatness calculation unit 7 applies the background region specified by the difference determination unit 8c to the image frame of the first subject extraction image P2a, and then performs the first subject extraction use. Based on the image frame of the image P2a, a block area having a high frequency component and a high feature (for example, a square of 16 × 16 pixels) is extracted as a feature point, and the variation amount calculation unit 7b is extracted by the feature amount calculation unit 7a. The standard deviation is calculated according to the following formula (1) as the variation amount of the pixel value in the feature point (block region) (step S33).
Figure 2011035650

次に、非平坦度判定部8aは、特徴量演算部7aにより抽出された特徴点、及びばらつき量算出部7bにより算出された特徴点の評価を行う(ステップS34)。具体的には、非平坦度判定部8aは、第1被写体抽出用画像P2aの各特徴点(ブロック領域)内の画素値のばらつき量が所定値以下であるか否かを判定し、当該判定の結果、ブロック領域内の画素値のばらつき量が所定値以下であると判定されたブロック領域を計数して、ブロック領域が複数あるか否かを判断する。さらに、非平坦度判定部8aは、画素値のばらつき量が所定値以下であると判断され、ばらつきがないとみなされたブロック領域のうち、同じ色のブロック領域を計数する。
そして、非平坦度判定部8aは、ばらつきがなく、同じ色のブロック領域の数が所定数(例えば画像全体のブロック数の半分)以上であるか否かを判定する(ステップS35)。
ここで、ばらつきがなく、同じ色のブロック領域が所定数以上あると判断されると(ステップS35;YES)、背景生成部8dは、第1被写体抽出用画像P2aの当該ブロック領域の色と同じ色を背景色とする抽出用背景画像P3のYUVデータを生成(ステップS36)して、背景生成成功とする(ステップS37)。
Next, the non-flatness determination unit 8a evaluates the feature points extracted by the feature amount calculation unit 7a and the feature points calculated by the variation amount calculation unit 7b (step S34). Specifically, the non-flatness determination unit 8a determines whether or not the variation amount of the pixel value in each feature point (block region) of the first subject extraction image P2a is equal to or less than a predetermined value, and the determination As a result, the block areas in which the variation amount of the pixel value in the block area is determined to be equal to or smaller than the predetermined value are counted to determine whether there are a plurality of block areas. Further, the non-flatness determination unit 8a determines that the variation amount of the pixel value is equal to or less than a predetermined value, and counts the block regions of the same color among the block regions that are regarded as having no variation.
Then, the non-flatness determination unit 8a determines whether there is no variation and the number of block areas of the same color is equal to or greater than a predetermined number (for example, half the number of blocks of the entire image) (step S35).
Here, when it is determined that there is no variation and there are a predetermined number or more of block areas of the same color (step S35; YES), the background generation unit 8d has the same color as the block area of the first subject extraction image P2a. YUV data of the extraction background image P3 having the color as the background color is generated (step S36), and the background generation is successful (step S37).

一方、ステップS35にて、ばらつきがなく、同じ色のブロック領域が所定数に満たないと判断されると(ステップS35;NO)、例えば、ばらつきのない安定したブロック領域があっても、同じ色のブロック領域がない場合等には背景が特定できないため、抽出用背景画像P3を生成せずに、背景生成失敗とする(ステップS38)。
これにより、背景生成処理を終了する。
On the other hand, if it is determined in step S35 that there is no variation and the number of block regions of the same color is less than the predetermined number (step S35; NO), for example, even if there is a stable block region without variation, the same color If there is no block area, the background cannot be specified. Therefore, the extraction background image P3 is not generated, and background generation fails (step S38).
Thereby, the background generation process is terminated.

図3に示すように、次に、背景生成部8dは、背景生成が成功したか否かを判定する(ステップS16)。
ここで、背景生成が成功したと判定されると(ステップS16;YES)、CPU13は、画像処理部8に、被写体存在画像P1aから被写体Sが含まれる被写体領域を検出する第1領域検出処理を行わせる(ステップS17)。
As illustrated in FIG. 3, the background generation unit 8d then determines whether background generation has been successful (step S16).
If it is determined that the background generation has succeeded (step S16; YES), the CPU 13 causes the image processing unit 8 to perform a first area detection process for detecting a subject area including the subject S from the subject existing image P1a. (Step S17).

ここで、第1領域検出処理について図5を参照して詳細に説明する。
図5は、第1領域検出処理に係る動作の一例を示すフローチャートである。
図5に示すように、画像処理部8の相違度算出部8bは、背景生成処理にて生成された抽出用背景画像P3を被写体存在画像P1aの実撮像サイズに合わせて拡大(リサイズ)した後(ステップS50)、拡大された抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度Dを下記式(2)に従って算出し、画像処理部8のマスク生成部8eは、算出された相違度Dに基づいて相違度マップを生成する(ステップS51)。

Figure 2011035650
Here, the first region detection process will be described in detail with reference to FIG.
FIG. 5 is a flowchart illustrating an example of an operation related to the first region detection process.
As illustrated in FIG. 5, the dissimilarity calculation unit 8b of the image processing unit 8 enlarges (resizes) the extraction background image P3 generated in the background generation process according to the actual imaging size of the subject existing image P1a. (Step S50), the difference D of each corresponding pixel between the enlarged extraction background image P3 and the subject presence image P1a is calculated according to the following equation (2), and the mask generation unit 8e of the image processing unit 8 calculates A difference map is generated based on the difference D that has been made (step S51).
Figure 2011035650

次に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像を生成する(ステップS52)。そして、マスク生成部8eは、例えば、背景(二値化;0)の領域が著しく小さいか否か等を判定することで、二値化が成功したか否かを判断する(ステップS53)。
ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、被写体領域の周辺部の残り過ぎを修正したり細かいノイズを除去するため、マスク画像Mの画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
Next, the mask generation unit 8e binarizes the generated difference map with a predetermined threshold value to generate a mask image (step S52). Then, the mask generation unit 8e determines whether or not the binarization is successful by determining whether or not the background (binarization; 0) region is extremely small, for example (step S53).
Here, if it is determined that the binarization has succeeded (step S53; YES), the mask generation unit 8e corrects the remaining part of the periphery of the subject region and removes fine noise, so that the mask image M is removed. After performing contraction processing on the image data to remove a pixel set smaller than a predetermined value (step S54), expansion processing for correcting the contraction is performed (step S55).

続けて、被写体Sに背景色と似たような色がある場合、マスク画像Mの被写体領域内が欠損するため、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像Mの画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。
そして、マスク生成部8eは、マスク画像Mの画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。
Subsequently, when the subject S has a color similar to the background color, the subject region of the mask image M is lost, and thus the mask generation unit 8e performs labeling that assigns the same number to a set of pixels that constitute the same connected component. Filling is performed by replacing the area below a predetermined ratio in the number of constituent pixels of the effective area of the image data of the mask image M with the effective area by the processing (step S56).
Then, the mask generation unit 8e applies an averaging filter to the image data of the mask image M, adds a synthetic gradation to the edge of the subject region (step S57), and sets the region detection success (step S58). .

一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、例えば、背景(二値化;0)の領域が著しく小さい場合などには、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、第1領域検出処理を終了する。
On the other hand, if it is determined in step S53 that the binarization has not been successful (step S53; NO), for example, if the background (binarization; 0) region is extremely small, the mask generation unit 8e. Is assumed to have failed in binarization, and region detection fails (step S59).
Thus, the first area detection process is terminated.

図3に示すように、次に、マスク生成部8eは、被写体領域の検出が成功したか否かを判定する(ステップS18)。
ここで、被写体領域の検出が成功したと判定されると(ステップS18;YES)、切抜画像生成部8fは、αブレンドを利用して、第1領域検出処理にて生成されたマスク画像Mを用いて被写体存在画像P1aから被写体領域を切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成する(ステップS19)。
具体的には、切抜画像生成部8fは、被写体存在画像P1a、単一色背景画像P5及びマスク画像Mの画像データを読み出して画像メモリ5に展開した後、被写体存在画像P1aのうち、マスク画像Mの画像データの塗りつぶした部分(被写体S以外の斜線部分)で覆われる画素については、単一色背景画像P5の所定の単一色で塗りつぶす一方で、被写体S部分の画素については、何もせずに所定の単一色に対して透過させないようにする。なお、マスク画像Mの縁部分には、合成階調がつけられているため、切り出された被写体領域と単一色背景画像P5との境界部分がはっきりしていない自然な感じとなる。
その後、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体Sが重畳された被写体切り抜き画像P4を表示部11の表示画面に表示させる(図7(c)参照)。
As shown in FIG. 3, next, the mask generation unit 8e determines whether or not the detection of the subject area has succeeded (step S18).
Here, if it is determined that the detection of the subject region has succeeded (step S18; YES), the cut-out image generation unit 8f uses the α blend to generate the mask image M generated by the first region detection process. Using this, a subject region is cut out from the subject existing image P1a, and is combined with a predetermined single color background image P5 to generate image data of the subject cutout image P4 (see FIG. 7B) (step S19).
Specifically, the cut-out image generation unit 8f reads out the image data of the subject existing image P1a, the single color background image P5, and the mask image M and develops the image data in the image memory 5, and then the mask image M of the subject existing image P1a. The pixels covered by the filled portion of the image data (hatched portion other than the subject S) are filled with a predetermined single color of the single-color background image P5, while the pixels of the subject S portion are predetermined without doing anything. Do not transmit light to a single color. In addition, since the synthetic gradation is given to the edge part of the mask image M, it becomes a natural feeling that the boundary part between the cut out subject area and the single color background image P5 is not clear.
Thereafter, the display control unit 10 displays a subject cutout image P4 in which the subject S is superimposed on a predetermined single color background image P5 based on the image data of the subject cutout image P4 generated by the cutout image generation unit 8f. Is displayed on the display screen (see FIG. 7C).

次に、CPU13は、記録媒体9の所定の記憶領域に、画像処理部8のマスク生成部8eにより生成されたマスク画像Mの画像データと被写体切り抜き画像P4の画像データを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させる(ステップS20)。
これにより、被写体切り抜き処理を終了する。
Next, the CPU 13 associates the image data of the mask image M generated by the mask generation unit 8e of the image processing unit 8 with the image data of the subject cutout image P4 in a predetermined storage area of the recording medium 9, and The extension of the image data of the cutout image P4 is saved as one file with “.jpe” (step S20).
Thereby, the subject clipping process is completed.

一方、ステップS18にて、被写体領域の検出が成功しなかったと判定されると(ステップS18;NO)、CPU13は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体Sの切り抜きに失敗しました」等)を表示部11の表示画面に表示させて(ステップS21)、被写体切り抜き処理を終了する。
また、ステップS16にて、背景生成が成功しなかったと判定された場合にも(ステップS16;NO)、CPU13は、処理をステップS21に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面に表示させた後(ステップS21)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S18 that the detection of the subject area has not been successful (step S18; NO), the CPU 13 determines a predetermined message (for example, “To cut out the subject S” ”And the like” are displayed on the display screen of the display unit 11 (step S21), and the subject clipping process is terminated.
Also, when it is determined in step S16 that the background generation has not been successful (step S16; NO), the CPU 13 shifts the process to step S21 and performs a predetermined message relating to the subject S clipping failure. Is displayed on the display screen of the display unit 11 (step S21), and the subject clipping process is terminated.

以上のように、本実施形態の撮像装置100によれば、背景内に被写体Sの存在しない第1被写体抽出用画像P2aの画像フレームを生成して、この第1被写体抽出用画像P2aの画像フレームの非平坦度を演算する。そして、第1被写体抽出用画像P2aの画像フレームの非平坦度が所定値以下であるか否かに応じて、1回の撮影での被写体領域の抽出に適した撮影環境であるか否かを判別することができる。
具体的には、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレームから複数の特徴点を抽出し、抽出された複数の特徴点が所定値以下であるか否かを判定する。また、複数の特徴点(ブロック領域)内の画素値のばらつき量を演算し、演算された複数の特徴点内の画素値のばらつき量が所定値以下であるか否かを判定する。そして、特徴点が所定値以下であると判定され、且つ、特徴点内の画素値のばらつき量が所定値以下であると判定された場合には、例えば、撮影環境が特徴量の少ない背景(例えば、一様な背景)をバックに被写体Sを撮影する環境であり、1回の撮影での被写体領域の抽出に適した撮影環境であると判別することができる。
第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレームの非平坦度が所定値以下であると判定されると、第1被写体抽出用画像P2aの画像フレームに基づいて抽出用背景画像P3を生成する。具体的には、背景内に被写体Sの存在しない第1被写体抽出用画像P2aと背景内に被写体Sの存在する第2被写体抽出用画像P2aの各々の画像フレームの対応する各画素の相違度Dが所定値以下であると判定された画素と同じ色の抽出用背景画像P3を生成する。そして、シャッタボタン12aによる撮像指示に従って電子撮像部2により撮像された被写体存在画像P1aと抽出用背景画像P3との対応する各画素の相違度Dに基づいてマスク画像Mを生成して、当該マスク画像Mを用いて被写体存在画像P1aから被写体領域を抽出する。
従って、被写体存在画像P1aの撮影を一回行うだけで、被写体領域の抽出のための背景画像の撮像を別途行わなくとも抽出用背景画像P3を生成することができ、当該抽出用背景画像P3を用いて生成されたマスク画像Mを利用して被写体存在画像P1aから被写体領域を簡便に抽出することができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the image frame of the first subject extraction image P2a in which the subject S does not exist in the background is generated, and the image frame of the first subject extraction image P2a is generated. Calculate the non-flatness of. Then, depending on whether or not the non-flatness of the image frame of the first subject extraction image P2a is equal to or less than a predetermined value, it is determined whether or not the shooting environment is suitable for extraction of the subject region in one shooting. Can be determined.
Specifically, a plurality of feature points are extracted from the live view image display image frame of the first subject extraction image P2a, and it is determined whether or not the extracted feature points are equal to or less than a predetermined value. In addition, the amount of variation in pixel values in a plurality of feature points (block regions) is calculated, and it is determined whether or not the amount of variation in pixel values in the plurality of feature points is equal to or less than a predetermined value. When it is determined that the feature point is equal to or smaller than the predetermined value and the variation amount of the pixel value within the characteristic point is determined to be equal to or smaller than the predetermined value, for example, the background ( For example, it can be determined that this is an environment in which the subject S is photographed with a uniform background) and is suitable for extraction of the subject region in one photographing.
If it is determined that the non-flatness of the image frame for displaying the live view image of the first subject extraction image P2a is equal to or less than a predetermined value, the extraction background image P3 is based on the image frame of the first subject extraction image P2a. Is generated. Specifically, the degree of difference D between the corresponding pixels of each image frame of the first subject extraction image P2a where the subject S does not exist in the background and the second subject extraction image P2a where the subject S exists in the background. An extraction background image P3 having the same color as the pixel determined to be equal to or less than a predetermined value is generated. Then, a mask image M is generated based on the difference D between the corresponding pixels of the subject presence image P1a captured by the electronic imaging unit 2 and the extraction background image P3 in accordance with the imaging instruction by the shutter button 12a, and the mask A subject region is extracted from the subject presence image P1a using the image M.
Therefore, it is possible to generate the extraction background image P3 by performing only one shooting of the subject presence image P1a without separately capturing a background image for extracting the subject region. The subject region can be easily extracted from the subject presence image P1a using the mask image M generated by using the mask image M.

また、先に撮像される第1被写体抽出用画像P2aと当該第1被写体抽出用画像P2aの撮像後に撮像される第2被写体抽出用画像P2bの各々の撮像条件を同じ条件に設定するので、第1被写体抽出用画像P2aと第2被写体抽出用画像P2bの各々の画像フレームの対応する各画素の相違度Dの算出を適正に行うことができ、被写体領域の抽出に適した抽出用背景画像P3を生成することができる。
そして、第2被写体抽出用画像P2bの撮像後に、被写体存在画像P1aを撮像する際の撮像条件を設定し直すことで、被写体領域の抽出元となる被写体存在画像P1aの撮像を適正に行うことができ、より高画質の被写体切り抜き画像P4を得ることができる。
In addition, since the imaging conditions of the first subject extraction image P2a captured first and the second subject extraction image P2b captured after capturing the first subject extraction image P2a are set to the same condition, An extraction background image P3 suitable for extracting a subject area can be calculated appropriately by calculating the difference D between the corresponding pixels of the image frames of the one subject extraction image P2a and the second subject extraction image P2b. Can be generated.
Then, after the second subject extraction image P2b is captured, the subject presence image P1a that is the source of the subject region can be appropriately captured by resetting the imaging conditions for capturing the subject presence image P1a. Thus, a higher-quality subject cutout image P4 can be obtained.

[実施形態2]
以下に、実施形態2の撮像装置200について、図8〜図12を参照して説明する。
実施形態2の撮像装置200は、第1被写体抽出用画像P2aの非平坦度が所定値以下でないと判定された場合に、被写体存在画像P1b(図12(a)参照)の背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6(図12(b)参照)を撮像して、被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の差分情報に基づいて、被写体存在画像P1bから被写体領域を抽出する。
なお、実施形態2の撮像装置200は、以下に説明する以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、その説明は省略する。
[Embodiment 2]
Below, the imaging device 200 of Embodiment 2 is demonstrated with reference to FIGS.
The imaging apparatus 200 according to the second embodiment has the same background as the background of the subject presence image P1b (see FIG. 12A) when it is determined that the non-flatness of the first subject extraction image P2a is not less than a predetermined value. The subject nonexistent image P6 (see FIG. 12B) in which the subject S does not exist is imaged, and the subject exists based on the difference information of each corresponding pixel between the subject nonexistent image P6 and the subject present image P1b. A subject area is extracted from the image P1b.
Note that the imaging apparatus 200 according to the second embodiment has substantially the same configuration as the imaging apparatus 100 according to the first embodiment except for the points described below, and the description thereof is omitted.

非平坦度演算部7の特徴量演算部7aは、被写体存在画像P1bと被写体非存在画像P6との位置合わせ処理にて、被写体非存在画像P6を基準として、当該被写体非存在画像P6から特徴点を抽出する処理を行う。具体的には、特徴量演算部7aは、被写体非存在画像P6のYUVデータに基づいて、多数の候補ブロックから追跡に都合の良い所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロック領域の内容をテンプレート(例えば、16×16画素の正方形)として抽出する。   The feature amount calculation unit 7a of the non-flatness calculation unit 7 performs feature points from the subject non-existence image P6 on the basis of the subject non-existence image P6 in the alignment processing of the subject presence image P1b and the subject non-existence image P6. The process which extracts is performed. Specifically, the feature amount calculation unit 7a, based on the YUV data of the subject non-existing image P6, has a predetermined number (or a predetermined number or more) of high feature block regions (or more than a predetermined number) that are convenient for tracking from a large number of candidate blocks. The feature point is selected, and the contents of the block area are extracted as a template (for example, a square of 16 × 16 pixels).

また、実施形態2の撮像装置200は、被写体非存在画像P6と被写体存在画像P1bの位置合わせのためのブロックマッチング処理を行うブロックマッチング部14を備えている。
ブロックマッチング部14は、例えば、被写体非存在画像P6を基準画像とするとともに、被写体存在画像P1bを対象画像として位置合わせを行う。具体的には、ブロックマッチング部14は、特徴抽出処理にて抽出されたテンプレート(例えば、16×16画素の正方形)が被写体存在画像P1b内のどこに対応するか、つまり、被写体存在画像P1b内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P6と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
Further, the imaging apparatus 200 according to the second embodiment includes a block matching unit 14 that performs a block matching process for aligning the subject non-existing image P6 and the subject existing image P1b.
For example, the block matching unit 14 uses the subject non-existing image P6 as a reference image and performs alignment with the subject existing image P1b as a target image. Specifically, the block matching unit 14 determines where in the subject existing image P1b the template (for example, a square of 16 × 16 pixels) extracted by the feature extraction process corresponds, that is, in the subject existing image P1b. Thus, a position (corresponding region) where the pixel value of the template is optimally matched is searched. Then, an optimum offset between the subject non-existing image P6 and the subject existing image P1b having the best evaluation value (for example, sum of squared differences (SSD), sum of absolute differences (SAD), etc.) of the pixel value is calculated. Calculated as a template motion vector.

また、画像処理部8は、被写体存在画像P1bと被写体非存在画像P6との位置合わせを行う位置合わせ部8gを具備している。
位置合わせ部8gは、被写体非存在画像P6から抽出した特徴点に基づいて、被写体存在画像P1bと被写体非存在画像P6との位置合わせを行う。即ち、位置合わせ部8gは、被写体非存在画像P6から抽出した特徴点に基づいて、被写体非存在画像P6に対する被写体存在画像P1bの各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1bを座標変換して被写体非存在画像P6と位置合わせを行う。
具体的には、位置合わせ部8gは、ブロックマッチング部14により算出された複数のテンプレートの動きベクトルを多数決により演算して、統計的に所定%(例えば、50%)以上となると判断された動きベクトルを全体の動きベクトルとして、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出する。そして、位置合わせ部8gは、射影変換行列に従って被写体存在画像P1bを座標変換して被写体非存在画像P6と位置合わせを行う。
Further, the image processing unit 8 includes an alignment unit 8g that performs alignment between the subject presence image P1b and the subject non-existence image P6.
The alignment unit 8g aligns the subject presence image P1b and the subject non-existence image P6 based on the feature points extracted from the subject non-existence image P6. That is, the alignment unit 8g calculates a coordinate conversion formula (projection conversion matrix) of each pixel of the subject existing image P1b with respect to the subject nonexistent image P6 based on the feature points extracted from the subject nonexistent image P6. The subject presence image P1b is coordinate-transformed according to the conversion formula and aligned with the subject non-existence image P6.
Specifically, the alignment unit 8g calculates the motion vectors of a plurality of templates calculated by the block matching unit 14 by majority, and the motion determined to be statistically greater than or equal to a predetermined percentage (for example, 50%). Using the vector as the overall motion vector, the projection transformation matrix of the subject existing image P1b is calculated using the feature point correspondence related to the motion vector. The alignment unit 8g performs coordinate conversion of the subject existing image P1b according to the projective transformation matrix and performs alignment with the subject non-existing image P6.

マスク生成部8eは、相違度算出部8bにより式(2)に従って算出された被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度Dに基づいて相違度マップを生成する。そして、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化(0、255)してマスク画像Mを生成する。

Figure 2011035650
なお、上記式(2)にあっては、被写体非存在画像P6のYUVデータを「Y」、「U」、「V」で表し、被写体存在画像P1bのYUVデータを「Yc」、「Uc」、「Vc」で表す。また、Gは、色差信号U、Vのゲインを表している。
ここで、マスク生成部8eは、被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度(差分情報)Dに基づいて、被写体存在画像P1bから被写体領域を抽出するためのマスク画像(抽出用情報)Mを生成する第2抽出用情報生成手段を構成している。 The mask generating unit 8e generates a dissimilarity map based on the dissimilarity D of each corresponding pixel between the subject non-existing image P6 and the subject existing image P1b calculated by the dissimilarity calculating unit 8b according to Expression (2). Then, the mask generation unit 8e generates a mask image M by binarizing (0, 255) the generated difference map with a predetermined threshold.
Figure 2011035650
In the above formula (2), YUV data of the subject non-existing image P6 is represented by “Y”, “U”, “V”, and YUV data of the subject existing image P1b is “Yc”, “Uc”. , “Vc”. G represents the gain of the color difference signals U and V.
Here, the mask generation unit 8e extracts a subject region from the subject presence image P1b based on the difference (difference information) D between the corresponding pixels of the subject non-existence image P6 and the subject presence image P1b. A second extraction information generating unit that generates an image (extraction information) M is configured.

また、操作入力部12のシャッタボタン12aは、第1被写体抽出用画像P2aの非平坦度が所定値以下でないと判定された後にユーザにより所定操作されると、被写体存在画像P1bの背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6の電子撮像部2による撮像指示をCPU13に出力する。
即ち、シャッタボタン12aは、第1被写体抽出用画像P2aの非平坦度が所定値以下でないと判定された場合に、被写体非存在画像P6の電子撮像部2による撮像を指示する第2撮像指示手段を構成している。
The shutter button 12a of the operation input unit 12 is the same as the background of the subject existing image P1b when the user performs a predetermined operation after determining that the non-flatness of the first subject extraction image P2a is not less than a predetermined value. The CPU 13 outputs to the CPU 13 an imaging instruction from the electronic imaging unit 2 for a subject non-existing image P6 in which no subject S exists in the background.
That is, the shutter button 12a is a second imaging instruction unit that instructs the electronic imaging unit 2 to capture the non-subject image P6 when it is determined that the non-flatness of the first subject extraction image P2a is not less than a predetermined value. Is configured.

次に、撮像装置200による被写体切り抜き処理について、図9〜図12を参照して説明する。
図9及び図10は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
なお、被写体非存在画像P6の撮像及び被写体非存在画像P6と被写体存在画像P1bとを用いた第2領域検出処理以外の処理は、実施形態1の被写体切り抜き処理と略同様であり、その詳細な説明は省略する。
Next, the subject clipping process performed by the imaging apparatus 200 will be described with reference to FIGS.
9 and 10 are flowcharts illustrating an example of operations related to the subject clipping process.
Note that the processing other than the imaging of the subject non-existing image P6 and the second region detection processing using the subject non-existing image P6 and the subject existing image P1b is substantially the same as the subject cropping process of the first embodiment. Description is omitted.

図9に示すように、先ず、CPU13は、画像メモリ5のフラグテーブル(図示略)に背景撮影フラグ=0を書き込んだ後(ステップS201)、実施形態1の被写体切り抜き処理と同様に、表示制御部10は、被写体Sの撮像に従って解像度変換部6により順次生成された画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、背景指示メッセージを表示部11の表示画面に表示させる(ステップS1;図6(a)参照)。   As shown in FIG. 9, first, the CPU 13 writes a background shooting flag = 0 in a flag table (not shown) of the image memory 5 (step S201), and then performs display control similarly to the subject clipping process of the first embodiment. The unit 10 displays the live view image on the display screen of the display unit 11 based on the image frames sequentially generated by the resolution conversion unit 6 in accordance with the imaging of the subject S, and superimposes the live view image on the live view image to display the background instruction message. Is displayed on the display screen of the display unit 11 (step S1; see FIG. 6A).

そして、実施形態1の被写体切り抜き処理と同様に、表示制御部10は、第1被写体抽出用画像P2aの画像フレームに基づいてライブビュー画像を更新させる制御を行う(ステップS2)。また、ライブビュー画像の更新が行われる毎に、特徴量演算部7aは、第1ライブビュー画像のYUVデータに基づいて特徴の高いブロック領域(特徴点)を抽出し、ばらつき量算出部7bは、各ブロック領域内のばらつき量としての標準偏差を式(1)に従って算出する(ステップS3)。

Figure 2011035650
Then, similarly to the subject clipping process of the first embodiment, the display control unit 10 performs control to update the live view image based on the image frame of the first subject extraction image P2a (step S2). Each time the live view image is updated, the feature amount calculation unit 7a extracts a block region (feature point) having a high feature based on the YUV data of the first live view image, and the variation amount calculation unit 7b Then, the standard deviation as the variation amount in each block area is calculated according to the equation (1) (step S3).
Figure 2011035650

次に、実施形態1の被写体切り抜き処理と同様に、非平坦度判定部8aは、特徴点(ブロック領域)が所定値以下であるか否か、及びブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定することで、特徴点及び当該ブロック領域内の画素値のばらつき量がないか否かを判断する(ステップS4)。
ここで、特徴点及び当該ブロック領域内の画素値のばらつき量があると判断されると(ステップS4;NO)、CPU13は、ユーザにより操作入力部12のシャッタボタン12aが所定操作された撮像指示が入力されたか否かを判定する(ステップS202)。
Next, similarly to the subject clipping process of the first embodiment, the non-flatness determination unit 8a determines whether or not the feature point (block area) is equal to or smaller than a predetermined value and the variation amount of the pixel value in the block area is predetermined. By determining whether or not the value is equal to or less than the value, it is determined whether or not there is a variation amount between the feature point and the pixel value in the block area (step S4).
Here, if it is determined that there is a variation amount between the feature point and the pixel value in the block region (step S4; NO), the CPU 13 instructs the user to perform an imaging instruction in which the shutter button 12a of the operation input unit 12 is operated by a predetermined operation. Whether or not is input is determined (step S202).

ステップS202にて、撮像指示が入力されていないと判定されると(ステップS202;NO)、CPU13は、ユーザによる操作入力部12の所定操作に基づいて終了指示が入力された否かを判定する(ステップS5)。
ここで、終了指示が入力されていないと判定されると(ステップS5;NO)、CPU13は、処理をステップS2に移行して、それ以降の処理を実行する。
一方、終了指示が入力されたと判定されると(ステップS5;YES)、CPU13は、被写体切り抜き処理を終了させる。
If it is determined in step S202 that an imaging instruction has not been input (step S202; NO), the CPU 13 determines whether or not an end instruction has been input based on a predetermined operation of the operation input unit 12 by the user. (Step S5).
If it is determined that the end instruction has not been input (step S5; NO), the CPU 13 shifts the process to step S2 and executes the subsequent processes.
On the other hand, if it is determined that an end instruction has been input (step S5; YES), the CPU 13 ends the subject clipping process.

また、ステップS202にて、撮像指示が入力されたと判定されると(ステップS202;YES)、CPU13は、画像メモリ5のフラグテーブル(図示略)に背景撮影フラグ=1を書き込んだ後(ステップS203)、処理をステップS13に移行させて、撮像制御部3に、被写体存在画像P1b(図12(a)参照)の撮像の際の露出条件(AE)やホワイトバランス(AWB)等の撮像条件を被写体Sに合わせて調整させる(ステップS13)。その後、撮像制御部3は、調整された撮像条件で被写体存在画像P1bの光学像を電子撮像部2により撮像させ、電子撮像部2から転送された被写体存在画像P1bの画像フレームに基づいて、被写体存在画像P1bのYUVデータを画像データ生成部4に生成させて、当該YUVデータを画像メモリ5に一時記憶させる(ステップS14)。
これにより、特徴量の多い背景をバックに被写体Sが撮影された被写体存在画像P1bが生成される。
なお、撮像制御部3は、被写体存在画像P1bの撮像の際の合焦位置(AF)や露出条件(AE)やホワイトバランス(AWB)等の撮像条件を固定した状態を維持する。
If it is determined in step S202 that an imaging instruction has been input (step S202; YES), the CPU 13 writes the background shooting flag = 1 in the flag table (not shown) of the image memory 5 (step S203). ), The process proceeds to step S13, and the imaging control unit 3 is set with imaging conditions such as exposure conditions (AE) and white balance (AWB) when imaging the subject existing image P1b (see FIG. 12A). Adjustment is made according to the subject S (step S13). Thereafter, the imaging control unit 3 causes the electronic imaging unit 2 to capture an optical image of the subject existing image P1b under the adjusted imaging condition, and based on the image frame of the subject existing image P1b transferred from the electronic imaging unit 2, The YUV data of the presence image P1b is generated by the image data generation unit 4, and the YUV data is temporarily stored in the image memory 5 (step S14).
As a result, a subject presence image P1b in which the subject S is photographed against a background with a large amount of feature is generated.
The imaging control unit 3 maintains a state in which imaging conditions such as a focus position (AF), an exposure condition (AE), and a white balance (AWB) at the time of imaging the subject existing image P1b are fixed.

一方、ステップS4にて、特徴点及び当該ブロック領域内の画素値のばらつき量がないと判断されると(ステップS4;YES)、即ち、例えば、特徴量の少ない無地の背景をバックに被写体Sを撮影する場合は(図6(b)参照)、実施形態1の被写体切り抜き処理と同様に、CPU13は、ステップS6〜S12の各処理を行う。
これにより、第1ライブビュー画像及び第2ライブビュー画像が画像メモリ5に保存された状態となる(ステップS6、S12)。
On the other hand, if it is determined in step S4 that there is no variation amount between the feature point and the pixel value in the block area (step S4; YES), for example, the subject S with a plain background having a small feature amount as a background. When the camera 13 is photographed (see FIG. 6B), the CPU 13 performs steps S6 to S12 in the same manner as the subject clipping process of the first embodiment.
As a result, the first live view image and the second live view image are stored in the image memory 5 (steps S6 and S12).

次に、図10に示すように、CPU13は、背景撮影フラグ=0であるか否かを判定する(ステップS204)。
ここで、背景撮影フラグ=0でないと判定されると(ステップS204;NO)、即ち、背景撮影フラグ=1となっている場合には、CPU13は、表示制御部10に、ライブビュー画像に重畳させて、被写体存在画像P1bの半透過の表示態様の画像と被写体非存在画像P6の撮像指示メッセージ(例えば、「背景を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS205;図12(b)参照)。
Next, as shown in FIG. 10, the CPU 13 determines whether or not the background shooting flag = 0 (step S204).
If it is determined that the background shooting flag = 0 is not satisfied (step S204; NO), that is, if the background shooting flag = 1, the CPU 13 superimposes the live view image on the display control unit 10. Thus, an image of a semi-transparent display mode of the subject presence image P1b and an imaging instruction message of the subject non-existence image P6 (eg, “shoot the background”) are displayed on the display screen 11a of the display unit 11 ( Step S205; see FIG. 12B).

その後、CPU13は、表示制御部10に、レンズ部1及び電子撮像部2による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行うとともに(ステップS206)、ユーザにより操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたか否かを判定する(ステップS207)。
この後、ユーザは、被写体Sを画角外に移動させる、或いは被写体Sが移動するのを待った後(図8(b)参照)、ステップS207にて、撮像指示が入力されたと判定されると(ステップS207;YES)、撮像制御部3は、背景内に被写体Sの存在しない被写体非存在画像P6の光学像を所定の撮像条件で電子撮像部2により撮像させ、画像データ生成部4は、電子撮像部2から転送された被写体非存在画像P6の画像フレームに基づいて、被写体非存在画像P6のYUVデータを生成して、当該YUVデータを画像メモリ5に一時記憶させる(ステップS208)。
これにより、被写体Sが存在しない特徴量の多い背景が撮影された被写体非存在画像P6が生成される。
Thereafter, the CPU 13 controls the display control unit 10 to update the live view image based on the image frames sequentially generated by the imaging of the subject S by the lens unit 1 and the electronic imaging unit 2 (step S206), and the user Thus, it is determined whether or not the shutter button 12a of the operation input unit 12 has been operated in a predetermined manner and an imaging instruction has been input (step S207).
Thereafter, after the user moves the subject S out of the angle of view or waits for the subject S to move (see FIG. 8B), when it is determined in step S207 that an imaging instruction has been input. (Step S207; YES), the imaging control unit 3 causes the electronic imaging unit 2 to capture an optical image of the subject nonexistent image P6 in which the subject S does not exist in the background under predetermined imaging conditions, and the image data generation unit 4 Based on the image frame of the subject nonexistent image P6 transferred from the electronic imaging unit 2, YUV data of the subject nonexistent image P6 is generated, and the YUV data is temporarily stored in the image memory 5 (step S208).
As a result, a subject non-existing image P6 in which a background with a large amount of feature without the subject S is captured is generated.

次に、CPU13は、非平坦度演算部7、ブロックマッチング部14及び画像処理部8に、被写体非存在画像P6のYUVデータを基準として、被写体存在画像P1bのYUVデータと被写体非存在画像P6のYUVデータとを位置合わせする処理を行わせる(ステップS209)。
具体的には、特徴量演算部7aは、被写体非存在画像P6のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロック領域の内容をテンプレートとして抽出する。そして、ブロックマッチング部14は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1b内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P6と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
そして、画像処理部8の位置合わせ部8gは、ブロックマッチング部14により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出した後、当該射影変換行例に基づいて被写体存在画像P1bを射影変換することで、被写体存在画像P1bのYUVデータと被写体非存在画像P6のYUVデータとを位置合わせする処理を行わせる。
Next, the CPU 13 sends the YUV data of the subject existing image P1b and the subject nonexisting image P6 to the non-flatness calculating unit 7, the block matching unit 14, and the image processing unit 8 with reference to the YUV data of the subject nonexisting image P6. A process for aligning the YUV data is performed (step S209).
Specifically, the feature amount calculation unit 7a selects a predetermined number (or a predetermined number or more) of highly featured block areas (feature points) based on the YUV data of the subject non-existing image P6, and performs this block Extract the contents of the area as a template. Then, the block matching unit 14 searches the subject existing image P1b for a position where the pixel value of the template extracted by the feature extraction process is optimally matched, and the evaluation value of the difference between the pixel values is the best. An optimum offset between the subject non-existing image P6 and the subject existing image P1b is calculated as a motion vector of the template.
Then, the alignment unit 8g of the image processing unit 8 statistically calculates the entire motion vector based on the motion vectors of the plurality of templates calculated by the block matching unit 14, and performs feature point correspondence related to the motion vector. After calculating the projection transformation matrix of the subject existing image P1b, the subject existing image P1b is subjected to projective transformation based on the projective transformation example, so that the YUV data of the subject existing image P1b and the YUV data of the subject nonexisting image P6 are converted. To perform the alignment process.

次に、画像処理部8は、位置合わせが成功したか否かを判定する(ステップS210)。即ち、画像処理部8は、ステップS209にて、複数のテンプレートの動きベクトルから全体の動きベクトルを統計的に算出でき、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出することができたか否かを判定する。   Next, the image processing unit 8 determines whether or not the alignment is successful (step S210). In other words, in step S209, the image processing unit 8 can statistically calculate the entire motion vector from the motion vectors of a plurality of templates, and uses the feature point correspondence related to the motion vector to projective transformation matrix of the subject existing image P1b. It is determined whether or not it has been calculated.

ここで、位置合わせが成功したと判定されると(ステップS210;YES)、CPU13は、画像処理部8に、被写体存在画像P1bから被写体Sが含まれる被写体領域を検出する第2領域検出処理を行わせる(ステップS211)。   If it is determined that the alignment is successful (step S210; YES), the CPU 13 causes the image processing unit 8 to perform a second area detection process for detecting a subject area including the subject S from the subject existing image P1b. This is performed (step S211).

ここで、第2領域検出処理について図11を参照して詳細に説明する。
図11は、第2領域検出処理に係る動作の一例を示すフローチャートである。
第2領域検出処理は、相違度算出部8bによる相違度Dの算出に係る対象が第1領域検出処理と異なる以外の点は、第1領域検出処理と略同様であり、その詳細な説明を省略する。
Here, the second region detection process will be described in detail with reference to FIG.
FIG. 11 is a flowchart illustrating an example of an operation related to the second region detection process.
The second area detection process is substantially the same as the first area detection process except that the object relating to the calculation of the difference degree D by the difference degree calculation unit 8b is different from the first area detection process. Omitted.

即ち、図11に示すように、画像処理部8の相違度算出部8bは、被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度Dを下記式(2)に従って算出し、画像処理部8のマスク生成部8eは、算出された相違度Dに基づいて相違度マップを生成する(ステップS71)。

Figure 2011035650
That is, as shown in FIG. 11, the dissimilarity calculating unit 8b of the image processing unit 8 calculates the dissimilarity D of each corresponding pixel between the subject non-existing image P6 and the subject existing image P1b according to the following equation (2). The mask generation unit 8e of the image processing unit 8 generates a dissimilarity map based on the calculated dissimilarity D (step S71).
Figure 2011035650

次に、第1領域検出処理と同様に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像M(図7(b)参照)を生成する(ステップS52)。そして、マスク生成部8eは、二値化が成功したか否かを判断する(ステップS53)。ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、マスク画像Mの画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
続けて、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像Mの画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。
そして、マスク生成部8eは、マスク画像Mの画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。
一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、第2領域検出処理を終了する。
Next, as in the first region detection process, the mask generation unit 8e binarizes the generated dissimilarity map with a predetermined threshold value to generate a mask image M (see FIG. 7B) (step S52). . Then, the mask generation unit 8e determines whether or not the binarization is successful (step S53). Here, if it is determined that the binarization is successful (step S53; YES), the mask generation unit 8e performs a contraction process on the image data of the mask image M to remove a pixel set smaller than a predetermined value. (Step S54), an expansion process for correcting the contraction is performed (Step S55).
Subsequently, the mask generation unit 8e makes an area that is equal to or less than a predetermined ratio in the number of constituent pixels of the effective area of the image data of the mask image M by performing a labeling process that assigns the same number to a set of pixels that form the same connected component. By replacing, hole filling is performed (step S56).
Then, the mask generation unit 8e applies an averaging filter to the image data of the mask image M, adds a synthetic gradation to the edge of the subject region (step S57), and sets the region detection success (step S58). .
On the other hand, when it is determined in step S53 that the binarization has not been successful (step S53; NO), the mask generation unit 8e regards the binarization as failure and sets a region detection failure (step S59). .
Thereby, the second region detection process is terminated.

図10に示すように、次に、実施形態1の被写体切り抜き処理と同様に、マスク生成部8eは、被写体領域の検出が成功したか否かを判定する(ステップS18)。
ここで、被写体領域の検出が成功したと判定されると(ステップS18;YES)、切抜画像生成部8fは、αブレンドを利用して、第2領域検出処理にて生成されたマスク画像Mを用いて被写体存在画像P1bから被写体領域を切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成する(ステップS19)。
その後、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体Sが重畳された被写体切り抜き画像P4を表示部11の表示画面に表示させる(図7(c)参照)。
As shown in FIG. 10, next, similarly to the subject clipping process of the first embodiment, the mask generation unit 8e determines whether or not the subject region has been successfully detected (step S18).
Here, if it is determined that the detection of the subject region has succeeded (step S18; YES), the cut-out image generation unit 8f uses the α blend to generate the mask image M generated by the second region detection process. The subject region is cut out from the subject existing image P1b and synthesized with a predetermined single color background image P5 to generate image data of the subject cutout image P4 (see FIG. 7B) (step S19).
Thereafter, the display control unit 10 displays a subject cutout image P4 in which the subject S is superimposed on a predetermined single color background image P5 based on the image data of the subject cutout image P4 generated by the cutout image generation unit 8f. Is displayed on the display screen (see FIG. 7C).

次に、CPU13は、記録媒体9の所定の記憶領域に、画像処理部8のマスク生成部8eにより生成されたマスク画像Mの画像データと被写体切り抜き画像P4の画像データを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させる(ステップS20)。
これにより、被写体切り抜き処理を終了する。
Next, the CPU 13 associates the image data of the mask image M generated by the mask generation unit 8e of the image processing unit 8 with the image data of the subject cutout image P4 in a predetermined storage area of the recording medium 9, and The extension of the image data of the cutout image P4 is saved as one file with “.jpe” (step S20).
Thereby, the subject clipping process is completed.

一方、ステップS18にて、被写体領域の検出が成功しなかったと判定されるか(ステップS18;NO)、或いは、ステップS16にて、背景生成が成功しなかったと判定されるか(ステップS16;NO)、或いは、ステップS210にて、被写体存在画像P1bと被写体非存在画像P6との位置合わせに成功しなかったと判定された場合にも(ステップS210;NO)、CPU13は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体Sの切り抜きに失敗しました」等)を表示部11の表示画面に表示させて(ステップS21)、被写体切り抜き処理を終了する。   On the other hand, whether it is determined in step S18 that the detection of the subject area has not been successful (step S18; NO), or whether it is determined in step S16 that the background generation has not been successful (step S16; NO). Alternatively, when it is determined in step S210 that the alignment of the subject presence image P1b and the subject non-existence image P6 is not successful (step S210; NO), the CPU 13 fails to cut out the subject S. Is displayed on the display screen of the display unit 11 (step S21), and the subject clipping process is terminated.

また、ステップS204にて、背景撮影フラグ=0であると判定されると(ステップS204;YES)、実施形態1の被写体切り抜き処理と同様に、CPU13は、ステップS13〜S20の各処理を行う。
即ち、特徴量の少ない背景をバックに被写体Sが撮影された被写体存在画像P1aが画像メモリ5に一時記憶された状態となる(ステップS14)。また、背景生成処理にて、第1ライブビュー画像と第2ライブビュー画像に基づいて抽出用背景画像P3が生成された後(ステップS15)、第1領域検出処理にて、抽出用背景画像P3と被写体存在画像P1aに基づいてマスク画像Mが生成される(ステップS17)。その後、被写体切り抜き画像P4(図7(b)参照)の画像データが生成されて(ステップS20)、被写体切り抜き画像P4の画像データとマスク画像Mの画像データとが対応付けられて一ファイルで保存される。
これにより、被写体切り抜き処理を終了する。
If it is determined in step S204 that the background shooting flag = 0 (step S204; YES), the CPU 13 performs each of steps S13 to S20 as in the subject clipping process of the first embodiment.
That is, the subject existing image P1a in which the subject S is photographed with the background having a small feature amount is temporarily stored in the image memory 5 (step S14). In addition, after the background generation process generates the extraction background image P3 based on the first live view image and the second live view image (step S15), the first area detection process performs the extraction background image P3. A mask image M is generated based on the subject presence image P1a (step S17). Thereafter, image data of the subject cutout image P4 (see FIG. 7B) is generated (step S20), and the image data of the subject cutout image P4 and the image data of the mask image M are associated with each other and saved as one file. Is done.
Thereby, the subject clipping process is completed.

以上のように、実施形態2の撮像装置200によれば、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレームの非平坦度が所定値以下でないと判定されると、被写体存在画像P1bの撮像後に、当該被写体存在画像P1bの背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6を撮像する。そして、当該被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度Dに基づいてマスク画像Mを生成して、当該マスク画像Mを用いて被写体存在画像P1bから被写体領域を抽出する。
即ち、例えば、特徴量の多い背景をバックに被写体Sを撮影する場合のように(図12(a)参照)、特徴点が所定値よりも多いと判定されると、被写体存在画像P1bの撮像後、当該被写体存在画像P1bの背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6を撮像することで、これら被写体存在画像P1bと被写体非存在画像P6との位置合わせを行った後、位置合わせされた被写体存在画像P1bと被写体非存在画像P6の対応する各画素の相違度Dに基づいて、被写体存在画像P1bから被写体領域を抽出することができる。
つまり、特徴量の多い背景をバックに被写体Sを撮影する場合であっても、被写体非存在画像P6を撮像することで、被写体存在画像P1bと被写体非存在画像P6の対応する各画素の相違度Dに基づいてマスク画像Mを生成して、当該マスク画像Mを用いて被写体存在画像P1bから被写体領域を抽出することができる。
このように、ライブビュー画像表示用の画像フレームを利用することで、特徴量の少ない背景をバックに被写体Sを撮影する場合だけでなく、特徴量の多い背景をバックに被写体Sを撮影する場合にも、被写体Sの切り抜きに最適な環境を見つけることができ、より使い勝手の良い撮像装置200を提供することができる。
As described above, according to the imaging apparatus 200 of the second embodiment, when it is determined that the non-flatness of the image frame for live view image display of the first subject extraction image P2a is not less than or equal to the predetermined value, the subject presence image After the imaging of P1b, a subject non-existing image P6 in which no subject S exists in the same background as the background of the subject existing image P1b is captured. Then, a mask image M is generated based on the difference D between the corresponding pixels of the subject non-existing image P6 and the subject existing image P1b, and the subject region is extracted from the subject existing image P1b using the mask image M. To do.
That is, for example, when the subject S is photographed against a background with a large amount of feature (see FIG. 12A), if it is determined that there are more feature points than a predetermined value, the subject presence image P1b is captured. After the subject nonexistent image P6 in which the subject S does not exist within the same background as the subject present image P1b is imaged, the subject present image P1b and the subject nonexistent image P6 are aligned. The subject region can be extracted from the subject presence image P1b based on the difference D between the corresponding pixels of the subject presence image P1b and the subject non-existence image P6 that are aligned.
That is, even when the subject S is photographed against a background with a large amount of features, the degree of difference between corresponding pixels of the subject present image P1b and the subject nonexistent image P6 is obtained by capturing the subject nonexistent image P6. A mask image M is generated based on D, and a subject area can be extracted from the subject presence image P1b using the mask image M.
As described above, by using the image frame for displaying the live view image, not only when shooting the subject S with the background having a small feature amount, but also when shooting the subject S with the background having a large feature amount. In addition, it is possible to find an optimum environment for clipping the subject S, and to provide an imaging device 200 that is more convenient to use.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1、2にあっては、被写体切り抜き処理の背景生成処理(ステップS15)にて、抽出用背景画像P3を生成して、第1領域検出処理(ステップS17)にて、当該抽出用背景画像P3を用いてマスク画像Mを生成するようにしたが、マスク画像Mの生成方法はこれに限られるものではない。
即ち、例えば、第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dに基づいて、マスク画像Mを生成するようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, the extraction background image P3 is generated in the background generation process (step S15) of the subject clipping process, and the first region detection process (step S17) Although the mask image M is generated using the extraction background image P3, the method of generating the mask image M is not limited to this.
That is, for example, the mask image M may be generated based on the difference D between the corresponding pixels of the first live view image and the second live view image.

具体的には、図13に示すように、相違度算出部8bは、第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dを式(2)に従って算出し、画像処理部8のマスク生成部8eは、算出された相違度Dに基づいて、相違度マップを生成する(ステップS91)。

Figure 2011035650
なお、上記式(2)にあっては、第1ライブビュー画像のYUVデータを「Y」、「U」、「V」で表し、第2ライブビュー画像のYUVデータを「Yc」、「Uc」、「Vc」で表す。また、Gは、色差信号U、Vのゲインを表している。 Specifically, as shown in FIG. 13, the difference calculation unit 8b calculates the difference D of each pixel corresponding to the first live view image and the second live view image according to the equation (2), and The mask generation unit 8e of the processing unit 8 generates a dissimilarity map based on the calculated dissimilarity D (step S91).
Figure 2011035650
In the above formula (2), YUV data of the first live view image is represented by “Y”, “U”, “V”, and YUV data of the second live view image is represented by “Yc”, “Uc”. ”And“ Vc ”. G represents the gain of the color difference signals U and V.

次に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像M(図7(b)参照)の画像データを生成する(ステップS52)。そして、マスク生成部8eは、例えば、背景(二値化;0)の領域が著しく小さいか否か等を判定することで、二値化が成功したか否かを判断する(ステップS53)。
ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、被写体領域の周辺部の残り過ぎを修正したり細かいノイズを除去するため、マスク画像Mの画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
Next, the mask generator 8e binarizes the generated dissimilarity map with a predetermined threshold to generate image data of the mask image M (see FIG. 7B) (step S52). Then, the mask generation unit 8e determines whether or not the binarization is successful by determining whether or not the background (binarization; 0) region is extremely small, for example (step S53).
Here, if it is determined that the binarization is successful (step S53; YES), the mask generation unit 8e corrects the remaining portion of the periphery of the subject region and removes fine noise. After performing contraction processing on the image data to remove a pixel set smaller than a predetermined value (step S54), expansion processing for correcting the contraction is performed (step S55).

続けて、被写体Sに背景色と似たような色がある場合、マスク画像Mの被写体領域内が欠損するため、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像Mの画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。   Subsequently, when the subject S has a color similar to the background color, the subject region of the mask image M is lost, and thus the mask generation unit 8e performs labeling that assigns the same number to a set of pixels that constitute the same connected component. Filling is performed by replacing the area below a predetermined ratio in the number of constituent pixels of the effective area of the image data of the mask image M with the effective area by the processing (step S56).

そして、マスク生成部8eは、マスク画像Mの画像データを被写体存在画像P1aの実撮像サイズにリサイズした後(ステップS92)、当該マスク画像Mの画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。   Then, the mask generation unit 8e resizes the image data of the mask image M to the actual imaging size of the subject existing image P1a (step S92), and then applies an averaging filter to the image data of the mask image M to apply the subject. A composite gradation is given to the edge of the region (step S57), and the region detection is successful (step S58).

一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、例えば、背景(二値化;0)の領域が著しく小さい場合などには、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、第1領域検出処理を終了する。
On the other hand, if it is determined in step S53 that the binarization has not been successful (step S53; NO), for example, if the background (binarization; 0) region is extremely small, the mask generation unit 8e. Is assumed to have failed in binarization, and region detection fails (step S59).
Thus, the first area detection process is terminated.

従って、上記のようにしてマスク画像Mを生成することで、被写体切り抜き処理にて背景生成処理を行う必要がなくなる。即ち、例えば、撮像装置100(200)が三脚に固定された状態で第1被写体抽出用画像P2a、第2被写体抽出用画像P2b等の撮像が行われ、第1被写体抽出用画像P2aの撮像から第2被写体抽出用画像P2bの撮像まで不動状態が継続していた場合には、第1被写体抽出用画像P2aを抽出用背景画像として適用することができる。これにより、背景生成処理を省略することができ、被写体切り抜き処理の高速化を図ることができる。   Therefore, by generating the mask image M as described above, it is not necessary to perform the background generation process in the subject clipping process. That is, for example, the first subject extraction image P2a, the second subject extraction image P2b, and the like are captured in a state where the imaging device 100 (200) is fixed to a tripod, and the first subject extraction image P2a is captured. When the immobile state continues until the second subject extraction image P2b is captured, the first subject extraction image P2a can be applied as the extraction background image. Thereby, the background generation process can be omitted, and the subject clipping process can be speeded up.

また、上記実施形態1、2にあっては、被写体切り抜き処理のステップS4にて、第1ライブビュー画像の特徴点及び特徴点内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の何れか一方を判定することで第1被写体抽出用画像P2aの非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に、被写体存在画像P1aの撮像を行うようにしても良い。
また、背景生成処理にて、第1被写体抽出用画像P2aの特徴点及び特徴点内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の何れか一方を判定することで第1被写体抽出用画像P2aの非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に、第1被写体抽出用画像P2aから抽出用背景画像P3を生成するようにしても良い。
In the first and second embodiments, whether or not both the feature point of the first live view image and the variation amount of the pixel value in the feature point are equal to or smaller than the predetermined value in step S4 of the subject clipping process. However, the present invention is not limited to this, and non-flatness is determined by determining the non-flatness of the first subject extraction image P2a by determining either the feature point or the variation amount. When it is determined that the degree is equal to or less than the predetermined value, the subject presence image P1a may be captured.
In the background generation process, it is determined whether both the feature point of the first subject extraction image P2a and the variation amount of the pixel value in the feature point are equal to or less than a predetermined value. When the non-flatness of the first subject extraction image P2a is determined by determining either the feature point or the variation amount, and the non-flatness is determined to be equal to or less than a predetermined value. In addition, the extraction background image P3 may be generated from the first subject extraction image P2a.

さらに、生成された被写体切り抜き画像P4と所定の背景用画像(図示略)とを合成して被写体合成画像(図示略)を生成しても良い。
この被写体合成画像を生成する処理においては、被写体切り抜き画像P4の画像データについて、マスク画像Mの画像データの塗りつぶした部分(被写体S以外の斜線部分)で覆われる画素については、背景用画像の色で塗りつぶし、一方、被写体S部分の画素については、何もせずに所定の背景用画像の色に対して透過させないようにする。これにより、被写体切り抜き画像P4の被写体領域が所定の背景用画像(図示略)に重畳された被写体合成画像を生成することができる。
Furthermore, the generated subject cutout image P4 and a predetermined background image (not shown) may be combined to generate a subject composite image (not shown).
In the process of generating the subject composite image, for the image data of the subject cut-out image P4, for the pixels covered by the filled portion of the image data of the mask image M (the hatched portion other than the subject S), the color of the background image On the other hand, the pixels of the subject S portion are not transmitted to the color of the predetermined background image without doing anything. As a result, it is possible to generate a subject composite image in which the subject region of the subject cutout image P4 is superimposed on a predetermined background image (not shown).

また、上記実施形態1、2にあっては、被写体抽出用画像の非平坦度の演算や判定にて、第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレームを用いるようにしたが、第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bの画像サイズはこれに限られるものではなく、画像データ生成部4により生成された実撮像サイズの第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bを用いても良い。即ち、解像度変換部6によって、ライブビュー画像表示用のサイズと異なるサイズの第1被写体抽出用画像P2a及び第2被写体抽出用画像P2b生成して、当該画像を用いても良い。   In the first and second embodiments, the live view image display of the first subject extraction image P2a and the second subject extraction image P2b is performed by calculating and determining the non-flatness of the subject extraction image. Although the image frame is used, the image size of the first subject extraction image P2a and the second subject extraction image P2b is not limited to this, and the first imaging size of the actual imaging size generated by the image data generation unit 4 is used. One subject extraction image P2a and second subject extraction image P2b may be used. That is, the resolution conversion unit 6 may generate the first subject extraction image P2a and the second subject extraction image P2b having a size different from the size for displaying the live view image, and use the images.

また、上記実施形態1、2にあっては、第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレーム(第2ライブビュー画像)の保存後の被写体存在画像P1aの撮像の際に、AF(自動合焦処理)を行わないようにしたが、これに限られるものではなく、例えば、多少撮影時間が長くなったとしてもより高画質の被写体存在画像P1aの取得を図る上では、AF(自動合焦処理)を行うのが好ましい。   In the first and second embodiments, when capturing the subject existing image P1a after storing the live view image display image frame (second live view image) of the second subject extraction image P2b, Although AF (automatic focusing process) is not performed, the present invention is not limited to this. For example, in order to obtain a higher-quality subject existing image P1a even if the shooting time is somewhat longer, AF It is preferable to perform (automatic focusing process).

さらに、被写体存在画像P1a(P1b)から被写体領域を抽出するための抽出用情報として、マスク画像Mを例示したが、これに限られるものではなく、被写体存在画像P1a内の被写体領域の位置を特定して当該被写体領域を抽出することができるものであれば如何なるものであっても良い。   Furthermore, the mask image M is exemplified as the extraction information for extracting the subject area from the subject existence image P1a (P1b). However, the present invention is not limited to this, and the position of the subject area in the subject existence image P1a is specified. Any object can be used as long as it can extract the subject area.

また、上記実施形態1、2にあっては、マスク画像Mの画像データと被写体切り抜き画像P4の画像データを対応付けて一ファイルで保存させるようにしたが、マスク画像Mの画像データと被写体存在画像P1a(P1b)の画像データを対応付けて一ファイルで記録媒体(記憶手段)9に保存させるようにしても良い。この場合、当該ファイルの再生には、被写体存在画像P1aを再生させるモードと、再生時にマスク画像Mの画像データを適用して被写体切り抜き画像P4を合成して表示する2モードを用意しておくとよい。   In the first and second embodiments, the image data of the mask image M and the image data of the subject cutout image P4 are stored in one file in association with each other. The image data of the image P1a (P1b) may be associated with each other and stored in the recording medium (storage unit) 9 as one file. In this case, for the reproduction of the file, a mode for reproducing the subject existing image P1a and two modes for combining and displaying the subject cutout image P4 by applying the image data of the mask image M at the time of reproduction are prepared. Good.

さらに、撮像装置100、200の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。   Furthermore, the configurations of the imaging apparatuses 100 and 200 are merely examples as illustrated in the above-described embodiment, and are not limited thereto.

加えて、上記実施形態にあっては、生成手段、演算手段、判定手段、背景生成手段、被写体抽出手段としての機能を、CPU13の制御下にて、解像度変換部6と、非平坦度演算部7と、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、CPU13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、生成処理ルーチン、演算処理ルーチン、判定処理ルーチン、背景生成処理ルーチン、被写体抽出処理ルーチンを含むプログラムを記憶しておく。そして、生成処理ルーチンによりCPU13を、撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームを生成する生成手段として機能させるようにしても良い。また、演算処理ルーチンによりCPU13を、生成手段により生成された被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームの非平坦度を演算する演算手段として機能させるようにしても良い。また、判定処理ルーチンによりCPU13を、演算手段により演算された被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームの非平坦度が所定値以下であるか否かを判定する判定手段として機能させるようにしても良い。また、背景生成処理ルーチンによりCPU13を、判定手段により非平坦度が所定値以下であると判定された場合に、被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームに基づいて抽出用背景画像P3を生成する背景生成手段として機能させるようにしても良い。また、被写体抽出処理ルーチンによりCPU13を、操作入力部12からの撮像指示に従って電子撮像部2により撮像された被写体存在画像P1aと抽出用背景画像P3との対応する各画素の差分情報に基づいて、被写体存在画像P1aから被写体領域を抽出する被写体抽出手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the generation unit, the calculation unit, the determination unit, the background generation unit, and the subject extraction unit are controlled by the resolution conversion unit 6 and the non-flatness calculation unit under the control of the CPU 13. However, the present invention is not limited to this, and a configuration realized by executing a predetermined program or the like by the CPU 13 is also possible.
That is, a program including a generation processing routine, an arithmetic processing routine, a determination processing routine, a background generation processing routine, and a subject extraction processing routine is stored in a program memory (not shown) that stores the program. Then, the CPU 13 may be caused to function as a generation unit that generates an image frame of a subject extraction image (first subject extraction image P2a) for extraction of a subject area captured by the imaging unit by the generation processing routine. . Further, the CPU 13 may be caused to function as a calculation unit that calculates the non-flatness of the image frame of the subject extraction image (first subject extraction image P2a) generated by the generation unit by the calculation processing routine. In addition, the CPU 13 performs determination processing as a determination unit that determines whether the non-flatness of the image frame of the subject extraction image (first subject extraction image P2a) calculated by the calculation unit is equal to or less than a predetermined value. You may make it function. Further, when the background generation processing routine determines that the non-flatness is equal to or less than a predetermined value by the determination unit, the CPU 13 performs extraction based on the image frame of the subject extraction image (first subject extraction image P2a). You may make it function as a background production | generation means which produces | generates the background image P3. Further, the CPU 13 causes the subject extraction processing routine to execute the CPU 13 based on the difference information of each corresponding pixel between the subject existing image P1a imaged by the electronic imaging unit 2 in accordance with the imaging instruction from the operation input unit 12 and the extraction background image P3. You may make it function as a subject extraction means which extracts a subject area | region from the subject presence image P1a.

100、200 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
7 非平坦度演算部
7a 特徴量演算部
7b ばらつき量算出部
8 画像処理部
8a 非平坦度判定部
8d 背景生成部
8e マスク生成部
8f 切抜画像生成部
12a シャッタボタン
13 CPU
100, 200 Imaging device 1 Lens unit 2 Electronic imaging unit 3 Imaging control unit 7 Non-flatness calculation unit 7a Feature amount calculation unit 7b Variation amount calculation unit 8 Image processing unit 8a Non-flatness determination unit 8d Background generation unit 8e Mask generation unit 8f Cutout image generator 12a Shutter button 13 CPU

Claims (13)

撮像手段と、
この撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段と、
この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段と、
この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する第1判定手段と、
前記撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する第1撮像指示手段と、
前記第1判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段と、
前記第1撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段と、
を備えたことを特徴とする撮像装置。
Imaging means;
Generating means for generating an image frame of a subject extraction image for extraction of a subject area imaged by the imaging means;
A computing means for computing the non-flatness of the image frame of the subject extraction image generated by the generating means;
First determination means for determining whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation means is equal to or less than a predetermined value;
First imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means;
A background generation unit that generates an extraction background image based on an image frame of the subject extraction image when the first determination unit determines that the non-flatness is equal to or less than a predetermined value;
The subject area is extracted from the subject presence image based on difference information of each corresponding pixel between the subject presence image captured by the imaging unit and the extraction background image in accordance with an imaging instruction by the first imaging instruction unit. Subject extraction means for
An imaging apparatus comprising:
前記生成手段は、
背景内に被写体の存在しない第1被写体抽出用画像と前記背景内に被写体の存在する第2被写体抽出用画像の各々を前記撮像手段により撮像して各々の画像フレームを生成し、
前記第1被写体抽出用画像の画像フレームと前記第2被写体抽出用画像の画像フレームとの対応する各画素の相違度が所定値以下であるか否かを判定する第2判定手段を更に備え、
前記背景生成手段は、
前記第2判定手段により相違度が所定値以下であると判定された画素に基づいて、前記抽出用背景画像を生成することを特徴とする請求項1に記載の撮像装置。
The generating means includes
Each of the first subject extraction image in which no subject is present in the background and the second subject extraction image in which the subject is present in the background is imaged by the imaging means to generate each image frame,
A second determination means for determining whether or not a difference between corresponding pixels of the image frame of the first subject extraction image and the image frame of the second subject extraction image is equal to or less than a predetermined value;
The background generation means includes
The imaging apparatus according to claim 1, wherein the extraction background image is generated based on a pixel whose degree of difference is determined to be equal to or less than a predetermined value by the second determination unit.
前記背景生成手段は、
前記第2判定手段により相違度が所定値以下であると判定された画素と同じ色の前記抽出用背景画像を生成することを特徴とする請求項2に記載の撮像装置。
The background generation means includes
The imaging apparatus according to claim 2, wherein the background image for extraction having the same color as a pixel whose degree of difference is determined to be equal to or less than a predetermined value by the second determination unit is generated.
前記撮像手段により先に撮像される前記第1被写体抽出用画像と当該第1被写体抽出用画像の撮像後に撮像される前記第2被写体抽出用画像の各々の撮像条件を同じ条件に設定する撮像条件設定手段を更に備えることを特徴とする請求項2又は3に記載の撮像装置。   Imaging conditions for setting the imaging conditions of the first subject extraction image first captured by the imaging unit and the second subject extraction image captured after the first subject extraction image is captured to the same condition The imaging apparatus according to claim 2, further comprising a setting unit. 前記撮像条件設定手段は、更に、
前記第2被写体抽出用画像の撮像後に、前記撮像手段により前記被写体存在画像を撮像する際の撮像条件を設定することを特徴とする請求項4に記載の撮像装置。
The imaging condition setting means further includes:
The imaging apparatus according to claim 4, wherein after the second subject extraction image is captured, an imaging condition for capturing the subject existing image by the imaging unit is set.
前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するための抽出用情報を生成する第1抽出用情報生成手段を更に備え、
前記被写体抽出手段は、
前記第1抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴とする請求項1〜5の何れか一項に記載の撮像装置。
First extraction information generating means for generating extraction information for extracting the subject region from the subject existing image based on difference information of corresponding pixels between the subject existing image and the extraction background image; In addition,
The subject extracting means includes
The imaging apparatus according to claim 1, wherein the subject area is extracted from the subject presence image using the extraction information generated by the first extraction information generation unit.
前記演算手段は、
前記非平坦度として、前記被写体抽出用画像の複数の特徴点を抽出し、
前記第1判定手段は、
更に、前記演算手段により抽出された前記複数の特徴点が所定値以下であるか否かを判定し、
前記背景生成手段は、
更に、前記第1判定手段により特徴点が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴とする請求項1〜6の何れか一項に記載の撮像装置。
The computing means is
As the non-flatness, a plurality of feature points of the subject extraction image are extracted,
The first determination means includes
Furthermore, it is determined whether or not the plurality of feature points extracted by the calculation means are equal to or less than a predetermined value,
The background generation means includes
The imaging according to any one of claims 1 to 6, wherein the extraction background image is generated when the first determination unit determines that the feature point is equal to or less than a predetermined value. apparatus.
前記演算手段は、
前記非平坦度として、前記被写体抽出用画像の複数の画像領域内の画素値のばらつき量を演算し、
前記第1判定手段は、
更に、前記演算手段により演算された前記複数の画像領域内の画素値のばらつき量が所定値以下であるか否かを判定し、
前記背景生成手段は、
更に、前記第1判定手段により画素値のばらつき量が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴とする請求項1〜7の何れか一項に記載の撮像装置。
The computing means is
As the non-flatness, a variation amount of pixel values in a plurality of image regions of the subject extraction image is calculated,
The first determination means includes
Further, it is determined whether or not the variation amount of the pixel value in the plurality of image areas calculated by the calculation means is equal to or less than a predetermined value,
The background generation means includes
The extraction background image is generated when the first determination unit determines that the variation amount of the pixel value is equal to or less than a predetermined value. The imaging device described.
前記撮像手段は、
前記第1判定手段により前記被写体抽出用画像の非平坦度が所定値以下であると判定された場合に、前記被写体存在画像を撮像することを特徴とする請求項1〜8の何れか一項に記載の撮像装置。
The imaging means includes
9. The subject existence image is picked up when the non-flatness of the subject extraction image is judged to be a predetermined value or less by the first judgment means. The imaging device described in 1.
前記第1判定手段により非平坦度が所定値以下でないと判定された場合に、前記被写体存在画像の背景と同一の背景内に被写体の存在しない被写体非存在画像の前記撮像手段による撮像を指示する第2撮像指示手段を更に備え、
前記被写体抽出手段は、
前記第2撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体非存在画像と前記被写体存在画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出することを特徴とする請求項1〜9の何れか一項に記載の撮像装置。
When the first determination unit determines that the non-flatness is not equal to or less than a predetermined value, the imaging unit instructs the imaging unit to capture a subject nonexistent image in the same background as the background of the subject existing image. A second imaging instruction means;
The subject extracting means includes
The subject region is extracted from the subject presence image based on the difference information of each corresponding pixel between the subject non-existence image captured by the imaging unit and the subject presence image according to the imaging instruction by the second imaging instruction unit. The imaging apparatus according to any one of claims 1 to 9, wherein
前記被写体非存在画像と前記被写体存在画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するための抽出用情報を生成する第2抽出用情報生成手段を更に備え、
前記被写体抽出手段は、
前記第2抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴とする請求項10に記載の撮像装置。
Second extraction information generating means for generating extraction information for extracting the subject region from the subject presence image based on difference information of corresponding pixels between the subject non-existence image and the subject presence image. In addition,
The subject extracting means includes
The imaging apparatus according to claim 10, wherein the subject area is extracted from the subject presence image using the extraction information generated by the second extraction information generation unit.
撮像手段と、この撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する撮像指示手段とを備える撮像装置に、
前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成ステップと、
この生成ステップにより生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算ステップと、
この演算ステップにより演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定ステップと、
この判定ステップにより非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成ステップと、
前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するステップと、
を実行させることを特徴とする画像処理方法。
An imaging apparatus comprising imaging means and imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means,
Generating an image frame of a subject extraction image for extraction of a subject region imaged by the imaging means;
A calculation step of calculating the non-flatness of the image frame of the subject extraction image generated by the generation step;
A determination step of determining whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation step is equal to or less than a predetermined value;
A background generation step of generating an extraction background image based on an image frame of the subject extraction image when the non-flatness is determined to be equal to or less than a predetermined value by the determination step;
Extracting the subject region from the subject existing image based on the difference information of each corresponding pixel between the subject existing image captured by the imaging unit and the background image for extraction according to the imaging instruction by the imaging instruction unit. When,
An image processing method characterized in that
撮像手段と、この撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する撮像指示手段とを備える撮像装置のコンピュータを、
前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段、
この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段、
この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定手段、
前記判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段、
前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段、
として機能させることを特徴とするプログラム。
A computer of an imaging apparatus comprising imaging means and imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means,
Generating means for generating an image frame of a subject extraction image for extraction of a subject area imaged by the imaging means;
Arithmetic means for calculating the non-flatness of the image frame of the subject extraction image generated by the generating means;
Determination means for determining whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation means is equal to or less than a predetermined value;
Background generation means for generating an extraction background image based on an image frame of the subject extraction image when the determination means determines that the non-flatness is equal to or less than a predetermined value;
A subject for extracting the subject area from the subject existing image based on difference information of each corresponding pixel between the subject existing image captured by the imaging unit and the background image for extraction according to the imaging instruction by the imaging instruction unit Extraction means,
A program characterized by functioning as
JP2009179759A 2009-07-31 2009-07-31 Imaging apparatus, image processing method, and program Expired - Fee Related JP5402361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009179759A JP5402361B2 (en) 2009-07-31 2009-07-31 Imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179759A JP5402361B2 (en) 2009-07-31 2009-07-31 Imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011035650A true JP2011035650A (en) 2011-02-17
JP5402361B2 JP5402361B2 (en) 2014-01-29

Family

ID=43764288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179759A Expired - Fee Related JP5402361B2 (en) 2009-07-31 2009-07-31 Imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5402361B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001036801A (en) * 1999-07-23 2001-02-09 Sharp Corp Image pickup device
JP2006344154A (en) * 2005-06-10 2006-12-21 Sumitomo Electric Ind Ltd Vehicle discriminating device and method
JP2008005399A (en) * 2006-06-26 2008-01-10 Matsushita Electric Ind Co Ltd Device and method for detecting a neglected object
JP2008028717A (en) * 2006-07-21 2008-02-07 Canon Inc Image processor and method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001036801A (en) * 1999-07-23 2001-02-09 Sharp Corp Image pickup device
JP2006344154A (en) * 2005-06-10 2006-12-21 Sumitomo Electric Ind Ltd Vehicle discriminating device and method
JP2008005399A (en) * 2006-06-26 2008-01-10 Matsushita Electric Ind Co Ltd Device and method for detecting a neglected object
JP2008028717A (en) * 2006-07-21 2008-02-07 Canon Inc Image processor and method and program

Also Published As

Publication number Publication date
JP5402361B2 (en) 2014-01-29

Similar Documents

Publication Publication Date Title
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP4760973B2 (en) Imaging apparatus and image processing method
JP5051156B2 (en) Image processing apparatus and program
JP4947136B2 (en) Image processing apparatus, image processing method, and program
JP6222514B2 (en) Image processing apparatus, imaging apparatus, and computer program
JP2015012480A (en) Image processing apparatus and image processing method
JP2011191860A (en) Imaging apparatus, imaging processing method, and program
JP2011066827A (en) Image processing apparatus, image processing method and program
JP2009021909A (en) Image adder, method, and program
JP2010213105A (en) Imaging apparatus
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP5402361B2 (en) Imaging apparatus, image processing method, and program
JP2011041041A (en) Imaging apparatus, imaging method and program
JP5131399B2 (en) Image processing apparatus, image processing method, and program
JP2011223265A (en) Image evaluation device
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP5310361B2 (en) Imaging apparatus, image processing method, and program
JP5024033B2 (en) Object tracking device, object tracking program, and object tracking method
JP5565227B2 (en) Image processing apparatus, image processing method, and program
JP5494537B2 (en) Image processing apparatus and program
JP2010278701A (en) Image combining device, and image combining method and program
JP5301690B2 (en) Imaging apparatus, method, and program
JP2011175663A (en) Imaging device, image processing method, and program
JP4803319B2 (en) Imaging apparatus, image processing method, and program
JP2023065229A (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120723

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131014

R150 Certificate of patent or registration of utility model

Ref document number: 5402361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees