JP2011035650A - Image pickup apparatus, image processing method and program - Google Patents
Image pickup apparatus, image processing method and program Download PDFInfo
- Publication number
- JP2011035650A JP2011035650A JP2009179759A JP2009179759A JP2011035650A JP 2011035650 A JP2011035650 A JP 2011035650A JP 2009179759 A JP2009179759 A JP 2009179759A JP 2009179759 A JP2009179759 A JP 2009179759A JP 2011035650 A JP2011035650 A JP 2011035650A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- extraction
- imaging
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000605 extraction Methods 0.000 claims abstract description 236
- 238000003384 imaging method Methods 0.000 claims description 251
- 238000000034 method Methods 0.000 description 96
- 230000008569 process Effects 0.000 description 92
- 238000012545 processing Methods 0.000 description 60
- 238000001514 detection method Methods 0.000 description 32
- 238000006243 chemical reaction Methods 0.000 description 24
- 239000000284 extract Substances 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 11
- 230000008602 contraction Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像された画像から被写体領域を抽出する撮像装置、画像処理方法及びプログラムに関する。 The present invention relates to an imaging apparatus, an image processing method, and a program for extracting a subject area from a captured image.
従来、撮像装置を用いて、背景内に被写体が存在する画像と被写体が存在しない背景画像を撮影して、背景画像と被写体が存在する画像から差分情報を生成し、被写体のみを抜き出すアプリケーションが知られている(例えば、特許文献1参照)。 Conventionally, there is an application that uses an imaging device to capture an image with a subject in the background and a background image without the subject, generate difference information from the background image and the image with the subject, and extract only the subject. (For example, refer to Patent Document 1).
しかしながら、上記特許文献1のように、背景内に被写体が存在する画像と被写体が存在しない背景画像とを2回に分けて撮影する場合、2回の撮影の間に画角の移動が生じ易く、被写体を抽出する処理にて背景自体の画素値に差分が発生して背景部分を被写体と誤認識して被写体の抽出を適正に行うことができないといった問題がある。
一方、1回の撮影で生成された1枚の撮影画像から被写体を切り抜く技術も知られているが、撮影環境によっては適用が困難となっている。
However, as in the above-mentioned
On the other hand, a technique for clipping a subject from a single photographed image generated by one photographing is also known, but it is difficult to apply depending on the photographing environment.
そこで、本発明の課題は、1回の撮影での被写体領域の抽出に適した撮影環境を判別することができ、被写体領域の抽出を一回の撮影で簡便に行うことができる撮像装置、画像処理方法及びプログラムを提供することである。 Accordingly, an object of the present invention is to provide an imaging apparatus and an image that can determine a shooting environment suitable for extraction of a subject area in one shooting and can easily perform extraction of a subject area in one shooting. A processing method and a program are provided.
上記課題を解決するため、請求項1に記載の発明の撮像装置は、
撮像手段と、この撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段と、この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段と、この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する第1判定手段と、前記撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する第1撮像指示手段と、前記第1判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段と、前記第1撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段と、を備えたことを特徴としている。
In order to solve the above problem, an imaging apparatus according to
Imaging means, generating means for generating an image frame of a subject extraction image for extracting a subject area imaged by the imaging means, and non-flatness of the image frame of the subject extraction image generated by the generating means A first determination unit that determines whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation unit is equal to or less than a predetermined value; An image frame of the subject extraction image when the non-flatness is determined to be less than or equal to a predetermined value by the first imaging instruction means for instructing imaging of a subject-existing image in which a subject exists. A background generation unit that generates a background image for extraction based on the image, the subject presence image captured by the imaging unit in accordance with an imaging instruction by the first imaging instruction unit, and the Based on the difference information of each pixel corresponding to the output for the background image, it is characterized by comprising, a subject extracting unit for extracting the subject region from the subject-including image.
請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記生成手段は、背景内に被写体の存在しない第1被写体抽出用画像と前記背景内に被写体の存在する第2被写体抽出用画像の各々を前記撮像手段により撮像して各々の画像フレームを生成し、前記第1被写体抽出用画像の画像フレームと前記第2被写体抽出用画像の画像フレームとの対応する各画素の相違度が所定値以下であるか否かを判定する第2判定手段を更に備え、前記背景生成手段は、前記第2判定手段により相違度が所定値以下であると判定された画素に基づいて、前記抽出用背景画像を生成することを特徴としている。
The invention according to
The generating means images each of a first subject extraction image in which no subject exists in the background and a second subject extraction image in which the subject exists in the background by the imaging means, and generates each image frame. And a second determination means for determining whether or not a difference between corresponding pixels of the image frame of the first subject extraction image and the image frame of the second subject extraction image is equal to or less than a predetermined value. The background generation means generates the background image for extraction based on a pixel whose degree of difference is determined to be equal to or less than a predetermined value by the second determination means.
請求項3に記載の発明は、請求項2に記載の撮像装置において、
前記背景生成手段は、前記第2判定手段により相違度が所定値以下であると判定された画素と同じ色の前記抽出用背景画像を生成することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to
The background generation unit generates the extraction background image having the same color as a pixel whose degree of difference is determined to be less than or equal to a predetermined value by the second determination unit.
請求項4に記載の発明は、請求項2又は3に記載の撮像装置において、
前記撮像手段により先に撮像される前記第1被写体抽出用画像と当該第1被写体抽出用画像の撮像後に撮像される前記第2被写体抽出用画像の各々の撮像条件を同じ条件に設定する撮像条件設定手段を更に備えることを特徴としている。
The invention according to
Imaging conditions for setting the imaging conditions of the first subject extraction image first captured by the imaging unit and the second subject extraction image captured after the first subject extraction image is captured to the same condition It is characterized by further comprising setting means.
請求項5に記載の発明は、請求項4に記載の撮像装置において、
前記撮像条件設定手段は、更に、前記第2被写体抽出用画像の撮像後に、前記撮像手段により前記被写体存在画像を撮像する際の撮像条件を設定することを特徴としている。
The invention according to
The imaging condition setting means is further characterized in that after the second subject extraction image is captured, an imaging condition for capturing the subject existing image by the imaging means is set.
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、
前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するための抽出用情報を生成する第1抽出用情報生成手段を更に備え、前記被写体抽出手段は、前記第1抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴としている。
Invention of
First extraction information generating means for generating extraction information for extracting the subject region from the subject existing image based on difference information of corresponding pixels between the subject existing image and the extraction background image; Further, the subject extraction means extracts the subject region from the subject existing image using the extraction information generated by the first extraction information generation means.
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、
前記演算手段は、前記非平坦度として、前記被写体抽出用画像の複数の特徴点を抽出し、前記第1判定手段は、更に、前記演算手段により抽出された前記複数の特徴点が所定値以下であるか否かを判定し、前記背景生成手段は、更に、前記第1判定手段により特徴点が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴としている。
The invention according to claim 7 is the imaging apparatus according to any one of
The calculation means extracts a plurality of feature points of the subject extraction image as the non-flatness, and the first determination means further includes the plurality of feature points extracted by the calculation means being a predetermined value or less. The background generation means further generates the background image for extraction when the first determination means determines that the feature point is equal to or less than a predetermined value. Yes.
請求項8に記載の発明は、請求項1〜7の何れか一項に記載の撮像装置において、
前記演算手段は、前記非平坦度として、前記被写体抽出用画像の複数の画像領域内の画素値のばらつき量を演算し、前記第1判定手段は、更に、前記演算手段により演算された前記複数の画像領域内の画素値のばらつき量が所定値以下であるか否かを判定し、前記背景生成手段は、更に、前記第1判定手段により画素値のばらつき量が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴としている。
The invention according to
The calculation means calculates, as the non-flatness, a variation amount of pixel values in a plurality of image regions of the subject extraction image, and the first determination means further includes the plurality of the calculation values calculated by the calculation means. It is determined whether or not the variation amount of the pixel value in the image area is equal to or less than a predetermined value, and the background generation unit further determines that the variation amount of the pixel value is equal to or less than the predetermined value by the first determination unit. In such a case, the extraction background image is generated.
請求項9に記載の発明は、請求項1〜8の何れか一項に記載の撮像装置において、
前記撮像手段は、前記第1判定手段により前記被写体抽出用画像の非平坦度が所定値以下であると判定された場合に、前記被写体存在画像を撮像することを特徴としている。
The invention according to
The image pickup means picks up the subject existing image when the first determination means determines that the non-flatness of the subject extraction image is a predetermined value or less.
請求項10に記載の発明は、請求項1〜9の何れか一項に記載の撮像装置において、
前記第1判定手段により非平坦度が所定値以下でないと判定された場合に、前記被写体存在画像の背景と同一の背景内に被写体の存在しない被写体非存在画像の前記撮像手段による撮像を指示する第2撮像指示手段を更に備え、前記被写体抽出手段は、前記第2撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体非存在画像と前記被写体存在画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出することを特徴としている。
The invention according to
When the first determination unit determines that the non-flatness is not equal to or less than a predetermined value, the imaging unit instructs the imaging unit to capture a subject nonexistent image in the same background as the background of the subject existing image. A second imaging instruction means, wherein the subject extraction means is a difference between corresponding pixels of the subject non-existence image captured by the imaging means and the subject presence image in accordance with an imaging instruction by the second imaging instruction means; The subject area is extracted from the subject existing image based on the information.
請求項11に記載の発明は、請求項10に記載の撮像装置において、
前記被写体非存在画像と前記被写体存在画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するための抽出用情報を生成する第2抽出用情報生成手段を更に備え、前記被写体抽出手段は、前記第2抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴としている。
The invention according to
Second extraction information generating means for generating extraction information for extracting the subject region from the subject presence image based on difference information of corresponding pixels between the subject non-existence image and the subject presence image. Further, the subject extraction means is characterized in that the subject area is extracted from the subject existing image using the extraction information generated by the second extraction information generation means.
請求項12に記載の発明の画像処理方法は、
撮像手段と、この撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する撮像指示手段とを備える撮像装置に、前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成ステップと、この生成ステップにより生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算ステップと、この演算ステップにより演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定ステップと、この判定ステップにより非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成ステップと、前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するステップと、を実行させることを特徴としている。
An image processing method according to a twelfth aspect of the present invention includes:
A subject extraction image for extracting a subject area imaged by the imaging means in an imaging apparatus comprising an imaging means and an imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means A generation step for generating the image frame, a calculation step for calculating the non-flatness of the image frame of the subject extraction image generated by the generation step, and an image of the subject extraction image calculated by the calculation step A determination step for determining whether or not the non-flatness of the frame is equal to or less than a predetermined value, and when it is determined by this determination step that the non-flatness is equal to or less than a predetermined value, the image frame of the subject extraction image A background generation step of generating a background image for extraction based on the image, and imaging by the imaging unit according to an imaging instruction by the imaging instruction unit Based on the difference information of each pixel corresponding to the subject-image and the extracted background image, it is characterized in that to execute the steps of extracting the subject region from the subject-including image.
請求項13に記載の発明のプログラムは、
撮像手段と、この撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する撮像指示手段とを備える撮像装置のコンピュータを、前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段、この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段、この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定手段、前記判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段、前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段、として機能させることを特徴としている。
The program of the invention described in
A computer of an imaging apparatus comprising imaging means and imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means, subject extraction for extracting a subject area imaged by the imaging means Generating means for generating an image frame of the image for calculation, calculating means for calculating the non-flatness of the image frame of the image for subject extraction generated by the generating means, and the image of the image for subject extraction calculated by the calculating means A determination unit that determines whether or not the non-flatness of the frame is equal to or less than a predetermined value, and when the non-flatness is determined to be equal to or less than the predetermined value by the determination unit, based on the image frame of the subject extraction image Background generation means for generating a background image for extraction, and the subject existing image imaged by the imaging means in accordance with an imaging instruction by the imaging instruction means The extraction based on the corresponding differential information of each pixel of the background image, is characterized in that to function as the subject extracting unit for extracting the subject region from the subject-including image and.
本発明によれば、1回の撮影での被写体領域の抽出に適した撮影環境を判別することができ、この撮影環境にて被写体領域の抽出を一回の撮影で簡便に行うことができる。 According to the present invention, it is possible to determine a shooting environment suitable for extracting a subject area in one shooting, and it is possible to easily extract a subject area in one shooting in this shooting environment.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
[実施形態1]
実施形態1の撮像装置100は、第1被写体抽出用画像P2aの画像フレームの非平坦度が所定値以下であると判定された場合に、当該第1被写体抽出用画像P2aの画像フレームに基づいて抽出用背景画像P3を生成して、抽出用背景画像P3と被写体存在画像P1aの対応する各画素の差分情報に基づいて、被写体存在画像P1aから被写体領域を抽出する。
[Embodiment 1]
When it is determined that the non-flatness of the image frame of the first subject extraction image P2a is equal to or less than a predetermined value, the
図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、解像度変換部6と、非平坦度演算部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、CPU13とを備えている。
また、撮像制御部3と、非平坦度演算部7と、画像処理部8と、CPU13は、例えば、カスタムLSI1Aとして設計されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an
As illustrated in FIG. 1, the
Further, the imaging control unit 3, the non-flatness calculation unit 7, the
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体Sの撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The
Although not shown, the
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
The
このように構成されたレンズ部1及び電子撮像部2は、撮像手段を構成している。
The
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮影時にライブビュー画像表示を行う場合には、撮像制御部3は、電子撮像部2により被写体Sを所定の撮像フレームレートで連続して撮像させて、各画像フレームを電子撮像部2から画像データ生成部4に逐次出力させる。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the
When live view image display is performed at the time of shooting, the imaging control unit 3 causes the
また、撮像制御部3は、撮像条件設定手段として、レンズ部1及び電子撮像部2による撮像条件の調整制御を行う。例えば、撮像制御部3は、レンズ部1を光軸方向に移動させて合焦条件を調整するAF(自動合焦処理)や、露出条件(シャッター速度、絞り、増幅率等)を調整するAE(自動露出処理)や、ホワイトバランスを調整するAWB(自動ホワイトバランス)等を行う。
具体的には、第1被写体抽出用画像P2aのライブビュー画像の非平坦度の判定処理(後述)にて、特徴点や当該特徴点内の画素値のばらつき量が所定値以下であると判定された後、第1被写体抽出用画像P2a(図6(b)参照)が撮像された場合には、撮像制御部3は、当該第1被写体抽出用画像P2aの撮像の際の撮像条件を固定した状態を維持する。
そして、ユーザによるシャッタボタン12aの撮像指示操作に基づいて、撮像制御部3は、第1被写体抽出用画像P2aの撮像後に固定された撮像条件で、レンズ部1を通過した被写体存在画像P1a(図7(a)参照)と同一の画角の光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から第2被写体抽出用画像P2b(図6(c)参照)に係る画像フレームを読み出させる。即ち、撮像制御部3は、レンズ部1及び電子撮像部2によりライブビュー画像として撮像される第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bの各々の撮像条件を同じ条件に設定する。
Further, the imaging control unit 3 performs adjustment control of imaging conditions by the
Specifically, in the non-flatness determination process (described later) of the live view image of the first subject extraction image P2a, it is determined that the variation amount of the feature point and the pixel value in the feature point is equal to or less than a predetermined value. After that, when the first subject extraction image P2a (see FIG. 6B) is captured, the imaging control unit 3 fixes the imaging conditions when capturing the first subject extraction image P2a. Maintain the state.
Then, based on the imaging instruction operation of the
また、撮像制御部3は、第2被写体抽出用画像P2bの画像フレームの撮像後に、レンズ部1及び電子撮像部2により撮像される被写体存在画像P1aの撮像条件を被写体Sに合わせて調整する。その後、撮像制御部3は、レンズ部1を通過した被写体存在画像P1aの光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から第2被写体抽出用画像P2bに係る画像フレームを読み出させる。
なお、被写体存在画像P1aの撮像の際には、レンズ部1のレンズ位置の調整動作に時間がかかることを考慮すると、AF(自動合焦処理)を行わずに、例えば、AE(自動露出処理)やAWB(自動ホワイトバランス)等を行うのが好ましい。
Further, the imaging control unit 3 adjusts the imaging condition of the subject existing image P1a captured by the
Note that when taking the subject presence image P1a, considering that it takes time to adjust the lens position of the
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an
なお、A/D変換後のデジタルデータを現像するデモザイク部(図示略)が、カスタムLSI1Aに実装されていても良い。
A demosaic unit (not shown) for developing the digital data after A / D conversion may be mounted on the
画像メモリ5は、例えば、DRAM等により構成され、解像度変換部6と、非平坦度演算部7と、画像処理部8と、CPU13等によって処理されるデータ等を一時記憶する。
The
解像度変換部6は、画像メモリ5に格納された画像のYUVデータを取得して、当該YUVデータに対して解像度変換処理を行う。具体的には、解像度変換部6は、撮影時にライブビュー画像表示を行う場合に、電子撮像部2により所定の撮像フレームレートで連続して撮像され、画像データ生成部4により生成された画像フレーム(例えば、3200×2400画素)のYUVデータに基づいて、ライブビュー画像表示用の画像フレーム(例えば、320×240画素)のYUVデータを逐次生成する。
即ち、解像度変換部6は、画像データ生成部4により生成された被写体抽出用画像(第1被写体抽出用画像P2a及び第2被写体抽出用画像P2b;図6(b)、図6(c)参照)のYUVデータに基づいて、当該被写体抽出用画像のライブビュー画像表示用の画像フレーム(例えば、第1ライブビュー画像や第2ライブビュー画像等)のYUVデータを順次生成する。
ここで、解像度変換部6は、レンズ部1及び電子撮像部2により撮像された被写体抽出用画像の画像フレームを生成する生成手段を構成している。
The
That is, the
Here, the
非平坦度演算部7は、演算手段として、第1被写体抽出用画像P2aの画像フレームの非平坦度を演算する。具体的には、非平坦度演算部7は、特徴量演算部7aと、ばらつき量算出部7bとを具備する。
The non-flatness calculation unit 7 calculates non-flatness of the image frame of the first subject extraction image P2a as calculation means. Specifically, the non-flatness calculation unit 7 includes a feature
特徴量演算部7aは、非平坦度として、第1被写体抽出用画像P2aの画像フレームから特徴点を抽出する特徴抽出処理を行う。
具体的には、特徴量演算部7aは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)に基づいて、高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出する。
The
Specifically, the feature
ばらつき量算出部7bは、非平坦度として、特徴点内の画素値のばらつき量を算出する。
ばらつき量算出部7bは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)の特徴点(ブロック領域)内の画素値のばらつき量として、例えば、標準偏差を下記式(1)に従って算出する。
The variation
このように、特徴量演算部7a及びばらつき量算出部7bは、第1被写体抽出用画像P2aの画像フレームの非平坦度を演算する演算手段を構成している。
As described above, the feature
画像処理部8は、非平坦度演算処理にて演算された非平坦度の判定を行う非平坦度判定部8aを具備している。
非平坦度判定部8aは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)の特徴点、即ち、特徴量演算部7aにより抽出された第1ライブビュー画像の特徴の高いブロック領域が所定値以下であるか否かを判定する。また、非平坦度判定部8aは、ばらつき量算出部7bにより算出された第1ライブビュー画像の特徴点内の画素値のばらつき量が所定値以下であるか否かを判定する。
ここで、非平坦度判定部8aは、被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する第1判定手段を構成している。
The
The
Here, the
また、画像処理部8は、複数の画像の対応する画素どうしの相違度を算出する相違度算出部8bを具備している。
相違度算出部8bは、解像度変換部6により生成された第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)と第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレーム(第2ライブビュー画像)との対応する各画素の相違度Dを下記式(2)に従って算出する。また、相違度算出部8bは、背景生成処理にて生成された抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度Dを下記式(2)に従って算出する。
また、上記した相違度Dの算出式(2)は、一例であってこれに限られるものではない。
Further, the
The
Further, the calculation formula (2) for the degree of difference D described above is an example, and the present invention is not limited to this.
また、画像処理部8は、相違度算出部8bにより算出された複数の画像の対応する画素どうしの相違度Dを判定する相違度判定部8cを具備している。
相違度判定部8cは、相違度算出部8bにより算出された第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dが所定値以下であるか否かを判定する。
ここで、相違度判定部8cは、第1被写体抽出用画像P2aの画像フレームと第2被写体抽出用画像P2bの画像フレームとの対応する各画素の相違度Dが所定値以下であるか否かを判定する第2判定手段を構成している。
In addition, the
The
Here, the
また、画像処理部8は、クロマキー技術を利用して被写体領域を抽出するための抽出用背景画像P3を生成する背景生成部8dを具備している。
背景生成部8dは、非平坦度判定部8aによって、第1ライブビュー画像の特徴点が所定値以下であり、且つ、特徴点内の画素値のばらつき量が所定値以下であると判定された場合に、第1被写体抽出用画像P2aに基づいて抽出用背景画像P3を生成する。具体的には、相違度判定部8cにより第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dが所定値以下であると判定された場合に、背景生成部8dは、当該相違度Dが所定値以下であると判定された画素と同じ色の抽出用背景画像P3を生成する。例えば、図6(b)に示すように、特徴量の少ない無地の背景をバックに被写体Sを撮影する場合、第1被写体抽出用画像P2aの特徴量が少なくなり、当該第1被写体抽出用画像P2aを第2被写体抽出用画像P2bと重ねた状態で、被写体Sが重ならない領域の画素と同じ色の抽出用背景画像P3を生成する。
なお、クロマキーとは、特定の色背景を用いて一の画像データから被写体Sを切り抜く手法である。クロマキーでは、通常、背景に被写体Sと補色の関係にある青や緑のスクリーンを用いるようになっている。そこで、第1被写体抽出用画像P2aと第2被写体抽出用画像P2bとの相違度が所定値以下の画素と同じ色の抽出用背景画像P3を生成することで、抽出用背景画像P3と被写体存在画像P1aの色情報を基にして背景部分と被写体S部分を分離することができる。
In addition, the
In the
Note that the chroma key is a method of cutting out the subject S from one image data using a specific color background. In the chroma key, a blue or green screen having a complementary color relationship with the subject S is usually used as the background. Therefore, by generating the extraction background image P3 having the same color as the pixel whose difference between the first subject extraction image P2a and the second subject extraction image P2b is a predetermined value or less, the extraction background image P3 and the subject exist. The background portion and the subject S portion can be separated based on the color information of the image P1a.
ここで、背景生成部8dは、非平坦度判定部8aにより第1被写体抽出用画像P2aの非平坦度が所定値以下であると判定された場合に、第1被写体抽出用画像P2aの画像フレームに基づいて抽出用背景画像P3を生成する背景生成手段を構成している。
Here, when the
また、画像処理部8は、被写体存在画像P1aから被写体領域を抽出するためのマスク画像Mを生成するマスク生成部8eを具備している。
マスク生成部8eは、相違度算出部8bにより算出された抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度Dに基づいて相違度マップを生成する。そして、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化(0、255)してマスク画像Mを生成する。
The
The
また、マスク生成部8eは、細かいノイズを除去するための収縮処理を行って所定値よりも小さい画素集合を除いた後、収縮分を修正するための膨張処理を行い、その後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めも行う。さらに、マスク生成部8eは、領域情報に対して平均化フィルタをかけて領域の縁部に合成階調をつける。
ここで、マスク生成部8eは、抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度(差分情報)Dに基づいて、被写体存在画像P1aから被写体領域を抽出するためのマスク画像(抽出用情報)Mを生成する第1抽出用情報生成手段を構成している。
Further, the
Here, the
また、画像処理部8は、被写体Sの画像を所定の単一色背景画像P5(図7(d)参照)と合成して被写体切り抜き画像P4(図7(d)参照)の画像データを生成する切抜画像生成部8fを具備している。
切抜画像生成部8fは、αブレンドを利用して、マスク生成部8eにより生成されたマスク画像Mを用いて被写体存在画像P1aから被写体領域を切り出して、単一色背景画像P5と合成して被写体切り抜き画像P4の画像データを生成する。なお、マスク画像Mの縁部分には、合成階調がつけられているため、切り出された被写体領域と単一色背景画像P5との境界部分がはっきりしていない自然な感じに合成することができる。
ここで、切抜画像生成部8fは、抽出用背景画像P3と被写体存在画像P1aの対応する各画素の差分情報に基づいて、被写体存在画像P1aから被写体領域を抽出する被写体抽出手段を構成している。
The
The cut-out
Here, the cut-out
記録媒体9は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部8のJPEG圧縮部(図示略)により符号化された撮像画像の記録用の画像データを記憶する。
また、記録媒体9は、画像処理部8のマスク生成部8eにより生成されたマスク画像Mと、被写体切り抜き画像P4の画像データをそれぞれ圧縮した上で対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として保存する。
The
In addition, the
表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
The
Specifically, the
表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部11は、撮像モードにて、レンズ部1及び電子撮像部2による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
The
操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体Sの撮影指示に係るシャッタボタン12a、メニュー画面にて撮像モードや機能等の選択指示に係るモードボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備えている。
そして、ユーザにより操作入力部12の所定のボタンが操作されると、当該ボタンに対応する制御指示をCPU13に出力する。CPU13は、制御指示が入力されると、操作されたボタンに応じて各部を制御する処理を行う。
The
When a predetermined button of the
また、シャッタボタン12aは、第1撮像指示手段として、ユーザにより所定操作されると、電子撮像部2による被写体存在画像P1aの撮像指示をCPU13に出力する。
Further, the
CPU13は、撮像装置100の各部を制御するものである。具体的には、CPU13は、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。
The
次に、撮像装置100による画像処理方法に係る被写体切り抜き処理について、図2〜図7を参照して説明する。
図2及び図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
Next, the subject clipping process according to the image processing method performed by the
2 and 3 are flowcharts showing an example of an operation related to the subject clipping process.
被写体切り抜き処理は、ユーザによる操作入力部12のモードボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に、CPU13によって制御される当該撮像装置100の各部により実行される処理である。
図2に示すように、先ず、表示制御部10は、レンズ部1及び電子撮像部2による被写体Sの撮像に従って解像度変換部6により順次生成された画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、背景指示メッセージ(例えば、「背景に向けてください」等)を表示部11の表示画面に表示させる(ステップS1;図6(a)参照)。
The subject clipping process is controlled by the
As shown in FIG. 2, first, the
そして、表示制御部10は、レンズ部1及び電子撮像部2による被写体Sの撮像によって、解像度変換部6により順次生成された第1被写体抽出用画像P2aの画像フレームに基づいてライブビュー画像を更新させる制御を行う(ステップS2)。ライブビュー画像の更新が行われる毎に、非平坦度演算部7の特徴量演算部7aは、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)のYUVデータに基づいて、特徴の高いブロック領域(特徴点)を抽出し、ばらつき量算出部7bは、各ブロック領域内のばらつき量としての標準偏差を式(1)に従って算出する(ステップS3)。
次に、非平坦度判定部8aは、特徴量演算部7aにより抽出された特徴の高い特徴点(ブロック領域)が所定値以下であるか否か、及びばらつき量算出部7bにより算出されたブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定することで、特徴点及び当該ブロック領域内の画素値のばらつき量がないか否かを判断する(ステップS4)。
ここで、特徴点及び当該ブロック領域内の画素値のばらつき量があると判断されると(ステップS4;NO)、CPU13は、ユーザによる操作入力部12の所定操作に基づいて終了指示が入力された否かを判定する(ステップS5)。
Next, the
Here, when it is determined that there is a variation amount between the feature point and the pixel value in the block area (step S4; NO), the
ステップS5にて、終了指示が入力されていないと判定されると(ステップS5;NO)、CPU13は、処理をステップS2に移行して、それ以降の処理を実行する。
一方、終了指示が入力されたと判定されると(ステップS5;YES)、CPU13は、被写体切り抜き処理を終了させる。
If it is determined in step S5 that an end instruction has not been input (step S5; NO), the
On the other hand, if it is determined that an end instruction has been input (step S5; YES), the
また、ステップS4にて、特徴点及び当該ブロック領域内の画素値のばらつき量がないと判断されると(ステップS4;YES)、即ち、例えば、特徴量の少ない無地の背景をバックに被写体Sを撮影する場合(図6(b)参照)、撮像制御部3は、背景内に被写体Sの存在しない第1被写体抽出用画像P2aの光学像を所定の撮像条件で電子撮像部2に撮像させ、解像度変換部6は、当該撮像によって画像データ生成部4により生成された第1被写体抽出用画像P2aのYUVデータに基づいて、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレーム(第1ライブビュー画像)を生成して、画像メモリ5に保存する(ステップS6)。
その後、撮像制御部3は、当該第1被写体抽出用画像P2aの撮像の際の合焦位置(AF)や露出条件(AE)やホワイトバランス(AWB)等の撮像条件を固定した状態を維持する(ステップS7)。
If it is determined in step S4 that there is no variation amount between the feature point and the pixel value in the block area (step S4; YES), for example, the subject S with a plain background having a small feature amount as a background. (See FIG. 6B), the imaging control unit 3 causes the
Thereafter, the imaging control unit 3 maintains a state in which imaging conditions such as a focus position (AF), an exposure condition (AE), and a white balance (AWB) at the time of imaging the first subject extraction image P2a are fixed. (Step S7).
次に、表示制御部10は、ライブビュー画像に重畳させて撮像指示メッセージ(例えば、「被写体Sを撮影してください」等)を表示部11の表示画面に表示させる(ステップS8;図6(b)参照)。
その後、表示制御部10は、レンズ部1及び電子撮像部2による被写体Sの撮像に従って解像度変換部6により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行う(ステップS9)。ライブビュー画像の更新が行われる際に、CPU13は、ユーザにより操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたか否かを判定する(ステップS10)。
Next, the
Thereafter, the
ステップS10にて、撮像指示が入力されていないと判定されると(ステップS10;NO)、ユーザによる操作入力部12の所定操作に基づいて終了指示が入力された否かを判定する(ステップS11)。
ここで、終了指示が入力されていないと判定されると(ステップS11;NO)、CPU13は、処理をステップS9に移行して、それ以降の処理を実行する。
一方、終了指示が入力されたと判定されると(ステップS11;YES)、CPU13は、被写体切り抜き処理を終了させる。
If it is determined in step S10 that an imaging instruction has not been input (step S10; NO), it is determined whether an end instruction has been input based on a predetermined operation of the
If it is determined that the end instruction has not been input (step S11; NO), the
On the other hand, if it is determined that an end instruction has been input (step S11; YES), the
その後、ユーザは、被写体Sを画角内に移動させる、或いは被写体Sが移動するのを待った後(図6(c)参照)、ステップS10にて、撮像指示が入力されたと判定されると(ステップS10;YES)、撮像制御部3は、背景内に被写体Sの存在する第2被写体抽出用画像P2bの光学像を所定の撮像条件で電子撮像部2に撮像させ、解像度変換部6は、当該撮像によって画像データ生成部4により生成された第2被写体抽出用画像P2bのYUVデータに基づいて、第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレーム(第2ライブビュー画像)を生成して、画像メモリ5に保存する(ステップS12)。
Thereafter, the user moves the subject S within the angle of view or waits for the subject S to move (see FIG. 6C), and then determines in step S10 that an imaging instruction has been input ( (Step S10; YES), the imaging control unit 3 causes the
図3に示すように、続けて、撮像制御部3は、被写体存在画像P1a(図7(a)参照)の撮像の際の露出条件(AE)やホワイトバランス(AWB)等の撮像条件を被写体Sに合わせて調整する(ステップS13)。なお、図7(a)にあっては、測光エリア枠Wを被写体Sの顔の位置に合わせた状態を模式的に表している。
その後、撮像制御部3は、調整された撮像条件で被写体存在画像P1aの光学像を電子撮像部2により撮像させ、電子撮像部2から転送された被写体存在画像P1aの画像フレームに基づいて、被写体存在画像P1aのYUVデータを画像データ生成部4に生成させて、当該YUVデータを画像メモリ5に一時記憶させる(ステップS14)。
これにより、特徴量の少ない背景をバックに被写体Sが撮影された被写体存在画像P1aが生成される。
As shown in FIG. 3, the imaging control unit 3 continues to set the imaging conditions such as the exposure condition (AE) and white balance (AWB) when imaging the subject existing image P1a (see FIG. 7A). Adjust according to S (step S13). FIG. 7A schematically shows a state in which the photometric area frame W is aligned with the face position of the subject S.
Thereafter, the imaging control unit 3 causes the
As a result, a subject existing image P1a in which the subject S is photographed against a background with a small feature amount is generated.
次に、CPU13は、非平坦度演算部7及び画像処理部8に、被写体存在画像P1aから被写体領域を抽出するための抽出用背景画像P3を生成させる背景生成処理を行わせる(ステップS15)。
Next, the
ここで、背景生成処理について図4を参照して詳細に説明する。
図4は、背景生成処理に係る動作の一例を示すフローチャートである。
図4に示すように、画像処理部8の相違度算出部8bは、画像メモリ5に保存されている第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dを下記式(2)に従って算出する(ステップS31)。
FIG. 4 is a flowchart illustrating an example of an operation related to the background generation process.
As shown in FIG. 4, the
次に、画像処理部8の相違度判定部8cは、相違度算出部8bにより算出された第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dが所定値以下であるか否かを判定して、相違度Dが所定値以下である画素の集合を背景領域として特定する(ステップS32)。
続けて、非平坦度演算部7の特徴量演算部7aは、相違度判定部8cにより特定された背景領域を第1被写体抽出用画像P2aの画像フレームに適用した後、当該第1被写体抽出用画像P2aの画像フレームに基づいて、高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出し、ばらつき量算出部7bは、特徴量演算部7aにより抽出された特徴点(ブロック領域)内の画素値のばらつき量として、標準偏差を下記式(1)に従って算出する(ステップS33)。
Subsequently, the feature
次に、非平坦度判定部8aは、特徴量演算部7aにより抽出された特徴点、及びばらつき量算出部7bにより算出された特徴点の評価を行う(ステップS34)。具体的には、非平坦度判定部8aは、第1被写体抽出用画像P2aの各特徴点(ブロック領域)内の画素値のばらつき量が所定値以下であるか否かを判定し、当該判定の結果、ブロック領域内の画素値のばらつき量が所定値以下であると判定されたブロック領域を計数して、ブロック領域が複数あるか否かを判断する。さらに、非平坦度判定部8aは、画素値のばらつき量が所定値以下であると判断され、ばらつきがないとみなされたブロック領域のうち、同じ色のブロック領域を計数する。
そして、非平坦度判定部8aは、ばらつきがなく、同じ色のブロック領域の数が所定数(例えば画像全体のブロック数の半分)以上であるか否かを判定する(ステップS35)。
ここで、ばらつきがなく、同じ色のブロック領域が所定数以上あると判断されると(ステップS35;YES)、背景生成部8dは、第1被写体抽出用画像P2aの当該ブロック領域の色と同じ色を背景色とする抽出用背景画像P3のYUVデータを生成(ステップS36)して、背景生成成功とする(ステップS37)。
Next, the
Then, the
Here, when it is determined that there is no variation and there are a predetermined number or more of block areas of the same color (step S35; YES), the
一方、ステップS35にて、ばらつきがなく、同じ色のブロック領域が所定数に満たないと判断されると(ステップS35;NO)、例えば、ばらつきのない安定したブロック領域があっても、同じ色のブロック領域がない場合等には背景が特定できないため、抽出用背景画像P3を生成せずに、背景生成失敗とする(ステップS38)。
これにより、背景生成処理を終了する。
On the other hand, if it is determined in step S35 that there is no variation and the number of block regions of the same color is less than the predetermined number (step S35; NO), for example, even if there is a stable block region without variation, the same color If there is no block area, the background cannot be specified. Therefore, the extraction background image P3 is not generated, and background generation fails (step S38).
Thereby, the background generation process is terminated.
図3に示すように、次に、背景生成部8dは、背景生成が成功したか否かを判定する(ステップS16)。
ここで、背景生成が成功したと判定されると(ステップS16;YES)、CPU13は、画像処理部8に、被写体存在画像P1aから被写体Sが含まれる被写体領域を検出する第1領域検出処理を行わせる(ステップS17)。
As illustrated in FIG. 3, the
If it is determined that the background generation has succeeded (step S16; YES), the
ここで、第1領域検出処理について図5を参照して詳細に説明する。
図5は、第1領域検出処理に係る動作の一例を示すフローチャートである。
図5に示すように、画像処理部8の相違度算出部8bは、背景生成処理にて生成された抽出用背景画像P3を被写体存在画像P1aの実撮像サイズに合わせて拡大(リサイズ)した後(ステップS50)、拡大された抽出用背景画像P3と被写体存在画像P1aとの対応する各画素の相違度Dを下記式(2)に従って算出し、画像処理部8のマスク生成部8eは、算出された相違度Dに基づいて相違度マップを生成する(ステップS51)。
FIG. 5 is a flowchart illustrating an example of an operation related to the first region detection process.
As illustrated in FIG. 5, the
次に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像を生成する(ステップS52)。そして、マスク生成部8eは、例えば、背景(二値化;0)の領域が著しく小さいか否か等を判定することで、二値化が成功したか否かを判断する(ステップS53)。
ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、被写体領域の周辺部の残り過ぎを修正したり細かいノイズを除去するため、マスク画像Mの画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
Next, the
Here, if it is determined that the binarization has succeeded (step S53; YES), the
続けて、被写体Sに背景色と似たような色がある場合、マスク画像Mの被写体領域内が欠損するため、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像Mの画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。
そして、マスク生成部8eは、マスク画像Mの画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。
Subsequently, when the subject S has a color similar to the background color, the subject region of the mask image M is lost, and thus the
Then, the
一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、例えば、背景(二値化;0)の領域が著しく小さい場合などには、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、第1領域検出処理を終了する。
On the other hand, if it is determined in step S53 that the binarization has not been successful (step S53; NO), for example, if the background (binarization; 0) region is extremely small, the
Thus, the first area detection process is terminated.
図3に示すように、次に、マスク生成部8eは、被写体領域の検出が成功したか否かを判定する(ステップS18)。
ここで、被写体領域の検出が成功したと判定されると(ステップS18;YES)、切抜画像生成部8fは、αブレンドを利用して、第1領域検出処理にて生成されたマスク画像Mを用いて被写体存在画像P1aから被写体領域を切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成する(ステップS19)。
具体的には、切抜画像生成部8fは、被写体存在画像P1a、単一色背景画像P5及びマスク画像Mの画像データを読み出して画像メモリ5に展開した後、被写体存在画像P1aのうち、マスク画像Mの画像データの塗りつぶした部分(被写体S以外の斜線部分)で覆われる画素については、単一色背景画像P5の所定の単一色で塗りつぶす一方で、被写体S部分の画素については、何もせずに所定の単一色に対して透過させないようにする。なお、マスク画像Mの縁部分には、合成階調がつけられているため、切り出された被写体領域と単一色背景画像P5との境界部分がはっきりしていない自然な感じとなる。
その後、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体Sが重畳された被写体切り抜き画像P4を表示部11の表示画面に表示させる(図7(c)参照)。
As shown in FIG. 3, next, the
Here, if it is determined that the detection of the subject region has succeeded (step S18; YES), the cut-out
Specifically, the cut-out
Thereafter, the
次に、CPU13は、記録媒体9の所定の記憶領域に、画像処理部8のマスク生成部8eにより生成されたマスク画像Mの画像データと被写体切り抜き画像P4の画像データを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させる(ステップS20)。
これにより、被写体切り抜き処理を終了する。
Next, the
Thereby, the subject clipping process is completed.
一方、ステップS18にて、被写体領域の検出が成功しなかったと判定されると(ステップS18;NO)、CPU13は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体Sの切り抜きに失敗しました」等)を表示部11の表示画面に表示させて(ステップS21)、被写体切り抜き処理を終了する。
また、ステップS16にて、背景生成が成功しなかったと判定された場合にも(ステップS16;NO)、CPU13は、処理をステップS21に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面に表示させた後(ステップS21)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S18 that the detection of the subject area has not been successful (step S18; NO), the
Also, when it is determined in step S16 that the background generation has not been successful (step S16; NO), the
以上のように、本実施形態の撮像装置100によれば、背景内に被写体Sの存在しない第1被写体抽出用画像P2aの画像フレームを生成して、この第1被写体抽出用画像P2aの画像フレームの非平坦度を演算する。そして、第1被写体抽出用画像P2aの画像フレームの非平坦度が所定値以下であるか否かに応じて、1回の撮影での被写体領域の抽出に適した撮影環境であるか否かを判別することができる。
具体的には、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレームから複数の特徴点を抽出し、抽出された複数の特徴点が所定値以下であるか否かを判定する。また、複数の特徴点(ブロック領域)内の画素値のばらつき量を演算し、演算された複数の特徴点内の画素値のばらつき量が所定値以下であるか否かを判定する。そして、特徴点が所定値以下であると判定され、且つ、特徴点内の画素値のばらつき量が所定値以下であると判定された場合には、例えば、撮影環境が特徴量の少ない背景(例えば、一様な背景)をバックに被写体Sを撮影する環境であり、1回の撮影での被写体領域の抽出に適した撮影環境であると判別することができる。
第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレームの非平坦度が所定値以下であると判定されると、第1被写体抽出用画像P2aの画像フレームに基づいて抽出用背景画像P3を生成する。具体的には、背景内に被写体Sの存在しない第1被写体抽出用画像P2aと背景内に被写体Sの存在する第2被写体抽出用画像P2aの各々の画像フレームの対応する各画素の相違度Dが所定値以下であると判定された画素と同じ色の抽出用背景画像P3を生成する。そして、シャッタボタン12aによる撮像指示に従って電子撮像部2により撮像された被写体存在画像P1aと抽出用背景画像P3との対応する各画素の相違度Dに基づいてマスク画像Mを生成して、当該マスク画像Mを用いて被写体存在画像P1aから被写体領域を抽出する。
従って、被写体存在画像P1aの撮影を一回行うだけで、被写体領域の抽出のための背景画像の撮像を別途行わなくとも抽出用背景画像P3を生成することができ、当該抽出用背景画像P3を用いて生成されたマスク画像Mを利用して被写体存在画像P1aから被写体領域を簡便に抽出することができる。
As described above, according to the
Specifically, a plurality of feature points are extracted from the live view image display image frame of the first subject extraction image P2a, and it is determined whether or not the extracted feature points are equal to or less than a predetermined value. In addition, the amount of variation in pixel values in a plurality of feature points (block regions) is calculated, and it is determined whether or not the amount of variation in pixel values in the plurality of feature points is equal to or less than a predetermined value. When it is determined that the feature point is equal to or smaller than the predetermined value and the variation amount of the pixel value within the characteristic point is determined to be equal to or smaller than the predetermined value, for example, the background ( For example, it can be determined that this is an environment in which the subject S is photographed with a uniform background) and is suitable for extraction of the subject region in one photographing.
If it is determined that the non-flatness of the image frame for displaying the live view image of the first subject extraction image P2a is equal to or less than a predetermined value, the extraction background image P3 is based on the image frame of the first subject extraction image P2a. Is generated. Specifically, the degree of difference D between the corresponding pixels of each image frame of the first subject extraction image P2a where the subject S does not exist in the background and the second subject extraction image P2a where the subject S exists in the background. An extraction background image P3 having the same color as the pixel determined to be equal to or less than a predetermined value is generated. Then, a mask image M is generated based on the difference D between the corresponding pixels of the subject presence image P1a captured by the
Therefore, it is possible to generate the extraction background image P3 by performing only one shooting of the subject presence image P1a without separately capturing a background image for extracting the subject region. The subject region can be easily extracted from the subject presence image P1a using the mask image M generated by using the mask image M.
また、先に撮像される第1被写体抽出用画像P2aと当該第1被写体抽出用画像P2aの撮像後に撮像される第2被写体抽出用画像P2bの各々の撮像条件を同じ条件に設定するので、第1被写体抽出用画像P2aと第2被写体抽出用画像P2bの各々の画像フレームの対応する各画素の相違度Dの算出を適正に行うことができ、被写体領域の抽出に適した抽出用背景画像P3を生成することができる。
そして、第2被写体抽出用画像P2bの撮像後に、被写体存在画像P1aを撮像する際の撮像条件を設定し直すことで、被写体領域の抽出元となる被写体存在画像P1aの撮像を適正に行うことができ、より高画質の被写体切り抜き画像P4を得ることができる。
In addition, since the imaging conditions of the first subject extraction image P2a captured first and the second subject extraction image P2b captured after capturing the first subject extraction image P2a are set to the same condition, An extraction background image P3 suitable for extracting a subject area can be calculated appropriately by calculating the difference D between the corresponding pixels of the image frames of the one subject extraction image P2a and the second subject extraction image P2b. Can be generated.
Then, after the second subject extraction image P2b is captured, the subject presence image P1a that is the source of the subject region can be appropriately captured by resetting the imaging conditions for capturing the subject presence image P1a. Thus, a higher-quality subject cutout image P4 can be obtained.
[実施形態2]
以下に、実施形態2の撮像装置200について、図8〜図12を参照して説明する。
実施形態2の撮像装置200は、第1被写体抽出用画像P2aの非平坦度が所定値以下でないと判定された場合に、被写体存在画像P1b(図12(a)参照)の背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6(図12(b)参照)を撮像して、被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の差分情報に基づいて、被写体存在画像P1bから被写体領域を抽出する。
なお、実施形態2の撮像装置200は、以下に説明する以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、その説明は省略する。
[Embodiment 2]
Below, the
The
Note that the
非平坦度演算部7の特徴量演算部7aは、被写体存在画像P1bと被写体非存在画像P6との位置合わせ処理にて、被写体非存在画像P6を基準として、当該被写体非存在画像P6から特徴点を抽出する処理を行う。具体的には、特徴量演算部7aは、被写体非存在画像P6のYUVデータに基づいて、多数の候補ブロックから追跡に都合の良い所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロック領域の内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
The feature
また、実施形態2の撮像装置200は、被写体非存在画像P6と被写体存在画像P1bの位置合わせのためのブロックマッチング処理を行うブロックマッチング部14を備えている。
ブロックマッチング部14は、例えば、被写体非存在画像P6を基準画像とするとともに、被写体存在画像P1bを対象画像として位置合わせを行う。具体的には、ブロックマッチング部14は、特徴抽出処理にて抽出されたテンプレート(例えば、16×16画素の正方形)が被写体存在画像P1b内のどこに対応するか、つまり、被写体存在画像P1b内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P6と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
Further, the
For example, the
また、画像処理部8は、被写体存在画像P1bと被写体非存在画像P6との位置合わせを行う位置合わせ部8gを具備している。
位置合わせ部8gは、被写体非存在画像P6から抽出した特徴点に基づいて、被写体存在画像P1bと被写体非存在画像P6との位置合わせを行う。即ち、位置合わせ部8gは、被写体非存在画像P6から抽出した特徴点に基づいて、被写体非存在画像P6に対する被写体存在画像P1bの各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1bを座標変換して被写体非存在画像P6と位置合わせを行う。
具体的には、位置合わせ部8gは、ブロックマッチング部14により算出された複数のテンプレートの動きベクトルを多数決により演算して、統計的に所定%(例えば、50%)以上となると判断された動きベクトルを全体の動きベクトルとして、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出する。そして、位置合わせ部8gは、射影変換行列に従って被写体存在画像P1bを座標変換して被写体非存在画像P6と位置合わせを行う。
Further, the
The alignment unit 8g aligns the subject presence image P1b and the subject non-existence image P6 based on the feature points extracted from the subject non-existence image P6. That is, the alignment unit 8g calculates a coordinate conversion formula (projection conversion matrix) of each pixel of the subject existing image P1b with respect to the subject nonexistent image P6 based on the feature points extracted from the subject nonexistent image P6. The subject presence image P1b is coordinate-transformed according to the conversion formula and aligned with the subject non-existence image P6.
Specifically, the alignment unit 8g calculates the motion vectors of a plurality of templates calculated by the
マスク生成部8eは、相違度算出部8bにより式(2)に従って算出された被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度Dに基づいて相違度マップを生成する。そして、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化(0、255)してマスク画像Mを生成する。
ここで、マスク生成部8eは、被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度(差分情報)Dに基づいて、被写体存在画像P1bから被写体領域を抽出するためのマスク画像(抽出用情報)Mを生成する第2抽出用情報生成手段を構成している。
The
Here, the
また、操作入力部12のシャッタボタン12aは、第1被写体抽出用画像P2aの非平坦度が所定値以下でないと判定された後にユーザにより所定操作されると、被写体存在画像P1bの背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6の電子撮像部2による撮像指示をCPU13に出力する。
即ち、シャッタボタン12aは、第1被写体抽出用画像P2aの非平坦度が所定値以下でないと判定された場合に、被写体非存在画像P6の電子撮像部2による撮像を指示する第2撮像指示手段を構成している。
The
That is, the
次に、撮像装置200による被写体切り抜き処理について、図9〜図12を参照して説明する。
図9及び図10は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
なお、被写体非存在画像P6の撮像及び被写体非存在画像P6と被写体存在画像P1bとを用いた第2領域検出処理以外の処理は、実施形態1の被写体切り抜き処理と略同様であり、その詳細な説明は省略する。
Next, the subject clipping process performed by the
9 and 10 are flowcharts illustrating an example of operations related to the subject clipping process.
Note that the processing other than the imaging of the subject non-existing image P6 and the second region detection processing using the subject non-existing image P6 and the subject existing image P1b is substantially the same as the subject cropping process of the first embodiment. Description is omitted.
図9に示すように、先ず、CPU13は、画像メモリ5のフラグテーブル(図示略)に背景撮影フラグ=0を書き込んだ後(ステップS201)、実施形態1の被写体切り抜き処理と同様に、表示制御部10は、被写体Sの撮像に従って解像度変換部6により順次生成された画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、背景指示メッセージを表示部11の表示画面に表示させる(ステップS1;図6(a)参照)。
As shown in FIG. 9, first, the
そして、実施形態1の被写体切り抜き処理と同様に、表示制御部10は、第1被写体抽出用画像P2aの画像フレームに基づいてライブビュー画像を更新させる制御を行う(ステップS2)。また、ライブビュー画像の更新が行われる毎に、特徴量演算部7aは、第1ライブビュー画像のYUVデータに基づいて特徴の高いブロック領域(特徴点)を抽出し、ばらつき量算出部7bは、各ブロック領域内のばらつき量としての標準偏差を式(1)に従って算出する(ステップS3)。
次に、実施形態1の被写体切り抜き処理と同様に、非平坦度判定部8aは、特徴点(ブロック領域)が所定値以下であるか否か、及びブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定することで、特徴点及び当該ブロック領域内の画素値のばらつき量がないか否かを判断する(ステップS4)。
ここで、特徴点及び当該ブロック領域内の画素値のばらつき量があると判断されると(ステップS4;NO)、CPU13は、ユーザにより操作入力部12のシャッタボタン12aが所定操作された撮像指示が入力されたか否かを判定する(ステップS202)。
Next, similarly to the subject clipping process of the first embodiment, the
Here, if it is determined that there is a variation amount between the feature point and the pixel value in the block region (step S4; NO), the
ステップS202にて、撮像指示が入力されていないと判定されると(ステップS202;NO)、CPU13は、ユーザによる操作入力部12の所定操作に基づいて終了指示が入力された否かを判定する(ステップS5)。
ここで、終了指示が入力されていないと判定されると(ステップS5;NO)、CPU13は、処理をステップS2に移行して、それ以降の処理を実行する。
一方、終了指示が入力されたと判定されると(ステップS5;YES)、CPU13は、被写体切り抜き処理を終了させる。
If it is determined in step S202 that an imaging instruction has not been input (step S202; NO), the
If it is determined that the end instruction has not been input (step S5; NO), the
On the other hand, if it is determined that an end instruction has been input (step S5; YES), the
また、ステップS202にて、撮像指示が入力されたと判定されると(ステップS202;YES)、CPU13は、画像メモリ5のフラグテーブル(図示略)に背景撮影フラグ=1を書き込んだ後(ステップS203)、処理をステップS13に移行させて、撮像制御部3に、被写体存在画像P1b(図12(a)参照)の撮像の際の露出条件(AE)やホワイトバランス(AWB)等の撮像条件を被写体Sに合わせて調整させる(ステップS13)。その後、撮像制御部3は、調整された撮像条件で被写体存在画像P1bの光学像を電子撮像部2により撮像させ、電子撮像部2から転送された被写体存在画像P1bの画像フレームに基づいて、被写体存在画像P1bのYUVデータを画像データ生成部4に生成させて、当該YUVデータを画像メモリ5に一時記憶させる(ステップS14)。
これにより、特徴量の多い背景をバックに被写体Sが撮影された被写体存在画像P1bが生成される。
なお、撮像制御部3は、被写体存在画像P1bの撮像の際の合焦位置(AF)や露出条件(AE)やホワイトバランス(AWB)等の撮像条件を固定した状態を維持する。
If it is determined in step S202 that an imaging instruction has been input (step S202; YES), the
As a result, a subject presence image P1b in which the subject S is photographed against a background with a large amount of feature is generated.
The imaging control unit 3 maintains a state in which imaging conditions such as a focus position (AF), an exposure condition (AE), and a white balance (AWB) at the time of imaging the subject existing image P1b are fixed.
一方、ステップS4にて、特徴点及び当該ブロック領域内の画素値のばらつき量がないと判断されると(ステップS4;YES)、即ち、例えば、特徴量の少ない無地の背景をバックに被写体Sを撮影する場合は(図6(b)参照)、実施形態1の被写体切り抜き処理と同様に、CPU13は、ステップS6〜S12の各処理を行う。
これにより、第1ライブビュー画像及び第2ライブビュー画像が画像メモリ5に保存された状態となる(ステップS6、S12)。
On the other hand, if it is determined in step S4 that there is no variation amount between the feature point and the pixel value in the block area (step S4; YES), for example, the subject S with a plain background having a small feature amount as a background. When the
As a result, the first live view image and the second live view image are stored in the image memory 5 (steps S6 and S12).
次に、図10に示すように、CPU13は、背景撮影フラグ=0であるか否かを判定する(ステップS204)。
ここで、背景撮影フラグ=0でないと判定されると(ステップS204;NO)、即ち、背景撮影フラグ=1となっている場合には、CPU13は、表示制御部10に、ライブビュー画像に重畳させて、被写体存在画像P1bの半透過の表示態様の画像と被写体非存在画像P6の撮像指示メッセージ(例えば、「背景を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS205;図12(b)参照)。
Next, as shown in FIG. 10, the
If it is determined that the background shooting flag = 0 is not satisfied (step S204; NO), that is, if the background shooting flag = 1, the
その後、CPU13は、表示制御部10に、レンズ部1及び電子撮像部2による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行うとともに(ステップS206)、ユーザにより操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたか否かを判定する(ステップS207)。
この後、ユーザは、被写体Sを画角外に移動させる、或いは被写体Sが移動するのを待った後(図8(b)参照)、ステップS207にて、撮像指示が入力されたと判定されると(ステップS207;YES)、撮像制御部3は、背景内に被写体Sの存在しない被写体非存在画像P6の光学像を所定の撮像条件で電子撮像部2により撮像させ、画像データ生成部4は、電子撮像部2から転送された被写体非存在画像P6の画像フレームに基づいて、被写体非存在画像P6のYUVデータを生成して、当該YUVデータを画像メモリ5に一時記憶させる(ステップS208)。
これにより、被写体Sが存在しない特徴量の多い背景が撮影された被写体非存在画像P6が生成される。
Thereafter, the
Thereafter, after the user moves the subject S out of the angle of view or waits for the subject S to move (see FIG. 8B), when it is determined in step S207 that an imaging instruction has been input. (Step S207; YES), the imaging control unit 3 causes the
As a result, a subject non-existing image P6 in which a background with a large amount of feature without the subject S is captured is generated.
次に、CPU13は、非平坦度演算部7、ブロックマッチング部14及び画像処理部8に、被写体非存在画像P6のYUVデータを基準として、被写体存在画像P1bのYUVデータと被写体非存在画像P6のYUVデータとを位置合わせする処理を行わせる(ステップS209)。
具体的には、特徴量演算部7aは、被写体非存在画像P6のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロック領域の内容をテンプレートとして抽出する。そして、ブロックマッチング部14は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1b内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P6と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
そして、画像処理部8の位置合わせ部8gは、ブロックマッチング部14により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出した後、当該射影変換行例に基づいて被写体存在画像P1bを射影変換することで、被写体存在画像P1bのYUVデータと被写体非存在画像P6のYUVデータとを位置合わせする処理を行わせる。
Next, the
Specifically, the feature
Then, the alignment unit 8g of the
次に、画像処理部8は、位置合わせが成功したか否かを判定する(ステップS210)。即ち、画像処理部8は、ステップS209にて、複数のテンプレートの動きベクトルから全体の動きベクトルを統計的に算出でき、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出することができたか否かを判定する。
Next, the
ここで、位置合わせが成功したと判定されると(ステップS210;YES)、CPU13は、画像処理部8に、被写体存在画像P1bから被写体Sが含まれる被写体領域を検出する第2領域検出処理を行わせる(ステップS211)。
If it is determined that the alignment is successful (step S210; YES), the
ここで、第2領域検出処理について図11を参照して詳細に説明する。
図11は、第2領域検出処理に係る動作の一例を示すフローチャートである。
第2領域検出処理は、相違度算出部8bによる相違度Dの算出に係る対象が第1領域検出処理と異なる以外の点は、第1領域検出処理と略同様であり、その詳細な説明を省略する。
Here, the second region detection process will be described in detail with reference to FIG.
FIG. 11 is a flowchart illustrating an example of an operation related to the second region detection process.
The second area detection process is substantially the same as the first area detection process except that the object relating to the calculation of the difference degree D by the difference
即ち、図11に示すように、画像処理部8の相違度算出部8bは、被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度Dを下記式(2)に従って算出し、画像処理部8のマスク生成部8eは、算出された相違度Dに基づいて相違度マップを生成する(ステップS71)。
次に、第1領域検出処理と同様に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像M(図7(b)参照)を生成する(ステップS52)。そして、マスク生成部8eは、二値化が成功したか否かを判断する(ステップS53)。ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、マスク画像Mの画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
続けて、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像Mの画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。
そして、マスク生成部8eは、マスク画像Mの画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。
一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、第2領域検出処理を終了する。
Next, as in the first region detection process, the
Subsequently, the
Then, the
On the other hand, when it is determined in step S53 that the binarization has not been successful (step S53; NO), the
Thereby, the second region detection process is terminated.
図10に示すように、次に、実施形態1の被写体切り抜き処理と同様に、マスク生成部8eは、被写体領域の検出が成功したか否かを判定する(ステップS18)。
ここで、被写体領域の検出が成功したと判定されると(ステップS18;YES)、切抜画像生成部8fは、αブレンドを利用して、第2領域検出処理にて生成されたマスク画像Mを用いて被写体存在画像P1bから被写体領域を切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成する(ステップS19)。
その後、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体Sが重畳された被写体切り抜き画像P4を表示部11の表示画面に表示させる(図7(c)参照)。
As shown in FIG. 10, next, similarly to the subject clipping process of the first embodiment, the
Here, if it is determined that the detection of the subject region has succeeded (step S18; YES), the cut-out
Thereafter, the
次に、CPU13は、記録媒体9の所定の記憶領域に、画像処理部8のマスク生成部8eにより生成されたマスク画像Mの画像データと被写体切り抜き画像P4の画像データを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させる(ステップS20)。
これにより、被写体切り抜き処理を終了する。
Next, the
Thereby, the subject clipping process is completed.
一方、ステップS18にて、被写体領域の検出が成功しなかったと判定されるか(ステップS18;NO)、或いは、ステップS16にて、背景生成が成功しなかったと判定されるか(ステップS16;NO)、或いは、ステップS210にて、被写体存在画像P1bと被写体非存在画像P6との位置合わせに成功しなかったと判定された場合にも(ステップS210;NO)、CPU13は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体Sの切り抜きに失敗しました」等)を表示部11の表示画面に表示させて(ステップS21)、被写体切り抜き処理を終了する。
On the other hand, whether it is determined in step S18 that the detection of the subject area has not been successful (step S18; NO), or whether it is determined in step S16 that the background generation has not been successful (step S16; NO). Alternatively, when it is determined in step S210 that the alignment of the subject presence image P1b and the subject non-existence image P6 is not successful (step S210; NO), the
また、ステップS204にて、背景撮影フラグ=0であると判定されると(ステップS204;YES)、実施形態1の被写体切り抜き処理と同様に、CPU13は、ステップS13〜S20の各処理を行う。
即ち、特徴量の少ない背景をバックに被写体Sが撮影された被写体存在画像P1aが画像メモリ5に一時記憶された状態となる(ステップS14)。また、背景生成処理にて、第1ライブビュー画像と第2ライブビュー画像に基づいて抽出用背景画像P3が生成された後(ステップS15)、第1領域検出処理にて、抽出用背景画像P3と被写体存在画像P1aに基づいてマスク画像Mが生成される(ステップS17)。その後、被写体切り抜き画像P4(図7(b)参照)の画像データが生成されて(ステップS20)、被写体切り抜き画像P4の画像データとマスク画像Mの画像データとが対応付けられて一ファイルで保存される。
これにより、被写体切り抜き処理を終了する。
If it is determined in step S204 that the background shooting flag = 0 (step S204; YES), the
That is, the subject existing image P1a in which the subject S is photographed with the background having a small feature amount is temporarily stored in the image memory 5 (step S14). In addition, after the background generation process generates the extraction background image P3 based on the first live view image and the second live view image (step S15), the first area detection process performs the extraction background image P3. A mask image M is generated based on the subject presence image P1a (step S17). Thereafter, image data of the subject cutout image P4 (see FIG. 7B) is generated (step S20), and the image data of the subject cutout image P4 and the image data of the mask image M are associated with each other and saved as one file. Is done.
Thereby, the subject clipping process is completed.
以上のように、実施形態2の撮像装置200によれば、第1被写体抽出用画像P2aのライブビュー画像表示用の画像フレームの非平坦度が所定値以下でないと判定されると、被写体存在画像P1bの撮像後に、当該被写体存在画像P1bの背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6を撮像する。そして、当該被写体非存在画像P6と被写体存在画像P1bとの対応する各画素の相違度Dに基づいてマスク画像Mを生成して、当該マスク画像Mを用いて被写体存在画像P1bから被写体領域を抽出する。
即ち、例えば、特徴量の多い背景をバックに被写体Sを撮影する場合のように(図12(a)参照)、特徴点が所定値よりも多いと判定されると、被写体存在画像P1bの撮像後、当該被写体存在画像P1bの背景と同一の背景内に被写体Sの存在しない被写体非存在画像P6を撮像することで、これら被写体存在画像P1bと被写体非存在画像P6との位置合わせを行った後、位置合わせされた被写体存在画像P1bと被写体非存在画像P6の対応する各画素の相違度Dに基づいて、被写体存在画像P1bから被写体領域を抽出することができる。
つまり、特徴量の多い背景をバックに被写体Sを撮影する場合であっても、被写体非存在画像P6を撮像することで、被写体存在画像P1bと被写体非存在画像P6の対応する各画素の相違度Dに基づいてマスク画像Mを生成して、当該マスク画像Mを用いて被写体存在画像P1bから被写体領域を抽出することができる。
このように、ライブビュー画像表示用の画像フレームを利用することで、特徴量の少ない背景をバックに被写体Sを撮影する場合だけでなく、特徴量の多い背景をバックに被写体Sを撮影する場合にも、被写体Sの切り抜きに最適な環境を見つけることができ、より使い勝手の良い撮像装置200を提供することができる。
As described above, according to the
That is, for example, when the subject S is photographed against a background with a large amount of feature (see FIG. 12A), if it is determined that there are more feature points than a predetermined value, the subject presence image P1b is captured. After the subject nonexistent image P6 in which the subject S does not exist within the same background as the subject present image P1b is imaged, the subject present image P1b and the subject nonexistent image P6 are aligned. The subject region can be extracted from the subject presence image P1b based on the difference D between the corresponding pixels of the subject presence image P1b and the subject non-existence image P6 that are aligned.
That is, even when the subject S is photographed against a background with a large amount of features, the degree of difference between corresponding pixels of the subject present image P1b and the subject nonexistent image P6 is obtained by capturing the subject nonexistent image P6. A mask image M is generated based on D, and a subject area can be extracted from the subject presence image P1b using the mask image M.
As described above, by using the image frame for displaying the live view image, not only when shooting the subject S with the background having a small feature amount, but also when shooting the subject S with the background having a large feature amount. In addition, it is possible to find an optimum environment for clipping the subject S, and to provide an
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1、2にあっては、被写体切り抜き処理の背景生成処理(ステップS15)にて、抽出用背景画像P3を生成して、第1領域検出処理(ステップS17)にて、当該抽出用背景画像P3を用いてマスク画像Mを生成するようにしたが、マスク画像Mの生成方法はこれに限られるものではない。
即ち、例えば、第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dに基づいて、マスク画像Mを生成するようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, the extraction background image P3 is generated in the background generation process (step S15) of the subject clipping process, and the first region detection process (step S17) Although the mask image M is generated using the extraction background image P3, the method of generating the mask image M is not limited to this.
That is, for example, the mask image M may be generated based on the difference D between the corresponding pixels of the first live view image and the second live view image.
具体的には、図13に示すように、相違度算出部8bは、第1ライブビュー画像と第2ライブビュー画像との対応する各画素の相違度Dを式(2)に従って算出し、画像処理部8のマスク生成部8eは、算出された相違度Dに基づいて、相違度マップを生成する(ステップS91)。
次に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像M(図7(b)参照)の画像データを生成する(ステップS52)。そして、マスク生成部8eは、例えば、背景(二値化;0)の領域が著しく小さいか否か等を判定することで、二値化が成功したか否かを判断する(ステップS53)。
ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、被写体領域の周辺部の残り過ぎを修正したり細かいノイズを除去するため、マスク画像Mの画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
Next, the
Here, if it is determined that the binarization is successful (step S53; YES), the
続けて、被写体Sに背景色と似たような色がある場合、マスク画像Mの被写体領域内が欠損するため、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像Mの画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。
Subsequently, when the subject S has a color similar to the background color, the subject region of the mask image M is lost, and thus the
そして、マスク生成部8eは、マスク画像Mの画像データを被写体存在画像P1aの実撮像サイズにリサイズした後(ステップS92)、当該マスク画像Mの画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。
Then, the
一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、例えば、背景(二値化;0)の領域が著しく小さい場合などには、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、第1領域検出処理を終了する。
On the other hand, if it is determined in step S53 that the binarization has not been successful (step S53; NO), for example, if the background (binarization; 0) region is extremely small, the
Thus, the first area detection process is terminated.
従って、上記のようにしてマスク画像Mを生成することで、被写体切り抜き処理にて背景生成処理を行う必要がなくなる。即ち、例えば、撮像装置100(200)が三脚に固定された状態で第1被写体抽出用画像P2a、第2被写体抽出用画像P2b等の撮像が行われ、第1被写体抽出用画像P2aの撮像から第2被写体抽出用画像P2bの撮像まで不動状態が継続していた場合には、第1被写体抽出用画像P2aを抽出用背景画像として適用することができる。これにより、背景生成処理を省略することができ、被写体切り抜き処理の高速化を図ることができる。 Therefore, by generating the mask image M as described above, it is not necessary to perform the background generation process in the subject clipping process. That is, for example, the first subject extraction image P2a, the second subject extraction image P2b, and the like are captured in a state where the imaging device 100 (200) is fixed to a tripod, and the first subject extraction image P2a is captured. When the immobile state continues until the second subject extraction image P2b is captured, the first subject extraction image P2a can be applied as the extraction background image. Thereby, the background generation process can be omitted, and the subject clipping process can be speeded up.
また、上記実施形態1、2にあっては、被写体切り抜き処理のステップS4にて、第1ライブビュー画像の特徴点及び特徴点内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の何れか一方を判定することで第1被写体抽出用画像P2aの非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に、被写体存在画像P1aの撮像を行うようにしても良い。
また、背景生成処理にて、第1被写体抽出用画像P2aの特徴点及び特徴点内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の何れか一方を判定することで第1被写体抽出用画像P2aの非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に、第1被写体抽出用画像P2aから抽出用背景画像P3を生成するようにしても良い。
In the first and second embodiments, whether or not both the feature point of the first live view image and the variation amount of the pixel value in the feature point are equal to or smaller than the predetermined value in step S4 of the subject clipping process. However, the present invention is not limited to this, and non-flatness is determined by determining the non-flatness of the first subject extraction image P2a by determining either the feature point or the variation amount. When it is determined that the degree is equal to or less than the predetermined value, the subject presence image P1a may be captured.
In the background generation process, it is determined whether both the feature point of the first subject extraction image P2a and the variation amount of the pixel value in the feature point are equal to or less than a predetermined value. When the non-flatness of the first subject extraction image P2a is determined by determining either the feature point or the variation amount, and the non-flatness is determined to be equal to or less than a predetermined value. In addition, the extraction background image P3 may be generated from the first subject extraction image P2a.
さらに、生成された被写体切り抜き画像P4と所定の背景用画像(図示略)とを合成して被写体合成画像(図示略)を生成しても良い。
この被写体合成画像を生成する処理においては、被写体切り抜き画像P4の画像データについて、マスク画像Mの画像データの塗りつぶした部分(被写体S以外の斜線部分)で覆われる画素については、背景用画像の色で塗りつぶし、一方、被写体S部分の画素については、何もせずに所定の背景用画像の色に対して透過させないようにする。これにより、被写体切り抜き画像P4の被写体領域が所定の背景用画像(図示略)に重畳された被写体合成画像を生成することができる。
Furthermore, the generated subject cutout image P4 and a predetermined background image (not shown) may be combined to generate a subject composite image (not shown).
In the process of generating the subject composite image, for the image data of the subject cut-out image P4, for the pixels covered by the filled portion of the image data of the mask image M (the hatched portion other than the subject S), the color of the background image On the other hand, the pixels of the subject S portion are not transmitted to the color of the predetermined background image without doing anything. As a result, it is possible to generate a subject composite image in which the subject region of the subject cutout image P4 is superimposed on a predetermined background image (not shown).
また、上記実施形態1、2にあっては、被写体抽出用画像の非平坦度の演算や判定にて、第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレームを用いるようにしたが、第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bの画像サイズはこれに限られるものではなく、画像データ生成部4により生成された実撮像サイズの第1被写体抽出用画像P2a及び第2被写体抽出用画像P2bを用いても良い。即ち、解像度変換部6によって、ライブビュー画像表示用のサイズと異なるサイズの第1被写体抽出用画像P2a及び第2被写体抽出用画像P2b生成して、当該画像を用いても良い。
In the first and second embodiments, the live view image display of the first subject extraction image P2a and the second subject extraction image P2b is performed by calculating and determining the non-flatness of the subject extraction image. Although the image frame is used, the image size of the first subject extraction image P2a and the second subject extraction image P2b is not limited to this, and the first imaging size of the actual imaging size generated by the image
また、上記実施形態1、2にあっては、第2被写体抽出用画像P2bのライブビュー画像表示用の画像フレーム(第2ライブビュー画像)の保存後の被写体存在画像P1aの撮像の際に、AF(自動合焦処理)を行わないようにしたが、これに限られるものではなく、例えば、多少撮影時間が長くなったとしてもより高画質の被写体存在画像P1aの取得を図る上では、AF(自動合焦処理)を行うのが好ましい。 In the first and second embodiments, when capturing the subject existing image P1a after storing the live view image display image frame (second live view image) of the second subject extraction image P2b, Although AF (automatic focusing process) is not performed, the present invention is not limited to this. For example, in order to obtain a higher-quality subject existing image P1a even if the shooting time is somewhat longer, AF It is preferable to perform (automatic focusing process).
さらに、被写体存在画像P1a(P1b)から被写体領域を抽出するための抽出用情報として、マスク画像Mを例示したが、これに限られるものではなく、被写体存在画像P1a内の被写体領域の位置を特定して当該被写体領域を抽出することができるものであれば如何なるものであっても良い。 Furthermore, the mask image M is exemplified as the extraction information for extracting the subject area from the subject existence image P1a (P1b). However, the present invention is not limited to this, and the position of the subject area in the subject existence image P1a is specified. Any object can be used as long as it can extract the subject area.
また、上記実施形態1、2にあっては、マスク画像Mの画像データと被写体切り抜き画像P4の画像データを対応付けて一ファイルで保存させるようにしたが、マスク画像Mの画像データと被写体存在画像P1a(P1b)の画像データを対応付けて一ファイルで記録媒体(記憶手段)9に保存させるようにしても良い。この場合、当該ファイルの再生には、被写体存在画像P1aを再生させるモードと、再生時にマスク画像Mの画像データを適用して被写体切り抜き画像P4を合成して表示する2モードを用意しておくとよい。 In the first and second embodiments, the image data of the mask image M and the image data of the subject cutout image P4 are stored in one file in association with each other. The image data of the image P1a (P1b) may be associated with each other and stored in the recording medium (storage unit) 9 as one file. In this case, for the reproduction of the file, a mode for reproducing the subject existing image P1a and two modes for combining and displaying the subject cutout image P4 by applying the image data of the mask image M at the time of reproduction are prepared. Good.
さらに、撮像装置100、200の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。
Furthermore, the configurations of the
加えて、上記実施形態にあっては、生成手段、演算手段、判定手段、背景生成手段、被写体抽出手段としての機能を、CPU13の制御下にて、解像度変換部6と、非平坦度演算部7と、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、CPU13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、生成処理ルーチン、演算処理ルーチン、判定処理ルーチン、背景生成処理ルーチン、被写体抽出処理ルーチンを含むプログラムを記憶しておく。そして、生成処理ルーチンによりCPU13を、撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームを生成する生成手段として機能させるようにしても良い。また、演算処理ルーチンによりCPU13を、生成手段により生成された被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームの非平坦度を演算する演算手段として機能させるようにしても良い。また、判定処理ルーチンによりCPU13を、演算手段により演算された被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームの非平坦度が所定値以下であるか否かを判定する判定手段として機能させるようにしても良い。また、背景生成処理ルーチンによりCPU13を、判定手段により非平坦度が所定値以下であると判定された場合に、被写体抽出用画像(第1被写体抽出用画像P2a)の画像フレームに基づいて抽出用背景画像P3を生成する背景生成手段として機能させるようにしても良い。また、被写体抽出処理ルーチンによりCPU13を、操作入力部12からの撮像指示に従って電子撮像部2により撮像された被写体存在画像P1aと抽出用背景画像P3との対応する各画素の差分情報に基づいて、被写体存在画像P1aから被写体領域を抽出する被写体抽出手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the generation unit, the calculation unit, the determination unit, the background generation unit, and the subject extraction unit are controlled by the
That is, a program including a generation processing routine, an arithmetic processing routine, a determination processing routine, a background generation processing routine, and a subject extraction processing routine is stored in a program memory (not shown) that stores the program. Then, the
100、200 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
7 非平坦度演算部
7a 特徴量演算部
7b ばらつき量算出部
8 画像処理部
8a 非平坦度判定部
8d 背景生成部
8e マスク生成部
8f 切抜画像生成部
12a シャッタボタン
13 CPU
100, 200
Claims (13)
この撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段と、
この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段と、
この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する第1判定手段と、
前記撮像手段による背景内に被写体が存在する被写体存在画像の撮像を指示する第1撮像指示手段と、
前記第1判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段と、
前記第1撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段と、
を備えたことを特徴とする撮像装置。 Imaging means;
Generating means for generating an image frame of a subject extraction image for extraction of a subject area imaged by the imaging means;
A computing means for computing the non-flatness of the image frame of the subject extraction image generated by the generating means;
First determination means for determining whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation means is equal to or less than a predetermined value;
First imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means;
A background generation unit that generates an extraction background image based on an image frame of the subject extraction image when the first determination unit determines that the non-flatness is equal to or less than a predetermined value;
The subject area is extracted from the subject presence image based on difference information of each corresponding pixel between the subject presence image captured by the imaging unit and the extraction background image in accordance with an imaging instruction by the first imaging instruction unit. Subject extraction means for
An imaging apparatus comprising:
背景内に被写体の存在しない第1被写体抽出用画像と前記背景内に被写体の存在する第2被写体抽出用画像の各々を前記撮像手段により撮像して各々の画像フレームを生成し、
前記第1被写体抽出用画像の画像フレームと前記第2被写体抽出用画像の画像フレームとの対応する各画素の相違度が所定値以下であるか否かを判定する第2判定手段を更に備え、
前記背景生成手段は、
前記第2判定手段により相違度が所定値以下であると判定された画素に基づいて、前記抽出用背景画像を生成することを特徴とする請求項1に記載の撮像装置。 The generating means includes
Each of the first subject extraction image in which no subject is present in the background and the second subject extraction image in which the subject is present in the background is imaged by the imaging means to generate each image frame,
A second determination means for determining whether or not a difference between corresponding pixels of the image frame of the first subject extraction image and the image frame of the second subject extraction image is equal to or less than a predetermined value;
The background generation means includes
The imaging apparatus according to claim 1, wherein the extraction background image is generated based on a pixel whose degree of difference is determined to be equal to or less than a predetermined value by the second determination unit.
前記第2判定手段により相違度が所定値以下であると判定された画素と同じ色の前記抽出用背景画像を生成することを特徴とする請求項2に記載の撮像装置。 The background generation means includes
The imaging apparatus according to claim 2, wherein the background image for extraction having the same color as a pixel whose degree of difference is determined to be equal to or less than a predetermined value by the second determination unit is generated.
前記第2被写体抽出用画像の撮像後に、前記撮像手段により前記被写体存在画像を撮像する際の撮像条件を設定することを特徴とする請求項4に記載の撮像装置。 The imaging condition setting means further includes:
The imaging apparatus according to claim 4, wherein after the second subject extraction image is captured, an imaging condition for capturing the subject existing image by the imaging unit is set.
前記被写体抽出手段は、
前記第1抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴とする請求項1〜5の何れか一項に記載の撮像装置。 First extraction information generating means for generating extraction information for extracting the subject region from the subject existing image based on difference information of corresponding pixels between the subject existing image and the extraction background image; In addition,
The subject extracting means includes
The imaging apparatus according to claim 1, wherein the subject area is extracted from the subject presence image using the extraction information generated by the first extraction information generation unit.
前記非平坦度として、前記被写体抽出用画像の複数の特徴点を抽出し、
前記第1判定手段は、
更に、前記演算手段により抽出された前記複数の特徴点が所定値以下であるか否かを判定し、
前記背景生成手段は、
更に、前記第1判定手段により特徴点が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴とする請求項1〜6の何れか一項に記載の撮像装置。 The computing means is
As the non-flatness, a plurality of feature points of the subject extraction image are extracted,
The first determination means includes
Furthermore, it is determined whether or not the plurality of feature points extracted by the calculation means are equal to or less than a predetermined value,
The background generation means includes
The imaging according to any one of claims 1 to 6, wherein the extraction background image is generated when the first determination unit determines that the feature point is equal to or less than a predetermined value. apparatus.
前記非平坦度として、前記被写体抽出用画像の複数の画像領域内の画素値のばらつき量を演算し、
前記第1判定手段は、
更に、前記演算手段により演算された前記複数の画像領域内の画素値のばらつき量が所定値以下であるか否かを判定し、
前記背景生成手段は、
更に、前記第1判定手段により画素値のばらつき量が所定値以下であると判定された場合に、前記抽出用背景画像を生成することを特徴とする請求項1〜7の何れか一項に記載の撮像装置。 The computing means is
As the non-flatness, a variation amount of pixel values in a plurality of image regions of the subject extraction image is calculated,
The first determination means includes
Further, it is determined whether or not the variation amount of the pixel value in the plurality of image areas calculated by the calculation means is equal to or less than a predetermined value,
The background generation means includes
The extraction background image is generated when the first determination unit determines that the variation amount of the pixel value is equal to or less than a predetermined value. The imaging device described.
前記第1判定手段により前記被写体抽出用画像の非平坦度が所定値以下であると判定された場合に、前記被写体存在画像を撮像することを特徴とする請求項1〜8の何れか一項に記載の撮像装置。 The imaging means includes
9. The subject existence image is picked up when the non-flatness of the subject extraction image is judged to be a predetermined value or less by the first judgment means. The imaging device described in 1.
前記被写体抽出手段は、
前記第2撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体非存在画像と前記被写体存在画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出することを特徴とする請求項1〜9の何れか一項に記載の撮像装置。 When the first determination unit determines that the non-flatness is not equal to or less than a predetermined value, the imaging unit instructs the imaging unit to capture a subject nonexistent image in the same background as the background of the subject existing image. A second imaging instruction means;
The subject extracting means includes
The subject region is extracted from the subject presence image based on the difference information of each corresponding pixel between the subject non-existence image captured by the imaging unit and the subject presence image according to the imaging instruction by the second imaging instruction unit. The imaging apparatus according to any one of claims 1 to 9, wherein
前記被写体抽出手段は、
前記第2抽出用情報生成手段により生成された抽出用情報を用いて前記被写体存在画像から前記被写体領域を抽出することを特徴とする請求項10に記載の撮像装置。 Second extraction information generating means for generating extraction information for extracting the subject region from the subject presence image based on difference information of corresponding pixels between the subject non-existence image and the subject presence image. In addition,
The subject extracting means includes
The imaging apparatus according to claim 10, wherein the subject area is extracted from the subject presence image using the extraction information generated by the second extraction information generation unit.
前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成ステップと、
この生成ステップにより生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算ステップと、
この演算ステップにより演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定ステップと、
この判定ステップにより非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成ステップと、
前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出するステップと、
を実行させることを特徴とする画像処理方法。 An imaging apparatus comprising imaging means and imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means,
Generating an image frame of a subject extraction image for extraction of a subject region imaged by the imaging means;
A calculation step of calculating the non-flatness of the image frame of the subject extraction image generated by the generation step;
A determination step of determining whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation step is equal to or less than a predetermined value;
A background generation step of generating an extraction background image based on an image frame of the subject extraction image when the non-flatness is determined to be equal to or less than a predetermined value by the determination step;
Extracting the subject region from the subject existing image based on the difference information of each corresponding pixel between the subject existing image captured by the imaging unit and the background image for extraction according to the imaging instruction by the imaging instruction unit. When,
An image processing method characterized in that
前記撮像手段により撮像された被写体領域の抽出用の被写体抽出用画像の画像フレームを生成する生成手段、
この生成手段により生成された前記被写体抽出用画像の画像フレームの非平坦度を演算する演算手段、
この演算手段により演算された前記被写体抽出用画像の画像フレームの非平坦度が所定値以下であるか否かを判定する判定手段、
前記判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体抽出用画像の画像フレームに基づいて抽出用背景画像を生成する背景生成手段、
前記撮像指示手段による撮像指示に従って前記撮像手段により撮像された前記被写体存在画像と前記抽出用背景画像との対応する各画素の差分情報に基づいて、前記被写体存在画像から前記被写体領域を抽出する被写体抽出手段、
として機能させることを特徴とするプログラム。 A computer of an imaging apparatus comprising imaging means and imaging instruction means for instructing imaging of a subject existing image in which a subject is present in the background by the imaging means,
Generating means for generating an image frame of a subject extraction image for extraction of a subject area imaged by the imaging means;
Arithmetic means for calculating the non-flatness of the image frame of the subject extraction image generated by the generating means;
Determination means for determining whether or not the non-flatness of the image frame of the subject extraction image calculated by the calculation means is equal to or less than a predetermined value;
Background generation means for generating an extraction background image based on an image frame of the subject extraction image when the determination means determines that the non-flatness is equal to or less than a predetermined value;
A subject for extracting the subject area from the subject existing image based on difference information of each corresponding pixel between the subject existing image captured by the imaging unit and the background image for extraction according to the imaging instruction by the imaging instruction unit Extraction means,
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009179759A JP5402361B2 (en) | 2009-07-31 | 2009-07-31 | Imaging apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009179759A JP5402361B2 (en) | 2009-07-31 | 2009-07-31 | Imaging apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011035650A true JP2011035650A (en) | 2011-02-17 |
JP5402361B2 JP5402361B2 (en) | 2014-01-29 |
Family
ID=43764288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009179759A Expired - Fee Related JP5402361B2 (en) | 2009-07-31 | 2009-07-31 | Imaging apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5402361B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001036801A (en) * | 1999-07-23 | 2001-02-09 | Sharp Corp | Image pickup device |
JP2006344154A (en) * | 2005-06-10 | 2006-12-21 | Sumitomo Electric Ind Ltd | Vehicle discriminating device and method |
JP2008005399A (en) * | 2006-06-26 | 2008-01-10 | Matsushita Electric Ind Co Ltd | Device and method for detecting a neglected object |
JP2008028717A (en) * | 2006-07-21 | 2008-02-07 | Canon Inc | Image processor and method and program |
-
2009
- 2009-07-31 JP JP2009179759A patent/JP5402361B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001036801A (en) * | 1999-07-23 | 2001-02-09 | Sharp Corp | Image pickup device |
JP2006344154A (en) * | 2005-06-10 | 2006-12-21 | Sumitomo Electric Ind Ltd | Vehicle discriminating device and method |
JP2008005399A (en) * | 2006-06-26 | 2008-01-10 | Matsushita Electric Ind Co Ltd | Device and method for detecting a neglected object |
JP2008028717A (en) * | 2006-07-21 | 2008-02-07 | Canon Inc | Image processor and method and program |
Also Published As
Publication number | Publication date |
---|---|
JP5402361B2 (en) | 2014-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4798236B2 (en) | Imaging apparatus, image processing method, and program | |
JP4760973B2 (en) | Imaging apparatus and image processing method | |
JP5051156B2 (en) | Image processing apparatus and program | |
JP4947136B2 (en) | Image processing apparatus, image processing method, and program | |
JP6222514B2 (en) | Image processing apparatus, imaging apparatus, and computer program | |
JP2015012480A (en) | Image processing apparatus and image processing method | |
JP2011191860A (en) | Imaging apparatus, imaging processing method, and program | |
JP2011066827A (en) | Image processing apparatus, image processing method and program | |
JP2009021909A (en) | Image adder, method, and program | |
JP2010213105A (en) | Imaging apparatus | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP5402361B2 (en) | Imaging apparatus, image processing method, and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP5131399B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011223265A (en) | Image evaluation device | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP5310361B2 (en) | Imaging apparatus, image processing method, and program | |
JP5024033B2 (en) | Object tracking device, object tracking program, and object tracking method | |
JP5565227B2 (en) | Image processing apparatus, image processing method, and program | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP5301690B2 (en) | Imaging apparatus, method, and program | |
JP2011175663A (en) | Imaging device, image processing method, and program | |
JP4803319B2 (en) | Imaging apparatus, image processing method, and program | |
JP2023065229A (en) | Imaging apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120723 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131014 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5402361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |