JP2011003057A - Image composition device, image specifying method, image composition method, and program - Google Patents
Image composition device, image specifying method, image composition method, and program Download PDFInfo
- Publication number
- JP2011003057A JP2011003057A JP2009146266A JP2009146266A JP2011003057A JP 2011003057 A JP2011003057 A JP 2011003057A JP 2009146266 A JP2009146266 A JP 2009146266A JP 2009146266 A JP2009146266 A JP 2009146266A JP 2011003057 A JP2011003057 A JP 2011003057A
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreground
- background
- subject
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、複数の画像を合成する画像合成装置、画像特定方法、画像合成方法及びプログラムに関する。 The present invention relates to an image composition device, an image specifying method, an image composition method, and a program for composing a plurality of images.
従来、被写体画像と背景用画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。 Conventionally, a technique for generating a composite image by combining a subject image with a background image or a frame image is known (see, for example, Patent Document 1).
ところで、被写体画像と背景用画像を合成する場合、合成する画像や位置を指定しなければならず、その作業が煩雑であった。 By the way, when combining a subject image and a background image, it is necessary to specify an image and a position to be combined, and the work is complicated.
そこで、本発明の課題は、合成画像の生成を簡便に行うことができる画像合成装置、画像特定方法、画像合成方法及びプログラムを提供することである。 Therefore, an object of the present invention is to provide an image composition device, an image specifying method, an image composition method, and a program that can easily generate a composite image.
上記課題を解決するため、請求項1に記載の発明の画像合成装置は、
背景画像に前景画像を合成する合成手段を備えた画像合成装置において、背景画像及び前景画像の各々を複数記憶する記憶手段と、この記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、この背景指定手段によって指定された背景画像から特徴領域を検出する検出手段と、この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段と、を備えたことを特徴としている。
In order to solve the above-described problem, an image composition device according to a first aspect of the present invention provides:
In an image synthesizing apparatus including a synthesizing unit that synthesizes a foreground image with a background image, a storage unit that stores a plurality of background images and foreground images, and one of a plurality of background images stored in the storage unit A background designating unit for designating one background image, a detecting unit for detecting a feature region from the background image designated by the background designating unit, and a foreground image associated with the feature region detected by the detecting unit. Specifying means for specifying from among a plurality of foreground images stored in the storage means.
請求項2に記載の発明は、請求項1に記載の画像合成装置において、
前記合成手段は、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記特定手段によって特定された前景画像を合成することを特徴としている。
According to a second aspect of the present invention, in the image composition device according to the first aspect,
The synthesizing unit synthesizes the foreground image specified by the specifying unit with an area of the background image in which the characteristic region is detected by the detecting unit.
請求項3に記載の発明は、請求項1又は2に記載の画像合成装置において、
前記特定手段は、前記前景画像を複数特定し、前記特定手段によって特定された複数の前景画像の中から何れか一の前景画像を指定する前景指定手段を更に備え、前記合成手段は、前記前景指定手段によって指定された前記前景画像を合成することを特徴としている。
According to a third aspect of the present invention, in the image composition device according to the first or second aspect,
The specifying means further includes a foreground specifying means for specifying a plurality of the foreground images and specifying any one of the foreground images specified by the specifying means, and the combining means includes the foreground image. The foreground image designated by the designation means is synthesized.
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像合成装置において、
前記特徴領域は、前記背景画像における人物画像領域であり、前記特定手段は、前記特徴領域と同じ人物の画像を含む前景画像を特定することを特徴としている。
According to a fourth aspect of the present invention, in the image synthesizing device according to any one of the first to third aspects,
The feature region is a person image region in the background image, and the specifying unit specifies a foreground image including an image of the same person as the feature region.
請求項5に記載の発明の画像合成装置は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、この記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段と、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段と、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段と、を備えたことを特徴としている。
The image synthesizing device of the invention according to
Storage means for storing a plurality of background images and foreground images, foreground designating means for designating any one foreground image from the plurality of background images stored in the storage means, and stored in the storage means A background designating unit for designating any one of the plurality of background images, and a foreground image designated by the foreground designating unit from the background image designated by the background designating unit. A detecting unit for detecting a feature region; and a combining unit for combining the foreground image specified by the foreground specifying unit with the region of the background image where the feature region is detected by the detecting unit. Yes.
請求項6に記載の発明は、請求項5記載の画像合成装置において、
前記前景画像は、人物の顔画像を含む人物画像であり、前記特徴領域は、前記背景画像における前記人物と同じ人物の顔画像領域であることを特徴としている。
According to a sixth aspect of the present invention, in the image synthesizing apparatus according to the fifth aspect,
The foreground image is a person image including a face image of a person, and the feature region is a face image region of the same person as the person in the background image.
請求項7に記載の発明は、請求項6に記載の画像合成装置において、
前記合成手段は、前記前景画像の顔画像領域と前記背景画像の顔画像領域とが重なるように合成することを特徴としている。
The invention described in claim 7 is the image composition apparatus according to claim 6,
The combining means combines the face image area of the foreground image and the face image area of the background image so as to overlap each other.
請求項8に記載の発明の画像合成装置は、
背景画像に前景画像を合成する合成手段を備えた画像合成装置において、背景画像及び前景画像の各々を複数記憶する記憶手段と、この記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段と、を備えたことを特徴としている。
An image composition device according to an eighth aspect of the present invention provides:
In an image synthesizing apparatus including a synthesizing unit that synthesizes a foreground image with a background image, any one of a plurality of foreground images stored in the storage unit and a storage unit that stores a plurality of background images and foreground images Among the plurality of background images stored in the storage unit, a foreground designating unit for designating one foreground image and a background image including a feature region associated with the foreground image designated by the foreground designating unit And a specifying means for specifying from the above.
請求項9に記載の発明は、請求項1〜8の何れか一項に記載の画像合成装置において、
前記合成手段によって合成される前景画像の寸法と前記背景画像における前記特徴領域の寸法とに基づいて、当該前景画像及び前記背景画像の少なくとも一方の寸法を変更する変更手段を更に備え、前記合成手段は、前記変更手段によって前記前景画像及び前記背景画像の少なくとも一方の寸法を変更してから合成することを特徴としている。
The invention according to
Further comprising changing means for changing the size of at least one of the foreground image and the background image based on the size of the foreground image synthesized by the synthesizing unit and the size of the feature region in the background image. Is characterized in that the changing means changes the size of at least one of the foreground image and the background image and then combines them.
請求項10に記載の発明は、請求項1〜9の何れか一項に記載の画像合成装置において、
前記背景画像と、前記合成手段により合成された合成画像とを切替え再生する再生手段を更に備えることを特徴としている。
The invention according to
The image processing apparatus further includes reproduction means for switching and reproducing the background image and the synthesized image synthesized by the synthesis means.
請求項11に記載の発明は、請求項1〜10の何れか一項に記載の画像合成装置において、
前記前景画像と前記特徴領域とを対応付けて登録する登録手段を更に備えることを特徴としている。
The invention according to
The image processing apparatus further includes registration means for registering the foreground image and the feature region in association with each other.
請求項12に記載の発明の画像特定方法は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像特定方法であって、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、この背景指定ステップによって指定された背景画像から特徴領域を検出する検出ステップと、前記記憶手段に記憶されている複数の前景画像の中から、前記検出ステップによって検出された特徴領域と対応付けられている前景画像を特定する特定ステップと、を備えたことを特徴としている。
The image specifying method of the invention according to
An image specifying method for an image composition apparatus, comprising: storage means for storing a plurality of background images and foreground images; and composition means for synthesizing the background image and the foreground image, the image specifying method stored in the storage means. A background designating step for designating any one of the plurality of background images, a detecting step for detecting a feature region from the background image designated by the background designating step, and stored in the storage means And a specifying step of specifying a foreground image associated with the feature region detected by the detecting step from a plurality of foreground images.
請求項13に記載の発明の画像合成方法は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像合成方法であって、前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定ステップと、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、この背景指定ステップによって指定された背景画像から前記前景画像指定ステップによって指定された前景画像と対応付けられている特徴領域を検出する検出ステップと、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成ステップと、を備えたことを特徴としている。
The image composition method of the invention according to
An image composition method for an image composition apparatus comprising: storage means for storing a plurality of background images and foreground images; and composition means for synthesizing the background image and the foreground image, the image composition method being stored in the storage means A foreground designating step for designating any one of the plurality of background images, and a background designating step for designating any one of the background images stored in the storage means A detection step of detecting a feature region associated with the foreground image specified by the foreground image specification step from the background image specified by the background specification step; and a feature region by the detection means in the background image And a synthesizing step for synthesizing the foreground image designated by the foreground designating means in the detected area.
請求項14に記載の発明の画像特定方法は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像特定方法であって、前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定ステップと、この前景指定ステップによって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定ステップと、を備えたことを特徴としている。
The image specifying method of the invention described in claim 14 is:
An image specifying method for an image composition apparatus, comprising: storage means for storing a plurality of background images and foreground images; and composition means for synthesizing the background image and the foreground image, the image specifying method stored in the storage means. A foreground designating step for designating any one of the plurality of foreground images, and a background image including a feature region associated with the foreground image designated by the foreground designating step. And a specific step of specifying from among a plurality of background images stored in.
請求項15に記載の発明のプログラムは、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段とを備える画像合成装置のコンピュータを、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、この背景指定手段によって指定された背景画像から前景画像と対応付けられている特徴領域を検出する検出手段、この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段、として機能させることを特徴としている。
The program of the invention according to claim 15 is:
A plurality of background images stored in the storage means are stored in the storage means. A background designating unit for designating any one of the background images, a detection unit for detecting a feature region associated with the foreground image from the background image designated by the background designating unit, and a detection unit detected by the detection unit The foreground image associated with the feature region is made to function as specifying means for specifying from among a plurality of foreground images stored in the storage means.
請求項16に記載の発明のプログラムは、
背景画像及び前景画像の各々を複数記憶する記憶手段を備える画像合成装置のコンピュータを、前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段、として機能させることを特徴としている。
The program of the invention described in claim 16 is:
Foreground designating means for designating any one foreground image from among a plurality of background images stored in the storage means, a computer of an image composition device comprising storage means for storing a plurality of background images and foreground images; A background designating unit for designating any one of the plurality of background images stored in the storage unit, a foreground image designated by the foreground designating unit from a background image designated by the background designating unit; A detecting unit that detects the associated feature region; and a combining unit that combines the foreground image designated by the foreground designating unit with the region of the background image in which the feature region is detected by the detecting unit. It is characterized by.
請求項17に記載の発明のプログラムは、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段とを備える画像合成装置のコンピュータを、前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段、として機能させることを特徴としている。
The program of the invention described in claim 17
A plurality of foreground images stored in the storage unit are stored in the storage unit. The computer of the image composition apparatus includes a storage unit that stores a plurality of background images and foreground images, and a combination unit that combines the background image and the foreground image. A plurality of foreground designating means for designating any one of the foreground images and a background image including a feature region associated with the foreground image designated by the foreground designating means. It is characterized by functioning as a specifying means for specifying from among the background images.
本発明によれば、背景画像と被写体画像とを合成した合成画像の生成を簡便に行うことができる。 According to the present invention, it is possible to easily generate a composite image obtained by combining a background image and a subject image.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an
本実施形態の撮像装置100は、背景画像P4aから被写体切り抜き画像P3aの被写体画像(前景画像)Gaと対応付けられている特徴領域Cを検出して、背景画像P4aにおける特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gaを合成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、中央制御部13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13は、例えば、カスタムLSI1Aとして設計されている。
The
Specifically, as illustrated in FIG. 1, the
Further, the imaging control unit 3, the feature amount calculation unit 6, the block matching unit 7, the
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The
Although not shown, the
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、被写体の撮像条件の調整制御として、AF(自動合焦処理)やAE(自動露出処理)やAWB(自動ホワイトバランス)等を行う。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image
The imaging control unit 3 performs AF (automatic focusing processing), AE (automatic exposure processing), AWB (automatic white balance), and the like as adjustment control of the imaging conditions of the subject.
このように構成されたレンズ部1、電子撮像部2及び撮像制御部3は、撮像手段として、画像合成処理に係る背景画像P4a(図7(a)参照)や被写体存在画像P1a(図3(a)等参照)を撮像する。
また、レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1aの撮像後、当該被写体存在画像P1aの撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3a(図3(c)参照)の生成のための被写体非存在画像P2a(図3(b)参照)を撮像する。
The
In addition, the
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an
画像メモリ5は、例えば、DRAM等により構成され、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13等によって処理されるデータ等を一時記憶する。
The
特徴量演算部6は、被写体非存在画像P2aを基準として、当該被写体非存在画像P2aから特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6は、例えば、被写体非存在画像P2aのYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The feature amount calculation unit 6 performs feature extraction processing for extracting feature points from the subject non-existing image P2a with reference to the subject non-existing image P2a. Specifically, the feature amount calculation unit 6 selects, for example, a predetermined number (or a predetermined number or more) of high feature block areas (feature points) based on the YUV data of the subject non-existing image P2a, The contents of the block are extracted as a template (for example, a square of 16 × 16 pixels).
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.
ブロックマッチング部7は、被写体切り抜き画像P3aを生成する際に、被写体非存在画像P2aと被写体存在画像P1aの位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1a内のどこに対応するか、つまり、被写体存在画像P1a内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P2aと被写体存在画像P1a間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。 When the subject cutout image P3a is generated, the block matching unit 7 performs block matching processing for aligning the subject nonexistent image P2a and the subject present image P1a. Specifically, the block matching unit 7 determines where the template extracted in the feature extraction process corresponds in the subject existing image P1a, that is, the pixel value of the template optimally matches in the subject existing image P1a. Search for a position (corresponding region). Then, the optimum offset between the subject non-existing image P2a and the subject existing image P1a having the best evaluation value (for example, the sum of squared differences (SSD), the sum of absolute differences (SAD), etc.) Calculated as a template motion vector.
画像処理部8は、被写体切り抜き画像P3aの画像データを生成する切り抜き画像生成部8aを具備している。具体的には、切り抜き画像生成部8aは、図示は省略するが、位置合わせ部と、被写体画像抽出部と、位置情報生成部と、画像生成部等を備えている。
位置合わせ部は、図3(a)〜(c)に記載するように、被写体非存在画像P2aから抽出した特徴点に基づいて、被写体非存在画像P2aに対する被写体存在画像P1aの各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1aを座標変換して被写体非存在画像P2aと位置合わせを行う。
被写体画像抽出部は、位置合わせ部により位置合わせされた被写体存在画像P1aと被写体非存在画像P2aとの間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像P1aから被写体が含まれる被写体画像(前景画像)Gaを抽出する。
位置情報生成部は、被写体存在画像P1aから抽出された被写体画像Gaの位置を特定して、被写体存在画像P1aにおける被写体画像Gaの位置を示す位置情報(例えば、アルファマップ)を生成する。ここで、アルファマップとは、被写体存在画像P1aの各画素について、被写体画像Gaを所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
画像生成部は、生成されたアルファマップに基づいて、被写体存在画像P1aの各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き画像P3aの画像データを生成する。
The
As described in FIGS. 3A to 3C, the alignment unit performs coordinate conversion of each pixel of the subject presence image P1a with respect to the subject nonexistence image P2a based on the feature points extracted from the subject nonexistence image P2a. An equation (projection transformation matrix) is calculated, and the subject presence image P1a is coordinate-transformed according to the coordinate transformation equation to align with the subject non-existence image P2a.
The subject image extraction unit generates difference information of corresponding pixels between the subject presence image P1a and the subject non-existence image P2a aligned by the alignment unit, and uses the difference information as a reference from the subject presence image P1a. A subject image (foreground image) Ga including the subject is extracted.
The position information generation unit specifies the position of the subject image Ga extracted from the subject presence image P1a, and generates position information (for example, an alpha map) indicating the position of the subject image Ga in the subject presence image P1a. Here, the alpha map represents the weight when alpha blending the subject image Ga with respect to a predetermined background for each pixel of the subject existing image P1a as an alpha value (0 ≦ α ≦ 1).
Based on the generated alpha map, the image generation unit does not transmit a pixel having an alpha value of 1 among the pixels of the subject existing image P1a to a predetermined single color image (not shown), and The image of the subject is combined with a predetermined single color image so as to transmit pixels with an alpha value of 0, and image data of the subject cutout image P3a is generated.
また、画像処理部8は、背景画像P4a中の特徴領域Cを検出する特徴領域検出部8bを具備している。
特徴領域検出部8bは、ユーザによる操作入力部12の所定操作に基づいて指定された図7(a)における背景画像P4aから所定の顔検出方法を用いて人の顔を検出して、検出された顔の人物を認識する顔認識部8cを具備している。
顔認識部8cは、背景画像P4aから顔画像領域を検出し、検出した各領域内から目、鼻、口等に相当する顔パーツ(特徴部)を検出する。この顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。そして、顔認識部8cは、顔検出処理にて検出された顔に対応する顔画像情報(特定用情報)が後述するテーブル記憶部8gの登録テーブルT1に登録されているか否かを判定し、当該判定の結果、顔画像情報が登録されていると判定されると、当該顔画像情報と対応付けて登録されている人物を特定する。
特徴領域検出部8bは、上述の背景画像P4aにおける顔認識部8cによって特定された人物の顔画像領域を特徴領域Cとして検出した後、当該特徴領域Cに対応する被写体切り抜き画像情報(被写体画像Ga)が登録テーブルT1に登録されているか否かを判定する。そして、特徴領域検出部8bは、対応する被写体切り抜き画像情報(被写体画像Ga)が登録テーブルT1に登録されていると判定されると、当該特徴領域Cをその後の処理に利用する一方で、被写体切り抜き画像情報(被写体画像Ga)が登録テーブルT1に登録されていないと判定されると、検出された特徴領域Cを破棄する。
ここで、特徴領域検出部8bは、ユーザによる操作入力部12の所定操作に基づいて指定された背景画像P4aから特徴領域Cを検出する検出手段を構成している。
In addition, the
The feature
The
The feature
Here, the feature
また、画像処理部8は、記録媒体9に記憶されている複数の被写体切り抜き画像P3aの中から特徴領域検出部8bによって検出された特徴領域Cと対応付けられている被写体画像Gaを含む被写体切り抜き画像P3aを特定する前景特定部8dを具備している。
前景特定部8dは、特徴領域検出部8bによって特徴領域Cが検出されると、登録テーブルT1を参照して、検出された特徴領域Cと対応付けられている被写体画像Gaが含まれる被写体切り抜き画像P3aを少なくとも一つ特定する。そして、前景特定部8dは、特定した被写体切り抜き画像P3aの画像データを記録媒体9から読み出して画像メモリ5に一時的に記憶させる。その後、表示制御部10は、画像メモリ5に一時的に記憶されている被写体切り抜き画像P3aの画像データを読み出して表示部11に表示させる。
ここで、前景特定部8dは、記録媒体9に記憶されている複数の被写体画像(前景画像)Gaの中から特徴領域検出部8bによって検出された特徴領域Cと対応付けられている被写体画像Gaを特定する特定手段を構成している。
In addition, the
When the feature region C is detected by the feature
Here, the
また、画像処理部8は、合成手段として、背景画像P4aと被写体切り抜き画像P3aとを合成する合成部8eを具備している。
合成部8eは、背景画像P4aにおける特徴領域検出部8bによって特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像(前景画像)Gaを合成する。具体的には、合成部8eは、特徴領域検出部8bによって背景画像P4aから特徴領域Cとしての人物の顔画像領域が検出されると、前景特定部8dによって特定された被写体切り抜き画像P3aの被写体画像Gaの合成位置を背景画像P4aの特徴領域(顔画像領域)Cに指定して、被写体画像Gaの顔画像領域と背景画像P4aの顔画像領域とが重なるように合成する。
このとき、前景特定部8dによって複数の被写体切り抜き画像P3aが特定されている場合には、合成部8eは、ユーザによる操作入力部12の所定操作に基づいて選択された何れか一の被写体切り抜き画像P3aに含まれる被写体画像Gaを背景画像P4aにおける特徴領域Cが検出された領域に合成する。
ここで、合成部8eは、背景画像P4aにおける特徴領域検出部8bによって特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像(前景画像)Gaを合成する合成手段を構成している。
Further, the
The synthesizing unit 8e synthesizes the subject image (foreground image) Ga associated with the feature region C in the region where the feature region C is detected by the feature
At this time, when a plurality of subject cutout images P3a are specified by the
Here, the synthesizing unit 8e synthesizes the subject image (foreground image) Ga associated with the feature region C in the region where the feature region C is detected by the feature
また、合成部8eは、背景画像P4aの各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像P3aの対応する画素の画素値で上書きし、さらに、背景画像P4aの各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体画像Gaを切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3aを生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3aから減算し、それを被写体画像Gaを切り抜いた画像(背景画像×(1−α))と合成する。 The synthesizing unit 8e transmits a pixel with an alpha value of 0 among each pixel of the background image P4a, overwrites a pixel with an alpha value of 1 with the pixel value of the corresponding pixel of the subject cutout image P3a, and Among the pixels of the background image P4a, pixels with an alpha value of 0 <α <1 generate an image (background image × (1-α)) obtained by clipping the subject image Ga using a complement of 1 (1-α). Then, when the subject cutout image P3a is generated using the one's complement (1-α) in the alpha map, a value blended with the single background color is calculated, and the value is subtracted from the subject cutout image P3a, Are combined with an image (background image × (1-α)) obtained by cutting out the subject image Ga.
また、画像処理部8は、画像合成処理にて、画像合成に係る被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を変更する寸法変更部8fを具備している。
寸法変更部8fは、合成部8eによって合成される被写体画像Gaの寸法(例えば、当該被写体画像Gaを囲む矩形枠の上下方向や左右方向の幅)に基づいて、図7(b)に示した画像合成後の被写体合成画像P5aの寸法に対する被写体画像Gaの相対的な寸法を調整するように当該被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を変更する。具体的には、寸法変更部8fは、被写体画像Gaの寸法を拡大・縮小したり、背景画像P4aの寸法を拡大・縮小したり所定領域をトリミングすることで、少なくとも被写体画像Gaが当該被写体画像Gaに重ねて合成される特徴領域Cよりも大きくなるようにして被写体合成画像P5a中に特徴領域Cが含まれないようにする。これにより、被写体合成画像P5a中に同一対象の被写体画像Ga、即ち、同一人物が複数存在した状態とならないようにすることができる。
ここで、寸法変更部8fは、合成部8eによって合成される被写体画像(前景画像)Gaの寸法に基づいて、当該被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を変更する変更手段を構成している。
In addition, the
The
Here, the
なお、被写体画像Ga及び背景画像P4aの寸法の変更は、ユーザによる操作入力部12の所定操作に基づいて手動で寸法を設定して行うようにしても良い。
The dimensions of the subject image Ga and the background image P4a may be changed by manually setting the dimensions based on a predetermined operation of the
また、画像処理部8は、各種テーブルを記憶するテーブル記憶部8gを具備している。
テーブル記憶部8gは、登録名(例えば、「人物名」等)と、特徴領域Cとして検出された画像部分を特定するための特定用情報と、被写体切り抜き処理にて抽出された被写体画像Gaに係る被写体画像情報等が対応付けられた登録テーブルT1が記憶されている。
ここで、テーブル記憶部8gは、被写体画像Gaに係る被写体画像情報と特徴領域Cの特定用情報とを対応付けて登録する登録手段を構成している。
The
The
Here, the
登録テーブルT1に対する各種情報の登録は、例えば、被写体切り抜き処理にて被写体画像Gaとして人物画像が抽出された際に実行されても良いし、既に記録媒体9に記憶されている画像情報から顔検出処理等を行って人物の登録を行う顔登録処理モードにて実行されても良いし、ユーザが任意に登録可能としても良い。
なお、特定用情報としては、例えば、人物の顔画像情報が挙げられる。顔画像情報は、顔画像そのものの顔画像データに限られるものではなく、人物を特定するための顔画像に係る情報、例えば、顔の特徴データや画像パターン等の如何なる情報であっても良い。
また、被写体画像情報は、被写体画像Gaそのものの画像データに限られるものではなく、被写体画像Gaを特定するための情報、例えば、被写体画像Gaが含まれる被写体切り抜き画像P3aのファイル名等の如何なる情報であっても良い。
The registration of various types of information in the registration table T1 may be executed, for example, when a person image is extracted as the subject image Ga in the subject clipping process, or face detection is performed from the image information already stored in the
The identification information includes, for example, human face image information. The face image information is not limited to the face image data of the face image itself, and may be any information related to the face image for specifying a person, for example, face feature data or an image pattern.
Further, the subject image information is not limited to the image data of the subject image Ga itself, but any information such as information for specifying the subject image Ga, for example, the file name of the subject cut-out image P3a including the subject image Ga, etc. It may be.
記録媒体9は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部8のJPEG圧縮部(図示略)により符号化された被写体切り抜き画像P3aや背景画像P4aの画像データを記憶する。
被写体切り抜き画像P3aの画像データは、切り抜き画像生成部8aの位置情報生成部により生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3aの画像データの拡張子を「.jpe」として記憶されている。
ここで、記録媒体9は、背景画像P4a及び被写体切り抜き画像P3a(被写体画像Ga)の各々を複数記憶する記憶手段を構成している。
The
The image data of the subject clipped image P3a is associated with the alpha map generated by the position information generation unit of the clipped
Here, the
表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
The
Specifically, the
表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部11は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
The
また、表示部11は、合成部8eによる画像合成後、表示制御部10の制御下にて、画像合成により生成された被写体合成画像P5aと背景画像P4aとを所定間隔で切替え再生する。即ち、画像合成が終了すると、画像合成前の背景画像P4aと、画像合成により生成された被写体合成画像P5aとを所定タイミングで切り替えて交互に再生する。
ここで、表示部11及び表示制御部10は、背景画像P4aと、合成部8eにより合成された被写体合成画像P5aとを切替え再生する再生手段を構成している。
Further, after the image synthesis by the synthesis unit 8e, the
Here, the
操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン12a、撮像モードや機能等の選択指示に係る選択決定ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。
The
また、操作入力部12の選択決定ボタン12bは、合成画像生成処理にて記録媒体9から読み出されて表示部11に表示された複数の背景画像P4aのうち、ユーザ所望の何れか一の背景画像P4aの選択指示を入力する。そして、選択決定ボタン12bは、当該操作入力部12の操作に応じた所定の選択信号を中央制御部13に出力する。
中央制御部13は、入力された選択信号によって指示された背景画像P4aを、画像合成に係る背景画像P4aとして指定する。
ここで、操作入力部12及び中央制御部13は、記録媒体9に記憶されている複数の背景画像P4aの中から何れか一の背景画像P4aを指定する背景指定手段を構成している。
The
The
Here, the
また、操作入力部12の選択決定ボタン12bは、合成画像生成処理にて記録媒体9から読み出されて表示部11に表示された複数の被写体切り抜き画像P3aのうち、ユーザ所望の何れか一の被写体切り抜き画像P3aの選択指示を入力する。即ち、選択決定ボタン12bは、記録媒体9に記憶されている複数の被写体切り抜き画像P3aの中から前景特定部8dによって特定された被写体画像Gaを含む複数の被写体切り抜き画像P3aのうち、ユーザ所望の何れか一の被写体切り抜き画像P3aの選択指示を入力する。そして、選択決定ボタン12bは、当該操作入力部12の操作に応じた所定の選択信号を中央制御部13に出力する。
中央制御部13は、入力された選択信号によって指示された被写体切り抜き画像P3aを、画像合成に係る被写体切り抜き画像P3aとして指定する。
ここで、操作入力部12及び中央制御部13は、前景特定部8dによって特定された複数の被写体画像(前景画像)Gaの中から何れか一の被写体画像Gaを指定する前景指定手段を構成している。
Further, the
The
Here, the
中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、CPU(図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
次に、撮像装置100による被写体切り抜き処理について、図2及び図3を参照して説明する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図3(a)〜図3(c)は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
Next, the subject clipping process performed by the
FIG. 2 is a flowchart illustrating an example of an operation related to the subject clipping process. 3A to 3C are diagrams schematically illustrating an example of an image related to the subject clipping process.
被写体切り抜き処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
また、以下に説明する被写体切り抜き処理にあっては、被写体として人物(例えば、子供「A君」等)を撮像するものとする。また、被写体切り抜き処理によって生成される被写体切り抜き画像P3aは、静止画像であっても良いし、複数の画像フレームからなる動画像であっても良い。
The subject clipping process is executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the
In the subject clipping process described below, it is assumed that a person (for example, a child “Mr. A”) is imaged as a subject. Further, the subject cutout image P3a generated by the subject cutout processing may be a still image or a moving image composed of a plurality of image frames.
図2に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1aの撮像指示メッセージを表示部11の表示画面に表示させる(ステップS1)。
このとき、中央制御部13は、画像処理部8の特徴領域検出部8bに、ライブビュー画像を構成する複数の画像フレームの各々から特徴領域Cを検出させる(ステップS2)。具体的には、特徴領域検出部8bの顔認識部8cは、各画像フレームから顔を検出する顔検出処理を実行する。そして、顔が検出されると、中央制御部13は、表示制御部10に、検出された顔に重畳させて顔検出枠(図示略)を表示部11に表示させる制御を行わせる。
As shown in FIG. 2, first, the
At this time, the
その後、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS3)。ここで、撮像指示が入力されたと判定されると(ステップS3;YES)、中央制御部13は、撮像制御部3に、顔検出枠(図示略)をAFエリアとしてフォーカスレンズの合焦位置を調整させるとともに、露出条件(シャッター速度、絞り、信号増幅率等)やホワイトバランス等を調整させて、被写体存在画像P1a(図3(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる(ステップS4)。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体存在画像P1aのYUVデータを生成させる。なお、当該被写体存在画像P1aのYUVデータは、画像メモリ5に一時記憶される。
また、中央制御部13は、撮像制御部3を制御して、当該被写体存在画像P1aの撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
Thereafter, the
In addition, the
次に、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1aの半透過の表示態様の画像と被写体非存在画像P2aの撮像指示メッセージを表示部11の表示画面に表示させる(ステップS5)。
この後、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS6)。そして、ユーザは、被写体が移動するのを待つか、或いは、被写体を画角外に移動させた後、ユーザにより被写体非存在画像P2aが被写体存在画像P1aの半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS6;YES)、中央制御部13は、撮像制御部3に、被写体非存在画像P2a(図3(b)参照)の光学像を被写体存在画像P1aの撮像後に固定された条件で電子撮像部2により撮像させる(ステップS7)。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2aのYUVデータを生成させる。なお、当該被写体存在画像P1aのYUVデータは、画像メモリ5に一時記憶される。
Next, the
Thereafter, the
次に、中央制御部13は、特徴量演算部6、ブロックマッチング部7及び画像処理部8に、画像メモリ5に一時記憶されている被写体非存在画像P2aのYUVデータを基準として、被写体存在画像P1aのYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS8)。
具体的には、特徴量演算部6は、被写体非存在画像P2aのYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1a内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2aと被写体存在画像P1a間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、切り抜き画像生成部8aの位置合わせ部は、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1aの射影変換行列を算出する。
Next, the
Specifically, the feature amount calculation unit 6 selects a predetermined number (or a predetermined number or more) of highly featured block areas (feature points) based on the YUV data of the subject non-existing image P2a, and then selects the block. Is extracted as a template. Then, the block matching unit 7 searches the subject existing image P1a for a position where the pixel value of the template extracted by the feature extraction process is optimally matched, and the evaluation value of the difference between the pixel values is the best. An optimum offset between the subject non-existing image P2a and the subject existing image P1a is calculated as a motion vector of the template. Then, the alignment unit of the cut-out
次に、中央制御部13は、切り抜き画像生成部8aの位置合わせ部に、算出された射影変換行例に基づいて被写体存在画像P1aを射影変換させることで、被写体存在画像P1aのYUVデータと被写体非存在画像P2aのYUVデータとを位置合わせする処理を行わせる(ステップS9)。
Next, the
そして、中央制御部13は、切り抜き画像生成部8aの被写体画像抽出部に、被写体存在画像P1aから被写体が含まれる被写体画像Gaを抽出する処理を行わせる(ステップS10)。
具体的には、被写体領域抽出部は、被写体存在画像P1aのYUVデータと被写体非存在画像P2aのYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部は、ローパスフィルタをかけた被写体存在画像P1aと被写体非存在画像P2aとの間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部は、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部は、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体画像Gaとして特定し、収縮分を修正するための膨張処理を行う。
Then, the
Specifically, the subject region extraction unit applies a low-pass filter to each of the YUV data of the subject presence image P1a and the YUV data of the subject non-existence image P2a to remove high-frequency components of each image. Thereafter, the subject area extraction unit calculates a difference for each corresponding pixel between the subject existing image P1a and the subject non-existing image P2a subjected to the low-pass filter, and generates a difference map. Subsequently, the subject region extraction unit binarizes the dissimilarity map relating to each pixel with a predetermined threshold, and then performs a contraction process to remove a region in which the dissimilarity is caused by fine noise or camera shake from the dissimilarity map. . Thereafter, the subject region extraction unit performs a labeling process to remove a region below a predetermined value or a region other than the maximum region, and then specifies the largest island pattern as the subject image Ga and corrects the shrinkage. The expansion process is performed.
次に、中央制御部13は、画像処理部8の位置情報生成部に、抽出された被写体画像Gaの被写体存在画像P1a内での位置を示すアルファマップを生成させる(ステップS11)。
Next, the
その後、中央制御部13は、画像処理部8の画像生成部に、被写体画像Gaを所定の単一色画像と合成した被写体切り抜き画像P3a(図3(c)参照)の画像データを生成する処理を行わせる(ステップS12)。
具体的には、画像生成部は、被写体存在画像P1a、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1aの全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
Thereafter, the
Specifically, the image generation unit reads out the subject existence image P1a, the single color image, and the alpha map and develops them in the
その後、中央制御部13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部により生成されたアルファマップと被写体切り抜き画像P3aの画像データとを対応付けて一ファイルで記憶させる(ステップS13)。
Thereafter, the
次に、中央制御部13は、テーブル記憶部8gの登録テーブルT1に、被写体切り抜き画像P3aの被写体画像Gaに対応する被写体画像情報を顔検出処理にて検出された顔(特徴領域C)の特定用情報(例えば、顔画像情報)と対応付けて記憶させる(ステップS14)。
なお、登録テーブルT1に、未だ顔検出処理にて検出された顔の人物名が登録されていない場合には、例えば、ユーザによる操作入力部12の所定操作に基づいて人物名の入力を受け付けて登録しても良いし、その後、人物名の入力モードにて入力することで登録しても良い。また、登録テーブルT1に、既に顔検出処理にて検出された顔の人物名が特定用情報と対応付けて登録されている場合には、必ずしも当該顔検出処理にて新たに検出された特定用情報(例えば、顔画像データ等)自体を記憶する必要はないが、顔検出処理の精度向上を図る上で、当該新たな特定用情報を追加して記憶しても良いし、最も古い情報に上書きして記憶しても良い。
Next, the
If the person name of the face detected by the face detection process has not yet been registered in the registration table T1, for example, an input of a person name is accepted based on a predetermined operation of the
これにより、被写体切り抜き処理を終了する。この結果、例えば、所定の背景内から軽装でぶるぶると震えた子供「A君」が被写体として抽出された被写体切り抜き画像P3aの画像データが生成される。 Thereby, the subject clipping process is completed. As a result, for example, image data of the subject cut-out image P3a in which the child “A-kun” who trembled with light clothing from a predetermined background is extracted as a subject is generated.
次に、撮像装置100による背景画像撮像処理について、図4を参照して説明する。
図4は、背景画像撮像処理に係る動作の一例を示すフローチャートである。
Next, background image imaging processing by the
FIG. 4 is a flowchart illustrating an example of an operation related to the background image capturing process.
背景画像撮像処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
また、以下に説明する背景画像撮像処理にあっては、被写体として、被写体切り抜き処理にて撮像された人物と同一の人物(例えば、子供「A君」等)を撮像するものとする。
The background image capturing process is a normal still image capturing process. Based on a predetermined operation of the
In the background image imaging process described below, it is assumed that the same person as the person imaged by the subject clipping process (for example, child “A-kun”) is captured as the subject.
図4に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による背景画像P4aの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させる(ステップS21)。
As shown in FIG. 4, first, the
次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、中央制御部13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件やホワイトバランス等の条件を調整させて、背景画像P4a(図7(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された背景画像P4aのYUVデータを生成させる(ステップS23)。
続けて、中央制御部13は、記録媒体9の所定の記憶領域に、背景画像P4aのYUVデータをExif形式の画像ファイルとして記憶させる(ステップS24)。
Next, the
Subsequently, the
これにより、背景画像撮像処理を終了する。この結果、例えば、防寒服を着た子供「A君」が雪上をソリで滑る背景画像P4aの静止画像データが生成される。 Thereby, the background image capturing process is terminated. As a result, for example, still image data of the background image P4a in which the child “Mr. A” wearing winter clothes slides on the snow with a sled is generated.
次に、撮像装置100による合成画像生成処理について、図5〜図7を参照して説明する。
図5は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図6は、合成画像生成処理における画像合成処理に係る動作の一例を示すフローチャートである。また、図7(a)及び図7(b)は、合成画像生成処理に係る画像の一例を模式的に示す図である。
Next, composite image generation processing by the
FIG. 5 is a flowchart illustrating an example of an operation related to the composite image generation process. FIG. 6 is a flowchart illustrating an example of an operation related to the image composition processing in the composite image generation processing. FIGS. 7A and 7B are diagrams schematically illustrating an example of an image related to the composite image generation process.
合成画像生成処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から画像合成モードが選択指示された場合に実行される処理である。
図5に示すように、先ず、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の背景画像P4a(図7(a)参照)が選択されて指定されると、中央制御部13は、画像処理部8に、指定された背景画像P4aの画像データを読み出させて画像メモリ5に展開させる(ステップS31)。
The composite image generation processing is executed when an image combination mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the
As shown in FIG. 5, first, based on a predetermined operation of the
次に、中央制御部13は、特徴領域検出部8bに、背景画像P4aから特徴領域Cを検出させる(ステップS32)。具体的には、特徴領域検出部8bの顔認識部8cは、背景画像P4aから所定の顔検出方法を用いて人の顔を検出する顔検出処理を行った後、当該顔検出処理にて検出された顔に対応する顔画像情報が登録テーブルT1に登録されているか否かを判定する。当該判定の結果、顔画像情報が登録されていると判定されると、顔認識部8cは、当該顔画像情報と対応付けて登録されている人物を特定する。そして、特徴領域検出部8bは、背景画像P4aにおける顔認識部8cによって特定された人物の顔画像領域を特徴領域Cとして検出する。
上記の特徴領域Cの検出処理の結果、背景画像P4aから特徴領域Cが検出されると(ステップS32;YES)、中央制御部13は、特徴領域検出部8bに、特徴領域Cと被写体画像Gaとが対応付けられているか否かを判定させる(ステップS33)。具体的には、特徴領域検出部8bは、顔認識部8cによって特定された人物に対応する被写体画像情報が登録テーブルT1に登録されているか否かに応じて特徴領域Cと被写体画像Gaとが対応付けられているか否かを判定する。そして、特徴領域検出部8bは、被写体画像情報が登録テーブルT1に登録されていると判定すると、特徴領域(顔画像領域)Cと被写体画像Gaとが対応付けられていると判断して(ステップS33;YES)、当該特徴領域Cをその後の処理に利用する。
Next, the
When the feature region C is detected from the background image P4a as a result of the above-described feature region C detection processing (step S32; YES), the
次に、中央制御部13は、画像処理部8の前景特定部8dに、登録テーブルT1を参照させて、特徴領域Cと対応付けられている被写体画像Gaが含まれる被写体切り抜き画像P3aを少なくとも一つ特定させ、当該被写体切り抜き画像P3aの画像データを記録媒体9から読み出して画像メモリ5に一時的に記憶させる(ステップS34)。その後、表示制御部10は、画像メモリ5に一時的に記憶されている被写体切り抜き画像P3aの画像データを読み出して表示部11に表示させる。
Next, the
続けて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、表示部11に表示されている少なくとも一の被写体切り抜き画像P3aの中で所望の被写体切り抜き画像P3a(図3(c)参照)が選択されて指定されると(ステップS35)、画像処理部8は、指定された被写体切り抜き画像P3aの被写体画像Gaの顔画像領域と背景画像P4aの特徴領域(顔画像領域)Cとが重なるように、背景画像P4aの特徴領域(顔画像領域)Cを被写体画像Gaの合成位置として指定する(ステップS36)。その後、中央制御部13は、背景画像P4aと被写体切り抜き画像P3aにおける被写体画像Gaを用いて、画像合成処理を合成部8eに行わせる(ステップS37)。
Subsequently, based on a predetermined operation of the
一方、ステップS32にて、背景画像P4aから特徴領域Cが検出されなかった場合(ステップS32;YES)、或いは、ステップS33にて、特徴領域(顔画像領域)Cと被写体画像Gaとが対応付けて登録されていないと判断された場合(ステップS33;NO)、中央制御部13は、被写体切り抜き画像の指定及び被写体画像の合成位置のユーザによる手動での操作を受け付ける。
具体的には、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の被写体切り抜き画像(図示略)が選択されて指定されると、中央制御部13は、画像処理部8に、指定された被写体切り抜き画像の画像データを読み出させて画像メモリ5に展開させる(ステップS38)。
続けて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、ユーザ所望の被写体切り抜き画像の合成位置が指定されると(ステップS39)、中央制御部13は、処理をステップS38に移行させて、背景画像P4aとユーザ所望の被写体切り抜き画像における被写体画像を用いて、画像合成処理を行わせる。
On the other hand, if the feature region C is not detected from the background image P4a in step S32 (step S32; YES), or the feature region (face image region) C and the subject image Ga are associated in step S33. If it is determined that the image is not registered (step S33; NO), the
Specifically, a desired subject cut-out image (not shown) is selected from a plurality of images recorded on the
Subsequently, when a user-desired subject clipping image combining position is designated based on a predetermined operation of the
ここで、画像合成処理について、図6を参照して詳細に説明する。
なお、以下に説明する画像合成処理は、自動的に指定されて読み出された被写体切り抜き画像P3aと、ステップS39にて指定されたユーザ所望の被写体切り抜き画像とについてそれぞれ別個に行われる処理であるが、画像合成処理自体の内容は略同等であるのでまとめて説明する。また、被写体切り抜き画像P3aを例示して画像合成処理を説明するものとし、ユーザ所望の被写体切り抜き画像については、特に言及する場合を除き、その説明を省略する。
Here, the image composition processing will be described in detail with reference to FIG.
Note that the image composition processing described below is performed separately for the subject clipped image P3a that has been automatically specified and read out, and the user-subjected clipped image specified in step S39. However, since the contents of the image composition processing itself are substantially equivalent, they will be described together. Further, the image composition processing will be described by exemplifying the subject cutout image P3a, and the description of the user desired subject cutout image is omitted unless otherwise specified.
図6に示すように、合成部8eは、被写体切り抜き画像P3aと対応付けて記憶されているアルファマップを読み出して画像メモリ5に展開する(ステップS51)。
なお、背景画像P4aにおける被写体切り抜き画像P3aの合成位置が決定された際に、背景画像P4aとアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
また、画像合成により生成される被写体合成画像P5a中に同一人物が複数存在した状態とならないように、寸法変更部8fは、被写体画像Gaの寸法に基づいて、被写体画像Gaの寸法を拡大・縮小したり、背景画像P4aの寸法を拡大・縮小したり所定領域をトリミングしても良い。
As shown in FIG. 6, the composition unit 8e reads the alpha map stored in association with the subject cutout image P3a and develops it in the image memory 5 (step S51).
Note that when the composition position of the subject cutout image P3a in the background image P4a is determined, the background image P4a and the alpha map are misaligned, and an alpha value is present with α = 0. Do not create a region that does not.
Further, the
次に、合成部8eは、背景画像P4aの何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS52)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS53)。具体的には、合成部8eは、背景画像P4aの何れか一の画素のうち、アルファ値が1の画素については(ステップS53;α=1)、被写体切り抜き画像P3aの対応する画素の画素値で上書きし(ステップS54)、アルファ値が0<α<1の画素については(ステップS53;0<α<1)、1の補数(1−α)を用いて被写体画像Gaを切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3aを生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3aから減算し、それを被写体画像Gaを切り抜いた画像(背景画像×(1−α))と合成し(ステップS55)、アルファ値が0の画素については(ステップS53;α=0)、何もせずに背景画像P4aを透過させるようにする。 Next, the synthesizing unit 8e designates any one pixel (for example, the pixel at the upper left corner) of the background image P4a (step S52), and branches the process for the pixel based on the alpha value of the alpha map. (Step S53). Specifically, for any pixel with an alpha value of 1 among any one of the pixels in the background image P4a (step S53; α = 1), the composition unit 8e sets the pixel value of the corresponding pixel in the subject cutout image P3a. (Step S54), and for pixels with an alpha value of 0 <α <1 (step S53; 0 <α <1), an image obtained by cutting out the subject image Ga using 1's complement (1-α) ( After generating the background image × (1−α)), when the subject cutout image P3a is generated using the one's complement (1−α) in the alpha map, a value blended with the single background color is calculated, The value is subtracted from the subject cutout image P3a, and is combined with an image (background image × (1-α)) cut out of the subject image Ga (step S55). For pixels with an alpha value of 0 (step S53; α = 0) Anything so as to pass through the background image P4a without.
続けて、合成部8eは、背景画像P4aの全ての画素について処理したか否かを判定する(ステップS56)。
ここで、全ての画素について処理していないと判定されると(ステップS56;NO)、合成部8eは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS57)、処理をステップS53に移行させる。
上記の処理を、ステップS56にて全ての画素について処理したと判定されるまで(ステップS56;YES)、繰り返すことで、合成部8eは、被写体切り抜き画像P3aと背景画像P4aとを合成した被写体合成画像P5aの画像データを生成させる。
これにより、画像合成処理を終了する。
Subsequently, the composition unit 8e determines whether or not all the pixels of the background image P4a have been processed (step S56).
If it is determined that all the pixels have not been processed (step S56; NO), the synthesis unit 8e designates the next pixel as the processing target and moves the processing target to the pixel (step S57). ), The process proceeds to step S53.
By repeating the above processing until it is determined that all pixels have been processed in step S56 (step S56; YES), the combining unit 8e combines the subject clipped image P3a and the background image P4a. Image data of the image P5a is generated.
Thereby, the image composition process is terminated.
図5に示すように、その後、中央制御部13は、表示制御部10に、合成部8eにより生成された被写体合成画像P5aの画像データに基づいて、背景画像P4aに被写体が重畳された被写体合成画像P5aを表示部11の表示画面に表示させる(ステップS40)。
具体的には、例えば、背景画像P4aから自動的に指定された被写体切り抜き画像P3aを用いて合成した場合には、表示部11は、画像合成により生成された被写体合成画像P5aと画像合成前の背景画像P4aとを所定タイミングで切り替えて交互に再生表示することで、例えば、雪上を子供「A君」がソリで滑る背景画像P4aと、雪上で寒さにぶるぶると震える子供「A君」が表現された被写体合成画像P5aとを切り替えて再生表示する。
また、ユーザ所望の被写体切り抜き画像を用いて合成した場合には、表示部11は、画像合成により生成された被写体合成画像(図示略)を再生表示する。
これにより、合成画像生成処理を終了する。
As shown in FIG. 5, thereafter, the
Specifically, for example, when the image is synthesized using the subject cutout image P3a automatically specified from the background image P4a, the
In addition, when the image is synthesized using a subject desired clipped image, the
Thus, the composite image generation process is finished.
以上のように、本実施形態の撮像装置100によれば、背景画像P4aから被写体切り抜き画像P3aの被写体画像(前景画像)Gaと対応付けられている特徴領域Cを検出して、背景画像P4aにおける特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gaを合成するので、背景画像P4bへの合成に適した被写体画像Gaを自動的に特定し、背景画像P4aにおける被写体画像Gaの合成位置を自動的に決定することができる。
即ち、登録テーブルT1には、被写体切り抜き画像P3aに含まれる被写体画像Gaを特定するための被写体画像情報と特徴領域Cを特定するための特定用情報とが対応付けて登録されている。そして、前景特定部8dは、登録テーブルT1を参照して、記録媒体9に記憶されている複数の被写体画像Gaを含む被写体切り抜き画像P3aの中から背景画像P4aの特徴領域Cと対応付けられている被写体画像Gaを特定するので、記録媒体9に複数の被写体切り抜き画像P3aが記憶されている場合であっても、背景画像P4aの特徴領域Cと対応付けられている被写体画像Gaを含む被写体切り抜き画像P3aの特定を自動的に、且つ、確実に行うことができる。
また、特定された被写体画像Gaの人物の顔画像領域と、背景画像P4aにおける被写体画像Gaの人物と同じ人物の顔画像領域とが重なるように合成するので、画像合成により生成される被写体合成画像P5a中に同一人物が複数存在した状態とならないように、背景画像P4aにおける被写体画像Gaの合成位置の決定を自動的に、且つ、簡便に行って被写体合成画像P5aの生成を簡便に行うことができる。
As described above, according to the
That is, in the registration table T1, subject image information for specifying the subject image Ga included in the subject cutout image P3a and specification information for specifying the feature region C are registered in association with each other. Then, the
In addition, since the face image area of the person of the specified subject image Ga and the face image area of the same person as the person of the subject image Ga in the background image P4a are combined, the combined subject image generated by the image combination The composition position of the subject image Ga in the background image P4a can be determined automatically and simply so that the composite subject image P5a can be easily generated so that the same person does not exist in P5a. it can.
また、前景特定部8dによって複数の被写体画像Gaを含む被写体切り抜き画像P3aが特定された場合であっても、ユーザ所望の何れか一の被写体画像Gaを指定することができ、当該ユーザ所望の被写体画像Gaを背景画像P4aにおける特徴領域Cが検出された領域に合成することができることとなって、ユーザ所望の被写体画像Gaが合成された被写体合成画像P5aを生成することができる。
Even when the
さらに、合成される被写体画像Gaの寸法に基づいて、当該被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を自動的に変更することができるので、被写体画像Gaの寸法と背景画像P4aにおける特徴領域Cの寸法が異なる場合であっても、同一人物が複数存在した不自然な被写体合成画像P5aの生成を防止することができる。 Furthermore, since at least one of the subject image Ga and the background image P4a can be automatically changed based on the size of the subject image Ga to be synthesized, the size of the subject image Ga and the feature region in the background image P4a Even when the dimensions of C are different, generation of an unnatural subject composite image P5a in which a plurality of the same persons exist can be prevented.
また、画像合成により生成された被写体合成画像P5aと画像合成前の背景画像P4aとを所定タイミングで切り替えて交互に再生表示するので、被写体合成画像P5aが静止画像であっても、現象的には再生表示される画像中の被写体画像Gaに動きを持たせることができる。即ち、例えば、防寒服を着た子供「A君」が雪上をソリで滑る背景画像P4a(図7(a)参照)と、雪上で軽装のために寒さにぶるぶると震える子供「A君」が表現された被写体合成画像P5a(図7(b)参照)とを交互に切り替えることで、防寒服を着てソリに乗っている子供「A君」がいきなり軽装になってぶるぶると震え出すような動きを表現することができる。これにより、再生表示される画像の興趣性を向上させることができる。 In addition, since the subject composite image P5a generated by the image composition and the background image P4a before the image composition are switched at a predetermined timing and alternately reproduced and displayed, even if the subject composite image P5a is a still image, the phenomenon A motion can be given to the subject image Ga in the image to be reproduced and displayed. That is, for example, there is a background image P4a (see FIG. 7A) where a child “Mr. By alternately switching the expressed subject composite image P5a (see FIG. 7 (b)), the child “A-kun” wearing a winter clothes and wearing a sled suddenly becomes lightly dressed and trembles. Can express movement. Thereby, the interest property of the image reproduced and displayed can be improved.
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、特徴領域Cとして人物の顔画像領域を検出するようにしたが、検出される領域は人物の顔画像領域に限られるものではなく、人物の画像であれば顔を含むか否かは適宜任意に変更することができる。また、同様に、特徴領域Cとして検出された顔画像領域と対応付けられている被写体画像Gaの顔画像領域と特徴領域Cの顔画像領域とが重なるように被写体画像Gaと背景画像P4aとを合成するようにしたが、必ずしも被写体画像Gaの顔画像領域と特徴領域Cの顔画像領域とが重なるように合成される必要はなく、被写体画像Gaが顔を含まない人物画像である場合には、当該被写体画像Gaと特徴領域Cとが重なるように合成されれば良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above-described embodiment, the human face image area is detected as the feature area C. However, the detected area is not limited to the human face image area. Whether or not a face is included can be arbitrarily changed as appropriate. Similarly, the subject image Ga and the background image P4a are arranged such that the face image area of the subject image Ga associated with the face image area detected as the feature area C and the face image area of the feature area C overlap. Although they are combined, it is not always necessary to combine the face image area of the subject image Ga and the face image area of the feature area C. When the subject image Ga is a human image that does not include a face, The subject image Ga and the feature area C may be combined so as to overlap.
また、上記実施形態にあっては、画像合成に係る被写体として人物(例えば、子供「A君」)を例示して説明したが、被写体の種類はこれに限られるものではなく適宜任意に変更することができる。さらに、背景画像P4aの特徴領域Cと被写体切り抜き処理にて抽出される被写体画像(前景画像)Gaの種類が同じである必要はなく、前景画像と対応付けられる特徴領域Cは如何なるものであっても良し、ユーザが任意に設定できるようにしても良い。
以下に、被写体の一例として、動物(例えば、「犬」等)を、当該動物と対応付けられる特徴領域Cとして、物品(例えば、「サッカーボール」等)を採用して撮像装置100の変形例を説明する。
In the above-described embodiment, a person (for example, the child “A-kun”) is exemplified as a subject related to image composition. However, the type of subject is not limited to this, and can be arbitrarily changed as appropriate. be able to. Further, the feature region C of the background image P4a and the subject image (foreground image) Ga extracted by the subject clipping process do not have to be the same, and what is the feature region C associated with the foreground image? Alternatively, the user may arbitrarily set it.
Hereinafter, as an example of a subject, an animal (for example, “dog” or the like) is used as a feature region C associated with the animal, and an article (for example, “soccer ball” or the like) is employed. Will be explained.
<変形例1>
変形例1の撮像装置100について、図8及び図9を参照して説明する。
図8(a)〜図8(c)は、変形例1の撮像装置100による被写体切り抜き処理に係る画像の一例を模式的に示す図であり、また、図9(a)及び図9(b)は、合成画像生成処理に係る画像の一例を模式的に示す図である。
なお、変形例1の撮像装置100は、特徴領域検出部8b及び登録テーブルT1の構成以外の点で上記実施形態の撮像装置100と略同様の構成をなし、その説明は省略する。
<
An
FIGS. 8A to 8C are diagrams schematically illustrating an example of an image related to the subject clipping process performed by the
Note that the
画像処理部8の特徴領域検出部8bは、例えば、背景画像P4bの画像データの色情報などを用いてコントラスト差を検出したり、画素集合の輪郭線(エッジ部分)を抽出することで、特徴領域C(例えば、「サッカーボール」や「木」の画像部分)を検出する。そして、特徴領域検出部8bは、検出された特徴領域Cが登録テーブルT1に登録されているか否かを判定する。例えば、特徴領域検出部8bは、特徴領域Cの画像と同じ画像パターンが特定用情報として記憶されているか否かを判定し、当該判定の結果、特徴領域Cが登録されていると判定されると、当該特徴領域Cと対応付けて登録されている登録名(例えば、「サッカーボール」)を取得する。
次に、特徴領域検出部8bは、特徴領域Cの登録名に対応する被写体画像情報が登録テーブルT1に登録されているか否かを判定する。そして、特徴領域検出部8bは、被写体画像情報(例えば、「サッカーボール」と対応付けて「犬」)が登録テーブルT1に登録されていると判定されると、特徴領域Cが被写体画像Gbと対応付けられていると判断して当該特徴領域Cをその後の処理に利用する一方で、被写体画像情報が登録テーブルT1に登録されていないと判定されると、検出された特徴領域Cを破棄する。
The feature
Next, the feature
テーブル記憶部8gには、登録名(例えば、「サッカーボール」等の物品の「名称」や、動物の種類を表す「動物名」やペットの「名称」や「愛称」等)と、特徴領域Cとして検出された画像部分を特定するための特定用情報と、被写体切り抜き処理にて抽出された被写体画像Gbに係る被写体画像情報等が対応付けられた登録テーブルT1が記憶されている。
なお、特定用情報は、物品や動物等の対象画像そのものの画像データに限られるものではなく、特徴領域Cを特定するための画像に係る情報、例えば、物品や動物の特徴データや画像パターン等の如何なる情報であっても良い。
The
Note that the specifying information is not limited to the image data of the target image itself such as an article or an animal, but information related to an image for specifying the feature region C, for example, feature data or an image pattern of the article or animal. Any information may be used.
次に、撮像装置100による被写体切り抜き処理について、図2並びに図8(a)〜図8(c)を参照して説明する。
なお、以下に説明する被写体切り抜き処理にあっては、被写体として「犬」を撮像して当該「犬」の被写体切り抜き画像P3bを生成する以外の点で、上記実施形態における処理と略同様であり、その詳細な説明は省略する。
Next, the subject clipping process performed by the
The subject clipping process described below is substantially the same as the process in the above embodiment, except that “dog” is imaged as a subject and the subject clipped image P3b of the “dog” is generated. Detailed description thereof will be omitted.
即ち、図2に示すように、先ず、上記実施形態と同様に、中央制御部13は、表示制御部10にライブビュー画像を表示部11の表示画面に表示させる処理を行わせる(ステップS1)。
そして、ステップS2にて、中央制御部13は、画像処理部8の特徴領域検出部8bに、ライブビュー画像を構成する複数の画像フレームの各々から特徴領域Cを検出させる。具体的には、特徴領域検出部8bは、各画像フレームの画像データの色情報などを用いてコントラスト差を検出したり、画素集合の輪郭線(エッジ部分)を抽出することで、特徴領域C(例えば、「犬」の画像部分)を検出する。そして、特徴領域Cが検出されると、中央制御部13は、表示制御部10に、検出された特徴領域Cに重畳させて特徴領域検出枠(図示略)を表示部11に表示させる処理を行わせる。
That is, as shown in FIG. 2, first, as in the above embodiment, the
In step S2, the
その後、上記実施形態と同様に、ステップS3にて、撮像指示が入力されたと判定されると(ステップS3;YES)、中央制御部13は、撮像制御部3に、特徴領域検出枠(図示略)をAFエリアとしてフォーカスレンズの合焦位置を調整させるとともに、露出条件(シャッター速度、絞り、信号増幅率等)やホワイトバランス等を調整させて、被写体存在画像P1b(図8(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる(ステップS4)。
Thereafter, as in the above embodiment, when it is determined in step S3 that an imaging instruction has been input (step S3; YES), the
次に、中央制御部13は、上記実施形態と同様に、表示制御部10にライブビュー画像を表示部11の表示画面に表示させる処理を行わせる(ステップS5)。
この後、上記実施形態と同様に、ユーザは、被写体が移動するのを待つか、或いは、被写体を画角外に移動させた後、ユーザにより被写体非存在画像P2bが被写体存在画像P1bの半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS6;YES)、中央制御部13は、撮像制御部3に、被写体非存在画像P2b(図8(b)参照)の光学像を被写体存在画像P1bの撮像後に固定された条件で電子撮像部2により撮像させる(ステップS7)。
Next, the
Thereafter, as in the above-described embodiment, the user waits for the subject to move, or moves the subject outside the angle of view, and then the subject nonexistent image P2b is translucent to the subject present image P1b. When it is determined that the camera position is adjusted so as to overlap the image of the camera and the
続けて、上記実施形態と同様に、ステップS8〜S12の処理を行って、画像処理部8の画像生成部は、被写体画像Gbを所定の単一色画像と合成した被写体切り抜き画像P3b(図8(c)参照)の画像データを生成する。
その後、上記実施形態と同様に、中央制御部13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部により生成されたアルファマップと被写体切り抜き画像P3bの画像データとを対応付けて一ファイルで記憶させる(ステップS13)。
次に、上記実施形態と同様に、中央制御部13は、テーブル記憶部8gの登録テーブルT1に、被写体切り抜き画像P3bの被写体画像Gbに対応する被写体画像情報を特徴領域検出処理にて検出された特徴領域Cの特定用情報と対応付けて記憶させる(ステップS14)。
Subsequently, in the same manner as in the above-described embodiment, the processes of steps S8 to S12 are performed, and the image generation unit of the
Thereafter, as in the above embodiment, the
Next, as in the above embodiment, the
これにより、被写体切り抜き処理を終了する。この結果、例えば、所定の背景内から「犬」が被写体として抽出された被写体切り抜き画像P3bの画像データが生成される。 Thereby, the subject clipping process is completed. As a result, for example, image data of a subject cutout image P3b in which “dog” is extracted as a subject from a predetermined background is generated.
次に、撮像装置100による背景画像撮像処理について、図4を参照して説明する。
なお、以下に説明する背景画像撮像処理にあっては、被写体として、被写体切り抜き画像P3bの被写体画像Gbに係る「犬」と対応付けられている「サッカーボール」が含まれる背景を撮像する以外の点で、上記実施形態における処理と略同様であり、その詳細な説明は省略する。
Next, background image imaging processing by the
In the background image capturing process described below, a background other than capturing a background including a “soccer ball” associated with “dog” related to the subject image Gb of the subject cut-out image P3b. In this respect, the processing is substantially the same as the processing in the above embodiment, and detailed description thereof is omitted.
即ち、図4に示すように、上記実施形態と同様に、ステップS21〜S24の処理を行って、電子撮像部2が背景画像P4b(図9(a)参照)の光学像を所定の条件で撮像して、画像データ生成部4が背景画像P4bのYUVデータを生成した後、中央制御部13は、記録媒体9の所定の記憶領域に、背景画像P4bのYUVデータをExif形式の画像ファイルとして記憶させる。
That is, as shown in FIG. 4, similarly to the above embodiment, the processing of steps S21 to S24 is performed, and the electronic imaging unit 2 causes the optical image of the background image P4b (see FIG. 9A) to be obtained under a predetermined condition. After the image is captured and the image
これにより、背景画像撮像処理を終了する。この結果、例えば、背景内に「サッカーボール」が存する背景画像P4bの静止画像データが生成される。 Thereby, the background image capturing process is terminated. As a result, for example, still image data of the background image P4b having “soccer ball” in the background is generated.
次に、撮像装置100による合成画像生成処理について、図5、図6並びに図9(a)及び図9(b)を参照して説明する。
なお、以下に説明する合成画像生成処理にあっては、背景画像P4bから「サッカーボール」の画像部分を特徴領域Cとして検出して、当該「サッカーボール」に重ねて「犬」の画像を合成する以外の点で、上記実施形態における処理と略同様であり、その詳細な説明は省略する。
Next, composite image generation processing by the
In the composite image generation process described below, the image portion of “soccer ball” is detected as the feature region C from the background image P4b, and the image of “dog” is superimposed on the “soccer ball”. Except for this point, the processing is substantially the same as the processing in the above embodiment, and the detailed description thereof is omitted.
即ち、図5に示すように、先ず、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の背景画像P4b(図9(a)参照)が選択されて指定されると、中央制御部13は、画像処理部8に、指定された背景画像P4bの画像データを読み出させて画像メモリ5に展開させる(ステップS31)。
That is, as shown in FIG. 5, first, based on a predetermined operation of the
次に、中央制御部13は、特徴領域検出部8bに、背景画像P4bから特徴領域Cを検出させる(ステップS32)。具体的には、特徴領域検出部8bは、背景画像P4bから所定の検出方法を用いて特徴領域C(例えば、「サッカーボール」や「木」の画像部分)を検出する処理を行った後、当該検出処理にて検出された特徴領域Cに対応する特定用情報が登録テーブルT1に登録されているか否かを判定する。当該判定の結果、特定用情報が登録されていると判定されると、特徴領域検出部8bは、当該特定用情報と対応付けて登録されている登録名(例えば、「サッカーボール」)を取得する。
上記の特徴領域Cの検出処理の結果、背景画像P4bから特徴領域Cが検出されると(ステップS32;YES)、中央制御部13は、特徴領域検出部8bに、特徴領域Cと被写体画像Gbとが対応付けられているか否かを判定させる(ステップS33)。具体的には、特徴領域検出部8bは、取得した登録名に対応する被写体画像情報(例えば、「サッカーボール」と対応付けて「犬」)が登録テーブルT1に登録されているか否かに応じて特徴領域Cと被写体画像Gbとが対応付けられているか否かを判定する。そして、特徴領域検出部8bは、被写体画像情報が登録テーブルT1に登録されていると判定すると、特徴領域Cと被写体画像Gbとが対応付けられていると判断して(ステップS33;YES)、当該特徴領域Cをその後の処理に利用する。
Next, the
When the feature area C is detected from the background image P4b as a result of the detection process of the feature area C (step S32; YES), the
次に、ステップS34にて、上記実施形態と同様に、画像処理部8の前景特定部8dは、登録テーブルT1を参照して、特徴領域Cと対応付けられている被写体画像Gbが含まれる被写体切り抜き画像P3bを少なくとも一つ特定して、当該被写体切り抜き画像P3bの画像データを記録媒体9から読み出して画像メモリ5に一時的に記憶する。
その後、ステップS35にて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、表示部11に表示されている少なくとも一の被写体切り抜き画像P3bの中で所望の被写体切り抜き画像P3b(図8(c)参照)が選択されて指定されると、画像処理部8は、前景特定部8dによって特定された被写体切り抜き画像P3bの被写体画像Gb(例えば、「犬」の画像)と背景画像P4bの特徴領域C(例えば、「サッカーボール」の画像部分)とが重なるように、背景画像P4bの特徴領域Cを被写体画像Gbの合成位置として指定する(ステップS36)。
そして、ステップS37にて、合成部8eは、背景画像P4bと被写体切り抜き画像P3bにおける被写体画像Gbを用いて、画像合成処理(図6参照)を行う。
なお、図6に示す画像合成処理は、上記実施形態と同様であり、その詳細な説明は省略する。
Next, in step S34, as in the above embodiment, the
Thereafter, in step S35, a desired subject cutout image P3b (of at least one subject cutout image P3b displayed on the
In step S37, the composition unit 8e performs image composition processing (see FIG. 6) using the subject image Gb in the background image P4b and the subject cutout image P3b.
Note that the image composition processing shown in FIG. 6 is the same as that in the above embodiment, and a detailed description thereof will be omitted.
一方、ステップS32にて、背景画像P4bから特徴領域Cが検出されなかった場合(ステップS32;YES)、或いは、ステップS33にて、特徴領域Cと被写体画像Gbとが対応付けて登録されていないと判断された場合(ステップS33;NO)、中央制御部13は、処理をステップS38に移行させるが、それ以降の処理は上記実施形態と同様であり、その詳細な説明は省略する。
On the other hand, if the feature region C is not detected from the background image P4b in step S32 (step S32; YES), or the feature region C and the subject image Gb are not registered in association with each other in step S33. Is determined (step S33; NO), the
次に、図5に示すように、ステップS40にて、表示制御部10は、合成部8eにより生成された被写体合成画像P5bの画像データに基づいて、背景画像P4bに被写体が重畳された被写体合成画像P5bを表示部11の表示画面に表示させる。これにより、表示部11は、背景画像P4b中のサッカーボールの位置に被写体画像Gbである「犬」の画像が重ねられた被写体合成画像P5bを表示する。
なお、上記実施形態と同様に、表示部11は、画像合成により生成された被写体合成画像P5bと画像合成前の背景画像P4bとを所定タイミングで切り替えて交互に再生表示しても良い。
これにより、合成画像生成処理を終了する。
Next, as shown in FIG. 5, in step S40, the
Similar to the above embodiment, the
Thus, the composite image generation process is finished.
従って、変形例1の撮像装置100によれば、上記実施形態と同様に、背景画像P4bから被写体切り抜き画像P3bの「犬」の画像である被写体画像(前景画像)Gbと対応付けられている特徴領域C(「サッカーボール」の画像部分)を検出して、背景画像P4bにおける特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gbを合成するので、背景画像P4bへの合成に適した被写体画像Gbを自動的に特定し、背景画像P4bにおける被写体画像Gbの合成位置を自動的に決定することができ、被写体合成画像P5bの生成を簡便に行うことができる。
Therefore, according to the
また、上記実施形態及び変形例1にあっては、前景特定部8dによって複数の被写体画像Ga(Gb)を含む被写体切り抜き画像P3a(P3b)が特定された場合には、ユーザによる操作入力部12の所定操作に基づいてユーザ所望の何れか一の被写体画像Ga(Gb)を指定するようにしたが、例えば、撮影条件、撮影日時、被写体画像Ga(Gb)の寸法等の各種条件を考慮して、被写体画像Ga(Gb)の指定を自動的に行なっても良い。即ち、複数の被写体切り抜き画像P3a(P3b)の中から、例えば、ピンぼけしていない画像や、明るい画像や、撮影日時が最も新しい画像や、被写体画像Ga(Gb)の寸法の大きい画像等を優先的に選択するようにして、当該被写体画像Ga(Gb)の指定処理を自動的に行っても良い。これにより、複数の被写体切り抜き画像P3a(P3b)が特定された場合に、被写体合成画像P5bの生成をさらに簡便に行うことができる。
また、上記実施形態及び変形例1にあっては、特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gbを合成するようにしたが、これに限られるものではない。例えば、特徴領域Cが検出されたら、前景特定部8dによって特徴領域Cと対応付けられている被写体画像Gbを特定し、合成位置はユーザによる操作入力部12の所定操作に基づいて決定するようにしても良いし、ユーザによる操作入力部12の所定操作に基づいて複数記憶されている被写体切り抜き画像P3a(P3b)と背景画像P4a(P4b)からそれぞれ1つを指定し、指定した背景画像P4a(P4b)から特徴領域Cが検出されると、この特徴領域Cを指定した被写体切り抜き画像P3a(P3b)に含まれる被写体画像Ga(Gb)の合成位置とするようにしても良い。つまり、特徴領域Cに基づいて、被写体画像Ga(Gb)だけ特定してもよいし、合成位置だけ特定してもよい。
また、上記実施形態及び変形例1にあっては、指定した背景画像P4a(P4b)から特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gbを特定するようにしたが、ユーザによる操作入力部12の所定操作に基づいて複数記憶されている被写体切り抜き画像P3a(P3b)から1つを指定すると、指定した被写体切り抜き画像P3a(P3b)に含まれる被写体画像Gbと対応付けられている特徴領域Cを含んだ、背景画像P4a(P4b)を特定するようにしても良い。
In the above embodiment and the first modification, when the
In the embodiment and the first modification, the subject image Gb associated with the feature region C is combined with the region in which the feature region C is detected. However, the present invention is not limited to this. is not. For example, when the feature region C is detected, the subject image Gb associated with the feature region C is specified by the
In the embodiment and the first modification, the subject image Gb associated with the feature region C is specified as the region in which the feature region C is detected from the designated background image P4a (P4b). However, if one of the plurality of subject cutout images P3a (P3b) stored based on a predetermined operation of the
加えて、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置100を例示したが、これに限られるものではない。例えば、背景画像P4a(P4b)の撮像及び被写体切り抜き画像P3a(P3b)の生成は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された画像データを記録して、合成画像生成処理のみを実行する画像合成装置であっても良い。
また、上記実施形態にあっては、表示部11は、画像合成により生成された被写体合成画像P5aと背景画像P4aとを所定間隔で切替え再生するようにしたが、必ずしもこれらの画像を切り替え再生する必要はなく、少なくとも被写体合成画像P5aを表示すれば良い。
さらに、上記実施形態にあっては、被写体画像Ga及び背景画像P4aの寸法を変更する寸法変更部8fを備えるようにしたが、これに限られるものではなく、寸法変更部8fを備えるか否かは適宜任意に変更することができる。
In addition, the configuration of the
In the above embodiment, the
Furthermore, in the above embodiment, the
また、上記実施形態にあっては、背景指定手段、検出手段、特定手段としての機能を、中央制御部13の制御下にて、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、背景指定処理ルーチン、検出処理ルーチン、特定処理ルーチンを含むプログラムを記憶しておく。そして、背景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の背景画像P4aの中から何れか一の背景画像P4aを指定する背景指定手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部13のCPUを、指定された背景画像P4aから特徴領域Cを検出する検出手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部13のCPUを、検出された特徴領域Cと対応付けられている被写体画像(前景画像)Gaを記録媒体9に記憶されている複数の被写体画像Gaの中から特定する特定手段として機能させるようにしても良い。
また、プログラムを記憶するプログラムメモリ(図示略)に、前景指定処理ルーチン、背景指定処理ルーチン、検出処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、前景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の被写体画像(前景画像)Gaの中から何れか一の被写体画像Gaを指定する前景指定手段として機能させるようにしても良い。また、背景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の背景画像P4aの中から何れか一の背景画像P4aを指定する背景指定手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部13のCPUを、背景指定処理ルーチンにより指定された背景画像P4aから前景指定処理ルーチンにより指定された被写体画像(前景画像)Gaと対応付けられている特徴領域Cを検出する検出手段として機能させるようにしても良い。また、合成処理ルーチンにより中央制御部13のCPUを、背景画像P4aにおける特徴領域Cが検出された領域に、前景指定処理ルーチンにより指定された被写体画像(前景画像)Gaを合成する合成手段として機能させるようにしても良い。
また、プログラムを記憶するプログラムメモリ(図示略)に、前景指定処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、前景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の被写体画像(前景画像)Gaの中から何れか一の被写体画像Gaを指定する前景指定手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部13のCPUを、指定された被写体画像(前景画像)Gaと対応付けられている特徴領域Cを含んだ背景画像P4aを記録媒体9に記憶されている複数の背景画像P4aの中から特定する特定手段として機能させるようにしても良い。
In the above embodiment, the functions as the background specifying means, the detecting means, and the specifying means are realized by the
That is, a program including a background designation processing routine, a detection processing routine, and a specific processing routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the
A program memory (not shown) that stores the program stores a program including a foreground designation processing routine, a background designation processing routine, a detection processing routine, and a synthesis processing routine. Then, the CPU of the
Further, a program memory (not shown) for storing the program stores a program including a foreground designation processing routine and a synthesis processing routine. Then, the CPU of the
100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8a 切り抜き画像生成部
8b 特徴領域検出部
8c 顔認識部
8d 前景特定部
8e 合成部
8f 寸法変更部
8g テーブル記憶部
9 記録媒体
12 操作入力部
12b 選択決定ボタン
13 中央制御部
Ga、Gb 被写体画像
P4a、P4b 背景画像
DESCRIPTION OF
Claims (17)
背景画像及び前景画像の各々を複数記憶する記憶手段と、
この記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、
この背景指定手段によって指定された背景画像から特徴領域を検出する検出手段と、
この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段と、
を備えたことを特徴とする画像合成装置。 In an image synthesizing apparatus provided with a synthesizing unit that synthesizes a foreground image with a background image,
Storage means for storing a plurality of background images and foreground images;
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region from the background image specified by the background specifying means;
Specifying means for specifying a foreground image associated with the feature region detected by the detecting means from among a plurality of foreground images stored in the storage means;
An image composition device comprising:
前記特定手段によって特定された複数の前景画像の中から何れか一の前景画像を指定する前景指定手段を更に備え、
前記合成手段は、
前記前景指定手段によって指定された前記前景画像を合成することを特徴とする請求項1又は2に記載の画像合成装置。 The specifying means specifies a plurality of the foreground images,
Foreground designating means for designating any one of the foreground images identified by the identifying means;
The synthesis means includes
3. The image composition apparatus according to claim 1, wherein the foreground image designated by the foreground designating unit is synthesized.
前記特定手段は、前記特徴領域と同じ人物の画像を含む前景画像を特定することを特徴とする請求項1〜3の何れか一項に記載の画像合成装置。 The feature region is a person image region in the background image,
The image specifying apparatus according to claim 1, wherein the specifying unit specifies a foreground image including an image of the same person as the feature region.
この記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段と、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、
この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段と、
前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段と、
を備えたことを特徴とする画像合成装置。 Storage means for storing a plurality of background images and foreground images;
Foreground designating means for designating any one foreground image from a plurality of background images stored in the storage means;
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region associated with the foreground image specified by the foreground specifying means from the background image specified by the background specifying means;
Synthesizing means for synthesizing the foreground image designated by the foreground designating means to the area of the background image in which the characteristic area is detected by the detecting means;
An image composition device comprising:
前記特徴領域は、前記背景画像における前記人物と同じ人物の顔画像領域であることを特徴とする請求項5記載の画像合成装置。 The foreground image is a human image including a human face image;
6. The image composition apparatus according to claim 5, wherein the feature area is a face image area of the same person as the person in the background image.
前記前景画像の顔画像領域と前記背景画像の顔画像領域とが重なるように合成することを特徴とする請求項6に記載の画像合成装置。 The synthesis means includes
The image synthesizing apparatus according to claim 6, wherein the synthesis is performed so that the face image area of the foreground image and the face image area of the background image overlap.
背景画像及び前景画像の各々を複数記憶する記憶手段と、
この記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、
この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段と、
を備えたことを特徴とする画像合成装置。 In an image synthesizing apparatus provided with a synthesizing unit that synthesizes a foreground image with a background image,
Storage means for storing a plurality of background images and foreground images;
Foreground designating means for designating any one of the foreground images stored in the storage means;
Specifying means for specifying a background image including a feature region associated with the foreground image designated by the foreground designating means from a plurality of background images stored in the storage means;
An image composition device comprising:
前記合成手段は、前記変更手段によって前記前景画像及び前記背景画像の少なくとも一方の寸法を変更してから合成することを特徴とする請求項1〜8の何れか一項に記載の画像合成装置。 Further comprising changing means for changing the size of at least one of the foreground image and the background image based on the size of the foreground image synthesized by the synthesizing unit and the size of the feature region in the background image,
The image synthesizing apparatus according to claim 1, wherein the synthesizing unit synthesizes after changing at least one dimension of the foreground image and the background image by the changing unit.
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、
この背景指定ステップによって指定された背景画像から特徴領域を検出する検出ステップと、
前記記憶手段に記憶されている複数の前景画像の中から、前記検出ステップによって検出された特徴領域と対応付けられている前景画像を特定する特定ステップと、
を備えたことを特徴とする画像特定方法。 An image specifying method of an image composition device comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image,
A background designating step of designating any one of the plurality of background images stored in the storage means;
A detection step of detecting a feature region from the background image designated by the background designation step;
A specifying step for specifying a foreground image associated with the feature region detected by the detection step from among the plurality of foreground images stored in the storage unit;
An image specifying method comprising:
前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定ステップと、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、
この背景指定ステップによって指定された背景画像から前記前景画像指定ステップによって指定された前景画像と対応付けられている特徴領域を検出する検出ステップと、
前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成ステップと、
を備えたことを特徴とする画像合成方法。 An image composition method for an image composition apparatus comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image,
A foreground designating step of designating any one foreground image from a plurality of background images stored in the storage means;
A background designating step of designating any one of the plurality of background images stored in the storage means;
A detecting step for detecting a feature region associated with the foreground image specified by the foreground image specifying step from the background image specified by the background specifying step;
Synthesizing a foreground image designated by the foreground designating means with an area of the background image in which the characteristic area is detected by the detecting means;
An image composition method characterized by comprising:
前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定ステップと、
この前景指定ステップによって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定ステップと、
を備えたことを特徴とする画像特定方法。 An image specifying method of an image composition device comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image,
A foreground designating step of designating any one of the foreground images stored in the storage means;
A specifying step of specifying a background image including a feature region associated with the foreground image specified in the foreground specifying step from a plurality of background images stored in the storage unit;
An image specifying method comprising:
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、
この背景指定手段によって指定された背景画像から前景画像と対応付けられている特徴領域を検出する検出手段、
この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段、
として機能させることを特徴とするプログラム。 A computer of an image composition device comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image.
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region associated with the foreground image from the background image specified by the background specifying means;
A specifying means for specifying a foreground image associated with the feature region detected by the detecting means from among a plurality of foreground images stored in the storage means;
A program characterized by functioning as
前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、
この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段、
前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段、
として機能させることを特徴とするプログラム。 A computer of an image composition device comprising storage means for storing a plurality of background images and foreground images,
Foreground designating means for designating any one foreground image from a plurality of background images stored in the storage means;
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region associated with the foreground image specified by the foreground specifying means from the background image specified by the background specifying means;
Synthesizing means for synthesizing the foreground image designated by the foreground designating means with the area of the background image in which the characteristic area is detected by the detecting means;
A program characterized by functioning as
前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、
この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段、
として機能させることを特徴とするプログラム。 A computer of an image composition apparatus comprising storage means for storing a plurality of background images and foreground images, and composition means for synthesizing the background image and the foreground image,
Foreground designating means for designating any one of the foreground images stored in the storage means;
Specifying means for specifying a background image including a feature region associated with the foreground image designated by the foreground designating means from a plurality of background images stored in the storage means;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009146266A JP2011003057A (en) | 2009-06-19 | 2009-06-19 | Image composition device, image specifying method, image composition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009146266A JP2011003057A (en) | 2009-06-19 | 2009-06-19 | Image composition device, image specifying method, image composition method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011003057A true JP2011003057A (en) | 2011-01-06 |
Family
ID=43560955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009146266A Pending JP2011003057A (en) | 2009-06-19 | 2009-06-19 | Image composition device, image specifying method, image composition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011003057A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150087056A (en) | 2014-01-21 | 2015-07-29 | 한화테크윈 주식회사 | Apparatus and method for stabilizing image |
US10136063B2 (en) | 2013-07-12 | 2018-11-20 | Hanwha Aerospace Co., Ltd | Image stabilizing method and apparatus |
KR20200010527A (en) | 2020-01-15 | 2020-01-30 | 한화테크윈 주식회사 | Apparatus and method for stabilizing image |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11149285A (en) * | 1997-11-17 | 1999-06-02 | Matsushita Electric Ind Co Ltd | Image acoustic system |
JP2001076164A (en) * | 2000-08-01 | 2001-03-23 | Casio Comput Co Ltd | Device and method for preparing facial image |
JP2001292305A (en) * | 2000-02-02 | 2001-10-19 | Casio Comput Co Ltd | Image data synthesizer, image data synthesis system, image data synthesis method and recording medium |
JP2003346170A (en) * | 2002-05-28 | 2003-12-05 | Casio Comput Co Ltd | Image delivery server, image delivery program and image delivery method |
JP2004153345A (en) * | 2002-10-28 | 2004-05-27 | Ricoh Co Ltd | Imaging apparatus, imaging method, and recording medium for recording program for the method |
JP2004302939A (en) * | 2003-03-31 | 2004-10-28 | Casio Comput Co Ltd | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program |
JP2005050012A (en) * | 2003-07-31 | 2005-02-24 | Casio Comput Co Ltd | Image outputting device, image outputting method, and image output processing program, and image distributing server, and image distribution processing program |
JP2007299297A (en) * | 2006-05-02 | 2007-11-15 | Fujifilm Corp | Image composition device and control method thereof |
-
2009
- 2009-06-19 JP JP2009146266A patent/JP2011003057A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11149285A (en) * | 1997-11-17 | 1999-06-02 | Matsushita Electric Ind Co Ltd | Image acoustic system |
JP2001292305A (en) * | 2000-02-02 | 2001-10-19 | Casio Comput Co Ltd | Image data synthesizer, image data synthesis system, image data synthesis method and recording medium |
JP2001076164A (en) * | 2000-08-01 | 2001-03-23 | Casio Comput Co Ltd | Device and method for preparing facial image |
JP2003346170A (en) * | 2002-05-28 | 2003-12-05 | Casio Comput Co Ltd | Image delivery server, image delivery program and image delivery method |
JP2004153345A (en) * | 2002-10-28 | 2004-05-27 | Ricoh Co Ltd | Imaging apparatus, imaging method, and recording medium for recording program for the method |
JP2004302939A (en) * | 2003-03-31 | 2004-10-28 | Casio Comput Co Ltd | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program |
JP2005050012A (en) * | 2003-07-31 | 2005-02-24 | Casio Comput Co Ltd | Image outputting device, image outputting method, and image output processing program, and image distributing server, and image distribution processing program |
JP2007299297A (en) * | 2006-05-02 | 2007-11-15 | Fujifilm Corp | Image composition device and control method thereof |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10136063B2 (en) | 2013-07-12 | 2018-11-20 | Hanwha Aerospace Co., Ltd | Image stabilizing method and apparatus |
US10848672B2 (en) | 2013-07-12 | 2020-11-24 | Hanwha Techwin Co., Ltd. | Image stabilizing method and apparatus |
KR20150087056A (en) | 2014-01-21 | 2015-07-29 | 한화테크윈 주식회사 | Apparatus and method for stabilizing image |
US9466095B2 (en) | 2014-01-21 | 2016-10-11 | Hanwha Techwin Co., Ltd. | Image stabilizing method and apparatus |
KR20200010527A (en) | 2020-01-15 | 2020-01-30 | 한화테크윈 주식회사 | Apparatus and method for stabilizing image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5051156B2 (en) | Image processing apparatus and program | |
JP5105550B2 (en) | Image composition apparatus and program | |
JP4760973B2 (en) | Imaging apparatus and image processing method | |
JP4798236B2 (en) | Imaging apparatus, image processing method, and program | |
JP5359856B2 (en) | Image composition apparatus, image composition method, and program | |
JP2010239447A (en) | Image capturing apparatus, image processing method, and program | |
JP5504990B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP2011003057A (en) | Image composition device, image specifying method, image composition method, and program | |
JP5267279B2 (en) | Image composition apparatus and program | |
JP5402148B2 (en) | Image composition apparatus, image composition method, and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP5423296B2 (en) | Image processing apparatus, image processing method, and program | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP5476900B2 (en) | Image composition apparatus, image composition method, and program | |
JP5332668B2 (en) | Imaging apparatus and subject detection program | |
JP2011182014A (en) | Image pickup device, image processing method and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP2009098850A (en) | Arithmetic device and program of same | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP5381207B2 (en) | Image composition apparatus and program | |
JP5644180B2 (en) | Imaging apparatus, imaging method, and program | |
JP5565227B2 (en) | Image processing apparatus, image processing method, and program | |
JP5310361B2 (en) | Imaging apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120605 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130820 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140212 |