JP2011003057A - Image composition device, image specifying method, image composition method, and program - Google Patents

Image composition device, image specifying method, image composition method, and program Download PDF

Info

Publication number
JP2011003057A
JP2011003057A JP2009146266A JP2009146266A JP2011003057A JP 2011003057 A JP2011003057 A JP 2011003057A JP 2009146266 A JP2009146266 A JP 2009146266A JP 2009146266 A JP2009146266 A JP 2009146266A JP 2011003057 A JP2011003057 A JP 2011003057A
Authority
JP
Japan
Prior art keywords
image
foreground
background
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009146266A
Other languages
Japanese (ja)
Inventor
Michio Nihei
道大 二瓶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009146266A priority Critical patent/JP2011003057A/en
Publication of JP2011003057A publication Critical patent/JP2011003057A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image composition device which can simply generate a composite image, an image specifying method, an image composition method and a program.SOLUTION: An imaging apparatus 100 includes: a feature area detecting part 8b for detecting a feature area associated with a subject image of a subject extraction image from a background image; and a foreground specifying part 8d for specifying a subject extraction image including the subject image associated with the detected feature area.

Description

本発明は、複数の画像を合成する画像合成装置、画像特定方法、画像合成方法及びプログラムに関する。   The present invention relates to an image composition device, an image specifying method, an image composition method, and a program for composing a plurality of images.

従来、被写体画像と背景用画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。   Conventionally, a technique for generating a composite image by combining a subject image with a background image or a frame image is known (see, for example, Patent Document 1).

特開2004−159158号公報JP 2004-159158 A

ところで、被写体画像と背景用画像を合成する場合、合成する画像や位置を指定しなければならず、その作業が煩雑であった。   By the way, when combining a subject image and a background image, it is necessary to specify an image and a position to be combined, and the work is complicated.

そこで、本発明の課題は、合成画像の生成を簡便に行うことができる画像合成装置、画像特定方法、画像合成方法及びプログラムを提供することである。   Therefore, an object of the present invention is to provide an image composition device, an image specifying method, an image composition method, and a program that can easily generate a composite image.

上記課題を解決するため、請求項1に記載の発明の画像合成装置は、
背景画像に前景画像を合成する合成手段を備えた画像合成装置において、背景画像及び前景画像の各々を複数記憶する記憶手段と、この記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、この背景指定手段によって指定された背景画像から特徴領域を検出する検出手段と、この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段と、を備えたことを特徴としている。
In order to solve the above-described problem, an image composition device according to a first aspect of the present invention provides:
In an image synthesizing apparatus including a synthesizing unit that synthesizes a foreground image with a background image, a storage unit that stores a plurality of background images and foreground images, and one of a plurality of background images stored in the storage unit A background designating unit for designating one background image, a detecting unit for detecting a feature region from the background image designated by the background designating unit, and a foreground image associated with the feature region detected by the detecting unit. Specifying means for specifying from among a plurality of foreground images stored in the storage means.

請求項2に記載の発明は、請求項1に記載の画像合成装置において、
前記合成手段は、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記特定手段によって特定された前景画像を合成することを特徴としている。
According to a second aspect of the present invention, in the image composition device according to the first aspect,
The synthesizing unit synthesizes the foreground image specified by the specifying unit with an area of the background image in which the characteristic region is detected by the detecting unit.

請求項3に記載の発明は、請求項1又は2に記載の画像合成装置において、
前記特定手段は、前記前景画像を複数特定し、前記特定手段によって特定された複数の前景画像の中から何れか一の前景画像を指定する前景指定手段を更に備え、前記合成手段は、前記前景指定手段によって指定された前記前景画像を合成することを特徴としている。
According to a third aspect of the present invention, in the image composition device according to the first or second aspect,
The specifying means further includes a foreground specifying means for specifying a plurality of the foreground images and specifying any one of the foreground images specified by the specifying means, and the combining means includes the foreground image. The foreground image designated by the designation means is synthesized.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像合成装置において、
前記特徴領域は、前記背景画像における人物画像領域であり、前記特定手段は、前記特徴領域と同じ人物の画像を含む前景画像を特定することを特徴としている。
According to a fourth aspect of the present invention, in the image synthesizing device according to any one of the first to third aspects,
The feature region is a person image region in the background image, and the specifying unit specifies a foreground image including an image of the same person as the feature region.

請求項5に記載の発明の画像合成装置は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、この記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段と、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段と、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段と、を備えたことを特徴としている。
The image synthesizing device of the invention according to claim 5 is:
Storage means for storing a plurality of background images and foreground images, foreground designating means for designating any one foreground image from the plurality of background images stored in the storage means, and stored in the storage means A background designating unit for designating any one of the plurality of background images, and a foreground image designated by the foreground designating unit from the background image designated by the background designating unit. A detecting unit for detecting a feature region; and a combining unit for combining the foreground image specified by the foreground specifying unit with the region of the background image where the feature region is detected by the detecting unit. Yes.

請求項6に記載の発明は、請求項5記載の画像合成装置において、
前記前景画像は、人物の顔画像を含む人物画像であり、前記特徴領域は、前記背景画像における前記人物と同じ人物の顔画像領域であることを特徴としている。
According to a sixth aspect of the present invention, in the image synthesizing apparatus according to the fifth aspect,
The foreground image is a person image including a face image of a person, and the feature region is a face image region of the same person as the person in the background image.

請求項7に記載の発明は、請求項6に記載の画像合成装置において、
前記合成手段は、前記前景画像の顔画像領域と前記背景画像の顔画像領域とが重なるように合成することを特徴としている。
The invention described in claim 7 is the image composition apparatus according to claim 6,
The combining means combines the face image area of the foreground image and the face image area of the background image so as to overlap each other.

請求項8に記載の発明の画像合成装置は、
背景画像に前景画像を合成する合成手段を備えた画像合成装置において、背景画像及び前景画像の各々を複数記憶する記憶手段と、この記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段と、を備えたことを特徴としている。
An image composition device according to an eighth aspect of the present invention provides:
In an image synthesizing apparatus including a synthesizing unit that synthesizes a foreground image with a background image, any one of a plurality of foreground images stored in the storage unit and a storage unit that stores a plurality of background images and foreground images Among the plurality of background images stored in the storage unit, a foreground designating unit for designating one foreground image and a background image including a feature region associated with the foreground image designated by the foreground designating unit And a specifying means for specifying from the above.

請求項9に記載の発明は、請求項1〜8の何れか一項に記載の画像合成装置において、
前記合成手段によって合成される前景画像の寸法と前記背景画像における前記特徴領域の寸法とに基づいて、当該前景画像及び前記背景画像の少なくとも一方の寸法を変更する変更手段を更に備え、前記合成手段は、前記変更手段によって前記前景画像及び前記背景画像の少なくとも一方の寸法を変更してから合成することを特徴としている。
The invention according to claim 9 is the image composition apparatus according to any one of claims 1 to 8,
Further comprising changing means for changing the size of at least one of the foreground image and the background image based on the size of the foreground image synthesized by the synthesizing unit and the size of the feature region in the background image. Is characterized in that the changing means changes the size of at least one of the foreground image and the background image and then combines them.

請求項10に記載の発明は、請求項1〜9の何れか一項に記載の画像合成装置において、
前記背景画像と、前記合成手段により合成された合成画像とを切替え再生する再生手段を更に備えることを特徴としている。
The invention according to claim 10 is the image composition device according to any one of claims 1 to 9,
The image processing apparatus further includes reproduction means for switching and reproducing the background image and the synthesized image synthesized by the synthesis means.

請求項11に記載の発明は、請求項1〜10の何れか一項に記載の画像合成装置において、
前記前景画像と前記特徴領域とを対応付けて登録する登録手段を更に備えることを特徴としている。
The invention according to claim 11 is the image composition apparatus according to any one of claims 1 to 10,
The image processing apparatus further includes registration means for registering the foreground image and the feature region in association with each other.

請求項12に記載の発明の画像特定方法は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像特定方法であって、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、この背景指定ステップによって指定された背景画像から特徴領域を検出する検出ステップと、前記記憶手段に記憶されている複数の前景画像の中から、前記検出ステップによって検出された特徴領域と対応付けられている前景画像を特定する特定ステップと、を備えたことを特徴としている。
The image specifying method of the invention according to claim 12 is:
An image specifying method for an image composition apparatus, comprising: storage means for storing a plurality of background images and foreground images; and composition means for synthesizing the background image and the foreground image, the image specifying method stored in the storage means. A background designating step for designating any one of the plurality of background images, a detecting step for detecting a feature region from the background image designated by the background designating step, and stored in the storage means And a specifying step of specifying a foreground image associated with the feature region detected by the detecting step from a plurality of foreground images.

請求項13に記載の発明の画像合成方法は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像合成方法であって、前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定ステップと、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、この背景指定ステップによって指定された背景画像から前記前景画像指定ステップによって指定された前景画像と対応付けられている特徴領域を検出する検出ステップと、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成ステップと、を備えたことを特徴としている。
The image composition method of the invention according to claim 13
An image composition method for an image composition apparatus comprising: storage means for storing a plurality of background images and foreground images; and composition means for synthesizing the background image and the foreground image, the image composition method being stored in the storage means A foreground designating step for designating any one of the plurality of background images, and a background designating step for designating any one of the background images stored in the storage means A detection step of detecting a feature region associated with the foreground image specified by the foreground image specification step from the background image specified by the background specification step; and a feature region by the detection means in the background image And a synthesizing step for synthesizing the foreground image designated by the foreground designating means in the detected area.

請求項14に記載の発明の画像特定方法は、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像特定方法であって、前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定ステップと、この前景指定ステップによって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定ステップと、を備えたことを特徴としている。
The image specifying method of the invention described in claim 14 is:
An image specifying method for an image composition apparatus, comprising: storage means for storing a plurality of background images and foreground images; and composition means for synthesizing the background image and the foreground image, the image specifying method stored in the storage means. A foreground designating step for designating any one of the plurality of foreground images, and a background image including a feature region associated with the foreground image designated by the foreground designating step. And a specific step of specifying from among a plurality of background images stored in.

請求項15に記載の発明のプログラムは、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段とを備える画像合成装置のコンピュータを、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、この背景指定手段によって指定された背景画像から前景画像と対応付けられている特徴領域を検出する検出手段、この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段、として機能させることを特徴としている。
The program of the invention according to claim 15 is:
A plurality of background images stored in the storage means are stored in the storage means. A background designating unit for designating any one of the background images, a detection unit for detecting a feature region associated with the foreground image from the background image designated by the background designating unit, and a detection unit detected by the detection unit The foreground image associated with the feature region is made to function as specifying means for specifying from among a plurality of foreground images stored in the storage means.

請求項16に記載の発明のプログラムは、
背景画像及び前景画像の各々を複数記憶する記憶手段を備える画像合成装置のコンピュータを、前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段、前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段、として機能させることを特徴としている。
The program of the invention described in claim 16 is:
Foreground designating means for designating any one foreground image from among a plurality of background images stored in the storage means, a computer of an image composition device comprising storage means for storing a plurality of background images and foreground images; A background designating unit for designating any one of the plurality of background images stored in the storage unit, a foreground image designated by the foreground designating unit from a background image designated by the background designating unit; A detecting unit that detects the associated feature region; and a combining unit that combines the foreground image designated by the foreground designating unit with the region of the background image in which the feature region is detected by the detecting unit. It is characterized by.

請求項17に記載の発明のプログラムは、
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段とを備える画像合成装置のコンピュータを、前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段、として機能させることを特徴としている。
The program of the invention described in claim 17
A plurality of foreground images stored in the storage unit are stored in the storage unit. The computer of the image composition apparatus includes a storage unit that stores a plurality of background images and foreground images, and a combination unit that combines the background image and the foreground image. A plurality of foreground designating means for designating any one of the foreground images and a background image including a feature region associated with the foreground image designated by the foreground designating means. It is characterized by functioning as a specifying means for specifying from among the background images.

本発明によれば、背景画像と被写体画像とを合成した合成画像の生成を簡便に行うことができる。   According to the present invention, it is possible to easily generate a composite image obtained by combining a background image and a subject image.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to subject clipping processing by the imaging apparatus of FIG. 1. 被写体切り抜き処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on a subject clipping process. 図1の撮像装置による背景画像撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to background image imaging processing by the imaging apparatus of FIG. 1. 図1の撮像装置による合成画像生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a composite image generation process by the imaging apparatus of FIG. 1. 合成画像生成処理における画像合成処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the image composition process in a composite image generation process. 合成画像生成処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on a synthetic image generation process. 変形例1の撮像装置による被写体切り抜き処理に係る画像の一例を模式的に示す図である。FIG. 10 is a diagram schematically illustrating an example of an image related to a subject clipping process performed by an imaging apparatus according to a first modification. 図8の撮像装置による合成画像生成処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the composite image generation process by the imaging device of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の撮像装置100は、背景画像P4aから被写体切り抜き画像P3aの被写体画像(前景画像)Gaと対応付けられている特徴領域Cを検出して、背景画像P4aにおける特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gaを合成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、中央制御部13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13は、例えば、カスタムLSI1Aとして設計されている。
The imaging apparatus 100 according to the present embodiment detects a feature region C associated with the subject image (foreground image) Ga of the subject cutout image P3a from the background image P4a, and the feature region C in the background image P4a is detected. A subject image Ga associated with the feature region C is combined with the region.
Specifically, as illustrated in FIG. 1, the imaging apparatus 100 includes a lens unit 1, an electronic imaging unit 2, an imaging control unit 3, an image data generation unit 4, an image memory 5, and a feature amount calculation unit. 6, a block matching unit 7, an image processing unit 8, a recording medium 9, a display control unit 10, a display unit 11, an operation input unit 12, and a central control unit 13.
Further, the imaging control unit 3, the feature amount calculation unit 6, the block matching unit 7, the image processing unit 8, and the central control unit 13 are designed as a custom LSI 1A, for example.

レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The lens unit 1 includes a plurality of lenses and includes a zoom lens, a focus lens, and the like.
Although not shown, the lens unit 1 includes a zoom drive unit that moves the zoom lens in the optical axis direction and a focus drive unit that moves the focus lens in the optical axis direction when imaging a subject. May be.

電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the lens unit 1 into a two-dimensional image signal. To do.

撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、被写体の撮像条件の調整制御として、AF(自動合焦処理)やAE(自動露出処理)やAWB(自動ホワイトバランス)等を行う。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image data generation unit 4.
The imaging control unit 3 performs AF (automatic focusing processing), AE (automatic exposure processing), AWB (automatic white balance), and the like as adjustment control of the imaging conditions of the subject.

このように構成されたレンズ部1、電子撮像部2及び撮像制御部3は、撮像手段として、画像合成処理に係る背景画像P4a(図7(a)参照)や被写体存在画像P1a(図3(a)等参照)を撮像する。
また、レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1aの撮像後、当該被写体存在画像P1aの撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3a(図3(c)参照)の生成のための被写体非存在画像P2a(図3(b)参照)を撮像する。
The lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 configured as described above function as an imaging unit as a background image P4a (see FIG. 7A) related to image synthesis processing and a subject presence image P1a (see FIG. a), etc.).
In addition, the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 capture the subject clipped image P3a (FIG. 3) in a state where the imaging conditions for capturing the subject presence image P1a are fixed after the subject presence image P1a is captured. The non-existing subject image P2a (see FIG. 3B) for generating (see (c)) is captured.

画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image data generation unit 4 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the electronic imaging unit 2, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an image memory 5 used as a buffer memory via a DMA controller (not shown).

画像メモリ5は、例えば、DRAM等により構成され、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13等によって処理されるデータ等を一時記憶する。   The image memory 5 is configured by, for example, a DRAM or the like, and temporarily stores data processed by the feature amount calculation unit 6, the block matching unit 7, the image processing unit 8, the central control unit 13, and the like.

特徴量演算部6は、被写体非存在画像P2aを基準として、当該被写体非存在画像P2aから特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6は、例えば、被写体非存在画像P2aのYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The feature amount calculation unit 6 performs feature extraction processing for extracting feature points from the subject non-existing image P2a with reference to the subject non-existing image P2a. Specifically, the feature amount calculation unit 6 selects, for example, a predetermined number (or a predetermined number or more) of high feature block areas (feature points) based on the YUV data of the subject non-existing image P2a, The contents of the block are extracted as a template (for example, a square of 16 × 16 pixels).
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.

ブロックマッチング部7は、被写体切り抜き画像P3aを生成する際に、被写体非存在画像P2aと被写体存在画像P1aの位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1a内のどこに対応するか、つまり、被写体存在画像P1a内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P2aと被写体存在画像P1a間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。   When the subject cutout image P3a is generated, the block matching unit 7 performs block matching processing for aligning the subject nonexistent image P2a and the subject present image P1a. Specifically, the block matching unit 7 determines where the template extracted in the feature extraction process corresponds in the subject existing image P1a, that is, the pixel value of the template optimally matches in the subject existing image P1a. Search for a position (corresponding region). Then, the optimum offset between the subject non-existing image P2a and the subject existing image P1a having the best evaluation value (for example, the sum of squared differences (SSD), the sum of absolute differences (SAD), etc.) Calculated as a template motion vector.

画像処理部8は、被写体切り抜き画像P3aの画像データを生成する切り抜き画像生成部8aを具備している。具体的には、切り抜き画像生成部8aは、図示は省略するが、位置合わせ部と、被写体画像抽出部と、位置情報生成部と、画像生成部等を備えている。
位置合わせ部は、図3(a)〜(c)に記載するように、被写体非存在画像P2aから抽出した特徴点に基づいて、被写体非存在画像P2aに対する被写体存在画像P1aの各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1aを座標変換して被写体非存在画像P2aと位置合わせを行う。
被写体画像抽出部は、位置合わせ部により位置合わせされた被写体存在画像P1aと被写体非存在画像P2aとの間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像P1aから被写体が含まれる被写体画像(前景画像)Gaを抽出する。
位置情報生成部は、被写体存在画像P1aから抽出された被写体画像Gaの位置を特定して、被写体存在画像P1aにおける被写体画像Gaの位置を示す位置情報(例えば、アルファマップ)を生成する。ここで、アルファマップとは、被写体存在画像P1aの各画素について、被写体画像Gaを所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
画像生成部は、生成されたアルファマップに基づいて、被写体存在画像P1aの各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き画像P3aの画像データを生成する。
The image processing unit 8 includes a cutout image generation unit 8a that generates image data of the subject cutout image P3a. Specifically, the cut-out image generation unit 8a includes a positioning unit, a subject image extraction unit, a position information generation unit, an image generation unit, and the like, although not illustrated.
As described in FIGS. 3A to 3C, the alignment unit performs coordinate conversion of each pixel of the subject presence image P1a with respect to the subject nonexistence image P2a based on the feature points extracted from the subject nonexistence image P2a. An equation (projection transformation matrix) is calculated, and the subject presence image P1a is coordinate-transformed according to the coordinate transformation equation to align with the subject non-existence image P2a.
The subject image extraction unit generates difference information of corresponding pixels between the subject presence image P1a and the subject non-existence image P2a aligned by the alignment unit, and uses the difference information as a reference from the subject presence image P1a. A subject image (foreground image) Ga including the subject is extracted.
The position information generation unit specifies the position of the subject image Ga extracted from the subject presence image P1a, and generates position information (for example, an alpha map) indicating the position of the subject image Ga in the subject presence image P1a. Here, the alpha map represents the weight when alpha blending the subject image Ga with respect to a predetermined background for each pixel of the subject existing image P1a as an alpha value (0 ≦ α ≦ 1).
Based on the generated alpha map, the image generation unit does not transmit a pixel having an alpha value of 1 among the pixels of the subject existing image P1a to a predetermined single color image (not shown), and The image of the subject is combined with a predetermined single color image so as to transmit pixels with an alpha value of 0, and image data of the subject cutout image P3a is generated.

また、画像処理部8は、背景画像P4a中の特徴領域Cを検出する特徴領域検出部8bを具備している。
特徴領域検出部8bは、ユーザによる操作入力部12の所定操作に基づいて指定された図7(a)における背景画像P4aから所定の顔検出方法を用いて人の顔を検出して、検出された顔の人物を認識する顔認識部8cを具備している。
顔認識部8cは、背景画像P4aから顔画像領域を検出し、検出した各領域内から目、鼻、口等に相当する顔パーツ(特徴部)を検出する。この顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。そして、顔認識部8cは、顔検出処理にて検出された顔に対応する顔画像情報(特定用情報)が後述するテーブル記憶部8gの登録テーブルT1に登録されているか否かを判定し、当該判定の結果、顔画像情報が登録されていると判定されると、当該顔画像情報と対応付けて登録されている人物を特定する。
特徴領域検出部8bは、上述の背景画像P4aにおける顔認識部8cによって特定された人物の顔画像領域を特徴領域Cとして検出した後、当該特徴領域Cに対応する被写体切り抜き画像情報(被写体画像Ga)が登録テーブルT1に登録されているか否かを判定する。そして、特徴領域検出部8bは、対応する被写体切り抜き画像情報(被写体画像Ga)が登録テーブルT1に登録されていると判定されると、当該特徴領域Cをその後の処理に利用する一方で、被写体切り抜き画像情報(被写体画像Ga)が登録テーブルT1に登録されていないと判定されると、検出された特徴領域Cを破棄する。
ここで、特徴領域検出部8bは、ユーザによる操作入力部12の所定操作に基づいて指定された背景画像P4aから特徴領域Cを検出する検出手段を構成している。
In addition, the image processing unit 8 includes a feature region detection unit 8b that detects a feature region C in the background image P4a.
The feature region detection unit 8b is detected by detecting a human face using a predetermined face detection method from the background image P4a in FIG. 7A designated based on a predetermined operation of the operation input unit 12 by the user. A face recognition unit 8c for recognizing a person with a different face is provided.
The face recognition unit 8c detects a face image area from the background image P4a, and detects face parts (feature parts) corresponding to eyes, nose, mouth, and the like from within each detected area. Since this face detection process is a known technique, a detailed description thereof is omitted here. Then, the face recognition unit 8c determines whether or not face image information (specific information) corresponding to the face detected in the face detection process is registered in a registration table T1 of the table storage unit 8g described later, If it is determined that the face image information is registered as a result of the determination, a person registered in association with the face image information is specified.
The feature region detection unit 8b detects the person's face image region specified by the face recognition unit 8c in the background image P4a described above as the feature region C, and then extracts subject clipped image information (subject image Ga) corresponding to the feature region C. ) Is registered in the registration table T1. When it is determined that the corresponding subject cut-out image information (subject image Ga) is registered in the registration table T1, the feature region detection unit 8b uses the feature region C for subsequent processing, while If it is determined that the clipped image information (subject image Ga) is not registered in the registration table T1, the detected feature area C is discarded.
Here, the feature region detection unit 8b constitutes a detection unit that detects the feature region C from the background image P4a designated based on a predetermined operation of the operation input unit 12 by the user.

また、画像処理部8は、記録媒体9に記憶されている複数の被写体切り抜き画像P3aの中から特徴領域検出部8bによって検出された特徴領域Cと対応付けられている被写体画像Gaを含む被写体切り抜き画像P3aを特定する前景特定部8dを具備している。
前景特定部8dは、特徴領域検出部8bによって特徴領域Cが検出されると、登録テーブルT1を参照して、検出された特徴領域Cと対応付けられている被写体画像Gaが含まれる被写体切り抜き画像P3aを少なくとも一つ特定する。そして、前景特定部8dは、特定した被写体切り抜き画像P3aの画像データを記録媒体9から読み出して画像メモリ5に一時的に記憶させる。その後、表示制御部10は、画像メモリ5に一時的に記憶されている被写体切り抜き画像P3aの画像データを読み出して表示部11に表示させる。
ここで、前景特定部8dは、記録媒体9に記憶されている複数の被写体画像(前景画像)Gaの中から特徴領域検出部8bによって検出された特徴領域Cと対応付けられている被写体画像Gaを特定する特定手段を構成している。
In addition, the image processing unit 8 cuts out a subject including a subject image Ga that is associated with the feature region C detected by the feature region detection unit 8b from the plurality of subject cut-out images P3a stored in the recording medium 9. A foreground specifying unit 8d for specifying the image P3a is provided.
When the feature region C is detected by the feature region detection unit 8b, the foreground specifying unit 8d refers to the registration table T1 and includes a subject clipping image that includes the subject image Ga associated with the detected feature region C. At least one P3a is specified. Then, the foreground specifying unit 8d reads out the image data of the specified subject cutout image P3a from the recording medium 9 and temporarily stores it in the image memory 5. Thereafter, the display control unit 10 reads out the image data of the subject cutout image P3a temporarily stored in the image memory 5 and causes the display unit 11 to display the image data.
Here, the foreground specifying unit 8d is a subject image Ga associated with the feature region C detected by the feature region detection unit 8b from among a plurality of subject images (foreground images) Ga stored in the recording medium 9. A specifying means for specifying is configured.

また、画像処理部8は、合成手段として、背景画像P4aと被写体切り抜き画像P3aとを合成する合成部8eを具備している。
合成部8eは、背景画像P4aにおける特徴領域検出部8bによって特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像(前景画像)Gaを合成する。具体的には、合成部8eは、特徴領域検出部8bによって背景画像P4aから特徴領域Cとしての人物の顔画像領域が検出されると、前景特定部8dによって特定された被写体切り抜き画像P3aの被写体画像Gaの合成位置を背景画像P4aの特徴領域(顔画像領域)Cに指定して、被写体画像Gaの顔画像領域と背景画像P4aの顔画像領域とが重なるように合成する。
このとき、前景特定部8dによって複数の被写体切り抜き画像P3aが特定されている場合には、合成部8eは、ユーザによる操作入力部12の所定操作に基づいて選択された何れか一の被写体切り抜き画像P3aに含まれる被写体画像Gaを背景画像P4aにおける特徴領域Cが検出された領域に合成する。
ここで、合成部8eは、背景画像P4aにおける特徴領域検出部8bによって特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像(前景画像)Gaを合成する合成手段を構成している。
Further, the image processing unit 8 includes a combining unit 8e that combines the background image P4a and the subject cutout image P3a as a combining unit.
The synthesizing unit 8e synthesizes the subject image (foreground image) Ga associated with the feature region C in the region where the feature region C is detected by the feature region detection unit 8b in the background image P4a. Specifically, when the face image area of the person as the feature area C is detected from the background image P4a by the feature area detection section 8b, the synthesis section 8e detects the subject of the subject cutout image P3a specified by the foreground specification section 8d. The synthesis position of the image Ga is designated as a feature area (face image area) C of the background image P4a, and the face image area of the subject image Ga and the face image area of the background image P4a are synthesized.
At this time, when a plurality of subject cutout images P3a are specified by the foreground specifying unit 8d, the combining unit 8e selects any one of the subject cutout images selected based on a predetermined operation of the operation input unit 12 by the user. The subject image Ga included in P3a is combined with the region in which the feature region C is detected in the background image P4a.
Here, the synthesizing unit 8e synthesizes the subject image (foreground image) Ga associated with the feature region C in the region where the feature region C is detected by the feature region detection unit 8b in the background image P4a. Is configured.

また、合成部8eは、背景画像P4aの各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像P3aの対応する画素の画素値で上書きし、さらに、背景画像P4aの各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体画像Gaを切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3aを生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3aから減算し、それを被写体画像Gaを切り抜いた画像(背景画像×(1−α))と合成する。   The synthesizing unit 8e transmits a pixel with an alpha value of 0 among each pixel of the background image P4a, overwrites a pixel with an alpha value of 1 with the pixel value of the corresponding pixel of the subject cutout image P3a, and Among the pixels of the background image P4a, pixels with an alpha value of 0 <α <1 generate an image (background image × (1-α)) obtained by clipping the subject image Ga using a complement of 1 (1-α). Then, when the subject cutout image P3a is generated using the one's complement (1-α) in the alpha map, a value blended with the single background color is calculated, and the value is subtracted from the subject cutout image P3a, Are combined with an image (background image × (1-α)) obtained by cutting out the subject image Ga.

また、画像処理部8は、画像合成処理にて、画像合成に係る被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を変更する寸法変更部8fを具備している。
寸法変更部8fは、合成部8eによって合成される被写体画像Gaの寸法(例えば、当該被写体画像Gaを囲む矩形枠の上下方向や左右方向の幅)に基づいて、図7(b)に示した画像合成後の被写体合成画像P5aの寸法に対する被写体画像Gaの相対的な寸法を調整するように当該被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を変更する。具体的には、寸法変更部8fは、被写体画像Gaの寸法を拡大・縮小したり、背景画像P4aの寸法を拡大・縮小したり所定領域をトリミングすることで、少なくとも被写体画像Gaが当該被写体画像Gaに重ねて合成される特徴領域Cよりも大きくなるようにして被写体合成画像P5a中に特徴領域Cが含まれないようにする。これにより、被写体合成画像P5a中に同一対象の被写体画像Ga、即ち、同一人物が複数存在した状態とならないようにすることができる。
ここで、寸法変更部8fは、合成部8eによって合成される被写体画像(前景画像)Gaの寸法に基づいて、当該被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を変更する変更手段を構成している。
In addition, the image processing unit 8 includes a size changing unit 8f that changes at least one of the size of the subject image Ga and the background image P4a related to image combining in the image combining process.
The size changing unit 8f is illustrated in FIG. 7B based on the size of the subject image Ga synthesized by the synthesis unit 8e (for example, the vertical and horizontal widths of the rectangular frame surrounding the subject image Ga). The size of at least one of the subject image Ga and the background image P4a is changed so as to adjust the relative size of the subject image Ga with respect to the size of the subject composite image P5a after image synthesis. Specifically, the size changing unit 8f enlarges / reduces the size of the subject image Ga, enlarges / reduces the size of the background image P4a, or trims a predetermined area, so that at least the subject image Ga is the subject image Ga. The feature region C is not included in the subject composite image P5a so as to be larger than the feature region C combined with Ga. Thereby, it is possible to prevent the same subject image Ga, that is, a plurality of the same person from being present in the subject composite image P5a.
Here, the size changing unit 8f constitutes a changing unit that changes the size of at least one of the subject image Ga and the background image P4a based on the size of the subject image (foreground image) Ga combined by the combining unit 8e. ing.

なお、被写体画像Ga及び背景画像P4aの寸法の変更は、ユーザによる操作入力部12の所定操作に基づいて手動で寸法を設定して行うようにしても良い。   The dimensions of the subject image Ga and the background image P4a may be changed by manually setting the dimensions based on a predetermined operation of the operation input unit 12 by the user.

また、画像処理部8は、各種テーブルを記憶するテーブル記憶部8gを具備している。
テーブル記憶部8gは、登録名(例えば、「人物名」等)と、特徴領域Cとして検出された画像部分を特定するための特定用情報と、被写体切り抜き処理にて抽出された被写体画像Gaに係る被写体画像情報等が対応付けられた登録テーブルT1が記憶されている。
ここで、テーブル記憶部8gは、被写体画像Gaに係る被写体画像情報と特徴領域Cの特定用情報とを対応付けて登録する登録手段を構成している。
The image processing unit 8 includes a table storage unit 8g that stores various tables.
The table storage unit 8g includes a registered name (for example, “person name”), identification information for identifying the image portion detected as the feature area C, and the subject image Ga extracted by the subject clipping process. A registration table T1 associated with the subject image information and the like is stored.
Here, the table storage unit 8g constitutes registration means for registering subject image information related to the subject image Ga and information for specifying the feature region C in association with each other.

登録テーブルT1に対する各種情報の登録は、例えば、被写体切り抜き処理にて被写体画像Gaとして人物画像が抽出された際に実行されても良いし、既に記録媒体9に記憶されている画像情報から顔検出処理等を行って人物の登録を行う顔登録処理モードにて実行されても良いし、ユーザが任意に登録可能としても良い。
なお、特定用情報としては、例えば、人物の顔画像情報が挙げられる。顔画像情報は、顔画像そのものの顔画像データに限られるものではなく、人物を特定するための顔画像に係る情報、例えば、顔の特徴データや画像パターン等の如何なる情報であっても良い。
また、被写体画像情報は、被写体画像Gaそのものの画像データに限られるものではなく、被写体画像Gaを特定するための情報、例えば、被写体画像Gaが含まれる被写体切り抜き画像P3aのファイル名等の如何なる情報であっても良い。
The registration of various types of information in the registration table T1 may be executed, for example, when a person image is extracted as the subject image Ga in the subject clipping process, or face detection is performed from the image information already stored in the recording medium 9. It may be executed in a face registration processing mode in which a person is registered by performing processing or the like, or the user may arbitrarily register.
The identification information includes, for example, human face image information. The face image information is not limited to the face image data of the face image itself, and may be any information related to the face image for specifying a person, for example, face feature data or an image pattern.
Further, the subject image information is not limited to the image data of the subject image Ga itself, but any information such as information for specifying the subject image Ga, for example, the file name of the subject cut-out image P3a including the subject image Ga, etc. It may be.

記録媒体9は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部8のJPEG圧縮部(図示略)により符号化された被写体切り抜き画像P3aや背景画像P4aの画像データを記憶する。
被写体切り抜き画像P3aの画像データは、切り抜き画像生成部8aの位置情報生成部により生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3aの画像データの拡張子を「.jpe」として記憶されている。
ここで、記録媒体9は、背景画像P4a及び被写体切り抜き画像P3a(被写体画像Ga)の各々を複数記憶する記憶手段を構成している。
The recording medium 9 is configured by, for example, a nonvolatile memory (flash memory) or the like, and stores image data of the subject cutout image P3a and the background image P4a encoded by the JPEG compression unit (not shown) of the image processing unit 8. .
The image data of the subject clipped image P3a is associated with the alpha map generated by the position information generation unit of the clipped image generation unit 8a, and the extension of the image data of the subject clipped image P3a is stored as “.jpe”. ing.
Here, the recording medium 9 constitutes storage means for storing a plurality of each of the background image P4a and the subject cutout image P3a (subject image Ga).

表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
The display control unit 10 performs control to read display image data temporarily stored in the image memory 5 and display the display image data on the display unit 11.
Specifically, the display control unit 10 includes a VRAM, a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the image memory 5 and stored in the VRAM (not shown) under the control of the central control unit 13 via the VRAM controller. The data is periodically read from the VRAM, a video signal is generated based on these data, and is output to the display unit 11.

表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部11は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。   The display unit 11 is, for example, a liquid crystal display device, and displays an image captured by the electronic imaging unit 2 based on a video signal from the display control unit 10 on a display screen. Specifically, the display unit 11 displays a live view image based on a plurality of image frames generated by imaging the subject by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 in the imaging mode. The REC view image captured as the actual captured image is displayed.

また、表示部11は、合成部8eによる画像合成後、表示制御部10の制御下にて、画像合成により生成された被写体合成画像P5aと背景画像P4aとを所定間隔で切替え再生する。即ち、画像合成が終了すると、画像合成前の背景画像P4aと、画像合成により生成された被写体合成画像P5aとを所定タイミングで切り替えて交互に再生する。
ここで、表示部11及び表示制御部10は、背景画像P4aと、合成部8eにより合成された被写体合成画像P5aとを切替え再生する再生手段を構成している。
Further, after the image synthesis by the synthesis unit 8e, the display unit 11 switches and reproduces the subject synthesized image P5a and the background image P4a generated by the image synthesis at predetermined intervals under the control of the display control unit 10. That is, when the image composition is completed, the background image P4a before the image composition and the subject composition image P5a generated by the image composition are switched at a predetermined timing and alternately reproduced.
Here, the display unit 11 and the display control unit 10 constitute playback means for switching and reproducing the background image P4a and the subject composite image P5a synthesized by the synthesis unit 8e.

操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン12a、撮像モードや機能等の選択指示に係る選択決定ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。   The operation input unit 12 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 12 includes a shutter button 12a related to an instruction to shoot a subject, a selection determination button 12b related to an instruction to select an imaging mode and a function, a zoom button (not shown) related to an instruction to adjust the zoom amount, and the like. And outputs a predetermined operation signal to the central control unit 13 in accordance with the operation of these buttons.

また、操作入力部12の選択決定ボタン12bは、合成画像生成処理にて記録媒体9から読み出されて表示部11に表示された複数の背景画像P4aのうち、ユーザ所望の何れか一の背景画像P4aの選択指示を入力する。そして、選択決定ボタン12bは、当該操作入力部12の操作に応じた所定の選択信号を中央制御部13に出力する。
中央制御部13は、入力された選択信号によって指示された背景画像P4aを、画像合成に係る背景画像P4aとして指定する。
ここで、操作入力部12及び中央制御部13は、記録媒体9に記憶されている複数の背景画像P4aの中から何れか一の背景画像P4aを指定する背景指定手段を構成している。
The selection determination button 12b of the operation input unit 12 is a background desired by the user among the plurality of background images P4a read from the recording medium 9 and displayed on the display unit 11 in the composite image generation process. An instruction to select the image P4a is input. Then, the selection determination button 12 b outputs a predetermined selection signal corresponding to the operation of the operation input unit 12 to the central control unit 13.
The central control unit 13 designates the background image P4a designated by the input selection signal as the background image P4a related to image synthesis.
Here, the operation input unit 12 and the central control unit 13 constitute background specifying means for specifying any one of the background images P4a stored in the recording medium 9.

また、操作入力部12の選択決定ボタン12bは、合成画像生成処理にて記録媒体9から読み出されて表示部11に表示された複数の被写体切り抜き画像P3aのうち、ユーザ所望の何れか一の被写体切り抜き画像P3aの選択指示を入力する。即ち、選択決定ボタン12bは、記録媒体9に記憶されている複数の被写体切り抜き画像P3aの中から前景特定部8dによって特定された被写体画像Gaを含む複数の被写体切り抜き画像P3aのうち、ユーザ所望の何れか一の被写体切り抜き画像P3aの選択指示を入力する。そして、選択決定ボタン12bは、当該操作入力部12の操作に応じた所定の選択信号を中央制御部13に出力する。
中央制御部13は、入力された選択信号によって指示された被写体切り抜き画像P3aを、画像合成に係る被写体切り抜き画像P3aとして指定する。
ここで、操作入力部12及び中央制御部13は、前景特定部8dによって特定された複数の被写体画像(前景画像)Gaの中から何れか一の被写体画像Gaを指定する前景指定手段を構成している。
Further, the selection decision button 12b of the operation input unit 12 is any one desired by the user among the plurality of subject cutout images P3a read from the recording medium 9 and displayed on the display unit 11 in the composite image generation process. An instruction to select the subject cutout image P3a is input. That is, the selection determination button 12b is selected by the user among the plurality of subject cutout images P3a including the subject image Ga specified by the foreground specifying unit 8d from the plurality of subject cutout images P3a stored in the recording medium 9. An instruction to select any one of the subject cutout images P3a is input. Then, the selection determination button 12 b outputs a predetermined selection signal corresponding to the operation of the operation input unit 12 to the central control unit 13.
The central control unit 13 designates the subject cutout image P3a designated by the input selection signal as the subject cutout image P3a related to the image composition.
Here, the operation input unit 12 and the central control unit 13 constitute foreground designating means for designating any one of the subject images Ga (foreground images) Ga specified by the foreground specifying unit 8d. ing.

中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、CPU(図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 13 controls each unit of the imaging apparatus 100. Specifically, the central control unit 13 includes a CPU (not shown), and performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

次に、撮像装置100による被写体切り抜き処理について、図2及び図3を参照して説明する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図3(a)〜図3(c)は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
Next, the subject clipping process performed by the imaging apparatus 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the subject clipping process. 3A to 3C are diagrams schematically illustrating an example of an image related to the subject clipping process.

被写体切り抜き処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
また、以下に説明する被写体切り抜き処理にあっては、被写体として人物(例えば、子供「A君」等)を撮像するものとする。また、被写体切り抜き処理によって生成される被写体切り抜き画像P3aは、静止画像であっても良いし、複数の画像フレームからなる動画像であっても良い。
The subject clipping process is executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. It is.
In the subject clipping process described below, it is assumed that a person (for example, a child “Mr. A”) is imaged as a subject. Further, the subject cutout image P3a generated by the subject cutout processing may be a still image or a moving image composed of a plurality of image frames.

図2に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1aの撮像指示メッセージを表示部11の表示画面に表示させる(ステップS1)。
このとき、中央制御部13は、画像処理部8の特徴領域検出部8bに、ライブビュー画像を構成する複数の画像フレームの各々から特徴領域Cを検出させる(ステップS2)。具体的には、特徴領域検出部8bの顔認識部8cは、各画像フレームから顔を検出する顔検出処理を実行する。そして、顔が検出されると、中央制御部13は、表示制御部10に、検出された顔に重畳させて顔検出枠(図示略)を表示部11に表示させる制御を行わせる。
As shown in FIG. 2, first, the central control unit 13 performs live display on the display control unit 10 based on a plurality of image frames generated by imaging a subject by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. The view image is displayed on the display screen of the display unit 11 and superimposed on the live view image, and the imaging instruction message of the subject existing image P1a is displayed on the display screen of the display unit 11 (step S1).
At this time, the central control unit 13 causes the feature region detection unit 8b of the image processing unit 8 to detect the feature region C from each of a plurality of image frames constituting the live view image (step S2). Specifically, the face recognition unit 8c of the feature region detection unit 8b executes a face detection process for detecting a face from each image frame. When a face is detected, the central control unit 13 causes the display control unit 10 to perform control to cause the display unit 11 to display a face detection frame (not shown) so as to be superimposed on the detected face.

その後、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS3)。ここで、撮像指示が入力されたと判定されると(ステップS3;YES)、中央制御部13は、撮像制御部3に、顔検出枠(図示略)をAFエリアとしてフォーカスレンズの合焦位置を調整させるとともに、露出条件(シャッター速度、絞り、信号増幅率等)やホワイトバランス等を調整させて、被写体存在画像P1a(図3(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる(ステップS4)。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体存在画像P1aのYUVデータを生成させる。なお、当該被写体存在画像P1aのYUVデータは、画像メモリ5に一時記憶される。
また、中央制御部13は、撮像制御部3を制御して、当該被写体存在画像P1aの撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
Thereafter, the central control unit 13 determines whether or not an imaging instruction is input based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user (step S3). Here, if it is determined that an imaging instruction has been input (step S3; YES), the central control unit 13 instructs the imaging control unit 3 to set the focus lens in-focus position using a face detection frame (not shown) as an AF area. At the same time, the exposure condition (shutter speed, aperture, signal amplification factor, etc.), white balance, etc. are adjusted, and the optical image of the subject existing image P1a (refer to FIG. (Step S4). Then, the central control unit 13 causes the image data generation unit 4 to generate YUV data of the subject existing image P1a transferred from the electronic imaging unit 2. The YUV data of the subject existing image P1a is temporarily stored in the image memory 5.
In addition, the central control unit 13 controls the imaging control unit 3 to maintain a state in which conditions such as a focus position, an exposure condition, and a white balance at the time of imaging the subject presence image P1a are fixed.

次に、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1aの半透過の表示態様の画像と被写体非存在画像P2aの撮像指示メッセージを表示部11の表示画面に表示させる(ステップS5)。
この後、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS6)。そして、ユーザは、被写体が移動するのを待つか、或いは、被写体を画角外に移動させた後、ユーザにより被写体非存在画像P2aが被写体存在画像P1aの半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS6;YES)、中央制御部13は、撮像制御部3に、被写体非存在画像P2a(図3(b)参照)の光学像を被写体存在画像P1aの撮像後に固定された条件で電子撮像部2により撮像させる(ステップS7)。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2aのYUVデータを生成させる。なお、当該被写体存在画像P1aのYUVデータは、画像メモリ5に一時記憶される。
Next, the central control unit 13 causes the display control unit 10 to display a live view image based on a plurality of image frames generated by imaging the subject by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. Is displayed on the display screen, and is superimposed on the live view image to display a semi-transparent display mode image of the subject presence image P1a and an imaging instruction message of the subject non-existence image P2a on the display screen of the display unit 11 ( Step S5).
Thereafter, the central control unit 13 determines whether or not an imaging instruction has been input based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user (step S6). Then, the user waits for the subject to move, or moves the subject outside the angle of view, and then the camera position so that the subject non-existing image P2a overlaps the semi-transparent image of the subject existing image P1a. Is adjusted, and it is determined that the shutter button 12a of the operation input unit 12 is predeterminedly operated and an imaging instruction is input (step S6; YES), the central control unit 13 includes no subject in the imaging control unit 3. An optical image of the image P2a (see FIG. 3B) is imaged by the electronic imaging unit 2 under a fixed condition after the imaging of the subject existing image P1a (step S7). Then, the central control unit 13 causes the image data generation unit 4 to generate YUV data of the subject nonexistent image P2a transferred from the electronic imaging unit 2. The YUV data of the subject existing image P1a is temporarily stored in the image memory 5.

次に、中央制御部13は、特徴量演算部6、ブロックマッチング部7及び画像処理部8に、画像メモリ5に一時記憶されている被写体非存在画像P2aのYUVデータを基準として、被写体存在画像P1aのYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS8)。
具体的には、特徴量演算部6は、被写体非存在画像P2aのYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1a内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2aと被写体存在画像P1a間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、切り抜き画像生成部8aの位置合わせ部は、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1aの射影変換行列を算出する。
Next, the central control unit 13 uses the YUV data of the subject non-existing image P2a temporarily stored in the image memory 5 in the feature amount calculating unit 6, the block matching unit 7, and the image processing unit 8 as a reference. A projection transformation matrix for projective transformation of the YUV data of P1a is calculated by a predetermined image transformation model (for example, a similarity transformation model or a joint transformation model) (step S8).
Specifically, the feature amount calculation unit 6 selects a predetermined number (or a predetermined number or more) of highly featured block areas (feature points) based on the YUV data of the subject non-existing image P2a, and then selects the block. Is extracted as a template. Then, the block matching unit 7 searches the subject existing image P1a for a position where the pixel value of the template extracted by the feature extraction process is optimally matched, and the evaluation value of the difference between the pixel values is the best. An optimum offset between the subject non-existing image P2a and the subject existing image P1a is calculated as a motion vector of the template. Then, the alignment unit of the cut-out image generation unit 8a statistically calculates the entire motion vector based on the motion vectors of the plurality of templates calculated by the block matching unit 7, and performs feature point correspondence related to the motion vector. The projection transformation matrix of the subject existing image P1a is calculated by using this.

次に、中央制御部13は、切り抜き画像生成部8aの位置合わせ部に、算出された射影変換行例に基づいて被写体存在画像P1aを射影変換させることで、被写体存在画像P1aのYUVデータと被写体非存在画像P2aのYUVデータとを位置合わせする処理を行わせる(ステップS9)。   Next, the central control unit 13 causes the alignment unit of the cut-out image generation unit 8a to perform projective transformation of the subject existing image P1a based on the calculated projective transformation example, thereby obtaining the YUV data of the subject existing image P1a and the subject. A process of aligning the YUV data of the non-existing image P2a is performed (step S9).

そして、中央制御部13は、切り抜き画像生成部8aの被写体画像抽出部に、被写体存在画像P1aから被写体が含まれる被写体画像Gaを抽出する処理を行わせる(ステップS10)。
具体的には、被写体領域抽出部は、被写体存在画像P1aのYUVデータと被写体非存在画像P2aのYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部は、ローパスフィルタをかけた被写体存在画像P1aと被写体非存在画像P2aとの間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部は、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部は、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体画像Gaとして特定し、収縮分を修正するための膨張処理を行う。
Then, the central control unit 13 causes the subject image extraction unit of the cutout image generation unit 8a to perform a process of extracting the subject image Ga including the subject from the subject existing image P1a (step S10).
Specifically, the subject region extraction unit applies a low-pass filter to each of the YUV data of the subject presence image P1a and the YUV data of the subject non-existence image P2a to remove high-frequency components of each image. Thereafter, the subject area extraction unit calculates a difference for each corresponding pixel between the subject existing image P1a and the subject non-existing image P2a subjected to the low-pass filter, and generates a difference map. Subsequently, the subject region extraction unit binarizes the dissimilarity map relating to each pixel with a predetermined threshold, and then performs a contraction process to remove a region in which the dissimilarity is caused by fine noise or camera shake from the dissimilarity map. . Thereafter, the subject region extraction unit performs a labeling process to remove a region below a predetermined value or a region other than the maximum region, and then specifies the largest island pattern as the subject image Ga and corrects the shrinkage. The expansion process is performed.

次に、中央制御部13は、画像処理部8の位置情報生成部に、抽出された被写体画像Gaの被写体存在画像P1a内での位置を示すアルファマップを生成させる(ステップS11)。   Next, the central control unit 13 causes the position information generation unit of the image processing unit 8 to generate an alpha map indicating the position of the extracted subject image Ga in the subject presence image P1a (step S11).

その後、中央制御部13は、画像処理部8の画像生成部に、被写体画像Gaを所定の単一色画像と合成した被写体切り抜き画像P3a(図3(c)参照)の画像データを生成する処理を行わせる(ステップS12)。
具体的には、画像生成部は、被写体存在画像P1a、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1aの全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
Thereafter, the central control unit 13 causes the image generation unit of the image processing unit 8 to generate image data of a subject cut-out image P3a (see FIG. 3C) obtained by combining the subject image Ga with a predetermined single color image. (Step S12).
Specifically, the image generation unit reads out the subject existence image P1a, the single color image, and the alpha map and develops them in the image memory 5. Then, for all the pixels of the subject existence image P1a, the pixels having an alpha value of 0 are obtained. (Α = 0), transmission is performed for a pixel with an alpha value of 0 <α <1, (0 <α <1), and blending with a predetermined single color is performed, and for a pixel with an alpha value of 1 (α = 1) ) Do nothing and do not allow transmission through a given single color.

その後、中央制御部13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部により生成されたアルファマップと被写体切り抜き画像P3aの画像データとを対応付けて一ファイルで記憶させる(ステップS13)。   Thereafter, the central control unit 13 stores the alpha map generated by the position information generation unit of the image processing unit 8 and the image data of the subject cutout image P3a in a predetermined storage area of the recording medium 9 in a single file. (Step S13).

次に、中央制御部13は、テーブル記憶部8gの登録テーブルT1に、被写体切り抜き画像P3aの被写体画像Gaに対応する被写体画像情報を顔検出処理にて検出された顔(特徴領域C)の特定用情報(例えば、顔画像情報)と対応付けて記憶させる(ステップS14)。
なお、登録テーブルT1に、未だ顔検出処理にて検出された顔の人物名が登録されていない場合には、例えば、ユーザによる操作入力部12の所定操作に基づいて人物名の入力を受け付けて登録しても良いし、その後、人物名の入力モードにて入力することで登録しても良い。また、登録テーブルT1に、既に顔検出処理にて検出された顔の人物名が特定用情報と対応付けて登録されている場合には、必ずしも当該顔検出処理にて新たに検出された特定用情報(例えば、顔画像データ等)自体を記憶する必要はないが、顔検出処理の精度向上を図る上で、当該新たな特定用情報を追加して記憶しても良いし、最も古い情報に上書きして記憶しても良い。
Next, the central control unit 13 specifies the face (feature region C) detected in the face detection process for subject image information corresponding to the subject image Ga of the subject cutout image P3a in the registration table T1 of the table storage unit 8g. The information is stored in association with the use information (for example, face image information) (step S14).
If the person name of the face detected by the face detection process has not yet been registered in the registration table T1, for example, an input of a person name is accepted based on a predetermined operation of the operation input unit 12 by the user. Registration may be performed, or registration may be performed by inputting in the person name input mode. In addition, when the person name of the face already detected in the face detection process is registered in the registration table T1 in association with the identification information, the identification name newly detected in the face detection process is not necessarily used. It is not necessary to store information (for example, face image data) itself, but in order to improve the accuracy of face detection processing, the new identification information may be added and stored, or the oldest information may be stored. It may be overwritten and stored.

これにより、被写体切り抜き処理を終了する。この結果、例えば、所定の背景内から軽装でぶるぶると震えた子供「A君」が被写体として抽出された被写体切り抜き画像P3aの画像データが生成される。   Thereby, the subject clipping process is completed. As a result, for example, image data of the subject cut-out image P3a in which the child “A-kun” who trembled with light clothing from a predetermined background is extracted as a subject is generated.

次に、撮像装置100による背景画像撮像処理について、図4を参照して説明する。
図4は、背景画像撮像処理に係る動作の一例を示すフローチャートである。
Next, background image imaging processing by the imaging apparatus 100 will be described with reference to FIG.
FIG. 4 is a flowchart illustrating an example of an operation related to the background image capturing process.

背景画像撮像処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
また、以下に説明する背景画像撮像処理にあっては、被写体として、被写体切り抜き処理にて撮像された人物と同一の人物(例えば、子供「A君」等)を撮像するものとする。
The background image capturing process is a normal still image capturing process. Based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user, the still image capturing process is performed from among a plurality of capturing modes displayed on the menu screen. This process is executed when a mode is instructed to be selected.
In the background image imaging process described below, it is assumed that the same person as the person imaged by the subject clipping process (for example, child “A-kun”) is captured as the subject.

図4に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による背景画像P4aの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させる(ステップS21)。   As shown in FIG. 4, first, the central control unit 13 causes the display control unit 10 to base on a plurality of image frames generated by imaging the background image P4a by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. Then, the live view image is displayed on the display screen of the display unit 11 (step S21).

次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、中央制御部13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件やホワイトバランス等の条件を調整させて、背景画像P4a(図7(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された背景画像P4aのYUVデータを生成させる(ステップS23)。
続けて、中央制御部13は、記録媒体9の所定の記憶領域に、背景画像P4aのYUVデータをExif形式の画像ファイルとして記憶させる(ステップS24)。
Next, the central control unit 13 determines whether or not an imaging instruction has been input based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user (step S22). Here, if it is determined that an imaging instruction has been input (step S22; YES), the central control unit 13 causes the imaging control unit 3 to adjust conditions such as the focus lens focus position, exposure conditions, and white balance. Thus, the optical image of the background image P4a (see FIG. 7A) is picked up by the electronic image pickup unit 2 under a predetermined condition. Then, the central control unit 13 causes the image data generation unit 4 to generate YUV data of the background image P4a transferred from the electronic imaging unit 2 (step S23).
Subsequently, the central control unit 13 stores the YUV data of the background image P4a as an Exif format image file in a predetermined storage area of the recording medium 9 (step S24).

これにより、背景画像撮像処理を終了する。この結果、例えば、防寒服を着た子供「A君」が雪上をソリで滑る背景画像P4aの静止画像データが生成される。   Thereby, the background image capturing process is terminated. As a result, for example, still image data of the background image P4a in which the child “Mr. A” wearing winter clothes slides on the snow with a sled is generated.

次に、撮像装置100による合成画像生成処理について、図5〜図7を参照して説明する。
図5は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図6は、合成画像生成処理における画像合成処理に係る動作の一例を示すフローチャートである。また、図7(a)及び図7(b)は、合成画像生成処理に係る画像の一例を模式的に示す図である。
Next, composite image generation processing by the imaging apparatus 100 will be described with reference to FIGS.
FIG. 5 is a flowchart illustrating an example of an operation related to the composite image generation process. FIG. 6 is a flowchart illustrating an example of an operation related to the image composition processing in the composite image generation processing. FIGS. 7A and 7B are diagrams schematically illustrating an example of an image related to the composite image generation process.

合成画像生成処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から画像合成モードが選択指示された場合に実行される処理である。
図5に示すように、先ず、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の背景画像P4a(図7(a)参照)が選択されて指定されると、中央制御部13は、画像処理部8に、指定された背景画像P4aの画像データを読み出させて画像メモリ5に展開させる(ステップS31)。
The composite image generation processing is executed when an image combination mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. It is processing.
As shown in FIG. 5, first, based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user, a desired background image P4a (see FIG. 7 (FIG. 7)) among a plurality of images recorded on the recording medium 9. When a) is selected and designated, the central control unit 13 causes the image processing unit 8 to read out the image data of the designated background image P4a and develop it in the image memory 5 (step S31).

次に、中央制御部13は、特徴領域検出部8bに、背景画像P4aから特徴領域Cを検出させる(ステップS32)。具体的には、特徴領域検出部8bの顔認識部8cは、背景画像P4aから所定の顔検出方法を用いて人の顔を検出する顔検出処理を行った後、当該顔検出処理にて検出された顔に対応する顔画像情報が登録テーブルT1に登録されているか否かを判定する。当該判定の結果、顔画像情報が登録されていると判定されると、顔認識部8cは、当該顔画像情報と対応付けて登録されている人物を特定する。そして、特徴領域検出部8bは、背景画像P4aにおける顔認識部8cによって特定された人物の顔画像領域を特徴領域Cとして検出する。
上記の特徴領域Cの検出処理の結果、背景画像P4aから特徴領域Cが検出されると(ステップS32;YES)、中央制御部13は、特徴領域検出部8bに、特徴領域Cと被写体画像Gaとが対応付けられているか否かを判定させる(ステップS33)。具体的には、特徴領域検出部8bは、顔認識部8cによって特定された人物に対応する被写体画像情報が登録テーブルT1に登録されているか否かに応じて特徴領域Cと被写体画像Gaとが対応付けられているか否かを判定する。そして、特徴領域検出部8bは、被写体画像情報が登録テーブルT1に登録されていると判定すると、特徴領域(顔画像領域)Cと被写体画像Gaとが対応付けられていると判断して(ステップS33;YES)、当該特徴領域Cをその後の処理に利用する。
Next, the central control unit 13 causes the feature region detection unit 8b to detect the feature region C from the background image P4a (step S32). Specifically, the face recognition unit 8c of the feature region detection unit 8b performs a face detection process for detecting a human face using a predetermined face detection method from the background image P4a, and then detects the face detection process. It is determined whether face image information corresponding to the face that has been registered is registered in the registration table T1. If it is determined that the face image information is registered as a result of the determination, the face recognition unit 8c specifies a person registered in association with the face image information. Then, the feature region detection unit 8b detects the face image region of the person specified by the face recognition unit 8c in the background image P4a as the feature region C.
When the feature region C is detected from the background image P4a as a result of the above-described feature region C detection processing (step S32; YES), the central control unit 13 causes the feature region detection unit 8b to send the feature region C and the subject image Ga. Are associated with each other (step S33). Specifically, the feature region detection unit 8b determines whether the feature region C and the subject image Ga correspond to whether subject image information corresponding to the person specified by the face recognition unit 8c is registered in the registration table T1. It is determined whether they are associated with each other. If the characteristic area detecting unit 8b determines that the subject image information is registered in the registration table T1, the characteristic area detecting unit 8b determines that the characteristic area (face image area) C and the subject image Ga are associated with each other (Step S1). S33; YES), the feature area C is used for the subsequent processing.

次に、中央制御部13は、画像処理部8の前景特定部8dに、登録テーブルT1を参照させて、特徴領域Cと対応付けられている被写体画像Gaが含まれる被写体切り抜き画像P3aを少なくとも一つ特定させ、当該被写体切り抜き画像P3aの画像データを記録媒体9から読み出して画像メモリ5に一時的に記憶させる(ステップS34)。その後、表示制御部10は、画像メモリ5に一時的に記憶されている被写体切り抜き画像P3aの画像データを読み出して表示部11に表示させる。   Next, the central control unit 13 causes the foreground specifying unit 8d of the image processing unit 8 to refer to the registration table T1, and at least one subject cutout image P3a including the subject image Ga associated with the feature region C is selected. The image data of the subject cutout image P3a is read from the recording medium 9 and temporarily stored in the image memory 5 (step S34). Thereafter, the display control unit 10 reads out the image data of the subject cutout image P3a temporarily stored in the image memory 5 and causes the display unit 11 to display the image data.

続けて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、表示部11に表示されている少なくとも一の被写体切り抜き画像P3aの中で所望の被写体切り抜き画像P3a(図3(c)参照)が選択されて指定されると(ステップS35)、画像処理部8は、指定された被写体切り抜き画像P3aの被写体画像Gaの顔画像領域と背景画像P4aの特徴領域(顔画像領域)Cとが重なるように、背景画像P4aの特徴領域(顔画像領域)Cを被写体画像Gaの合成位置として指定する(ステップS36)。その後、中央制御部13は、背景画像P4aと被写体切り抜き画像P3aにおける被写体画像Gaを用いて、画像合成処理を合成部8eに行わせる(ステップS37)。   Subsequently, based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user, a desired subject cutout image P3a (see FIG. 3C) among at least one subject cutout image P3a displayed on the display unit 11. ) Reference) is selected and designated (step S35), the image processing unit 8 causes the face image region of the subject image Ga of the designated subject cutout image P3a and the feature region (face image region) C of the background image P4a. Are designated as the synthesis position of the subject image Ga (step S36). Thereafter, the central control unit 13 causes the combining unit 8e to perform image combining processing using the subject image Ga in the background image P4a and the subject cutout image P3a (step S37).

一方、ステップS32にて、背景画像P4aから特徴領域Cが検出されなかった場合(ステップS32;YES)、或いは、ステップS33にて、特徴領域(顔画像領域)Cと被写体画像Gaとが対応付けて登録されていないと判断された場合(ステップS33;NO)、中央制御部13は、被写体切り抜き画像の指定及び被写体画像の合成位置のユーザによる手動での操作を受け付ける。
具体的には、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の被写体切り抜き画像(図示略)が選択されて指定されると、中央制御部13は、画像処理部8に、指定された被写体切り抜き画像の画像データを読み出させて画像メモリ5に展開させる(ステップS38)。
続けて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、ユーザ所望の被写体切り抜き画像の合成位置が指定されると(ステップS39)、中央制御部13は、処理をステップS38に移行させて、背景画像P4aとユーザ所望の被写体切り抜き画像における被写体画像を用いて、画像合成処理を行わせる。
On the other hand, if the feature region C is not detected from the background image P4a in step S32 (step S32; YES), or the feature region (face image region) C and the subject image Ga are associated in step S33. If it is determined that the image is not registered (step S33; NO), the central control unit 13 accepts a manual operation by the user for specifying the subject cut-out image and for the composition position of the subject image.
Specifically, a desired subject cut-out image (not shown) is selected from a plurality of images recorded on the recording medium 9 based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. When designated, the central control unit 13 causes the image processing unit 8 to read out the image data of the designated subject clipped image and develop it in the image memory 5 (step S38).
Subsequently, when a user-desired subject clipping image combining position is designated based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user (step S39), the central control unit 13 performs the process in step S38. The image composition processing is performed using the subject image in the background image P4a and the user-desired subject cutout image.

ここで、画像合成処理について、図6を参照して詳細に説明する。
なお、以下に説明する画像合成処理は、自動的に指定されて読み出された被写体切り抜き画像P3aと、ステップS39にて指定されたユーザ所望の被写体切り抜き画像とについてそれぞれ別個に行われる処理であるが、画像合成処理自体の内容は略同等であるのでまとめて説明する。また、被写体切り抜き画像P3aを例示して画像合成処理を説明するものとし、ユーザ所望の被写体切り抜き画像については、特に言及する場合を除き、その説明を省略する。
Here, the image composition processing will be described in detail with reference to FIG.
Note that the image composition processing described below is performed separately for the subject clipped image P3a that has been automatically specified and read out, and the user-subjected clipped image specified in step S39. However, since the contents of the image composition processing itself are substantially equivalent, they will be described together. Further, the image composition processing will be described by exemplifying the subject cutout image P3a, and the description of the user desired subject cutout image is omitted unless otherwise specified.

図6に示すように、合成部8eは、被写体切り抜き画像P3aと対応付けて記憶されているアルファマップを読み出して画像メモリ5に展開する(ステップS51)。
なお、背景画像P4aにおける被写体切り抜き画像P3aの合成位置が決定された際に、背景画像P4aとアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
また、画像合成により生成される被写体合成画像P5a中に同一人物が複数存在した状態とならないように、寸法変更部8fは、被写体画像Gaの寸法に基づいて、被写体画像Gaの寸法を拡大・縮小したり、背景画像P4aの寸法を拡大・縮小したり所定領域をトリミングしても良い。
As shown in FIG. 6, the composition unit 8e reads the alpha map stored in association with the subject cutout image P3a and develops it in the image memory 5 (step S51).
Note that when the composition position of the subject cutout image P3a in the background image P4a is determined, the background image P4a and the alpha map are misaligned, and an alpha value is present with α = 0. Do not create a region that does not.
Further, the size changing unit 8f enlarges / reduces the size of the subject image Ga based on the size of the subject image Ga so that the same person does not exist in the subject composite image P5a generated by the image synthesis. Or the size of the background image P4a may be enlarged or reduced, or a predetermined area may be trimmed.

次に、合成部8eは、背景画像P4aの何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS52)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS53)。具体的には、合成部8eは、背景画像P4aの何れか一の画素のうち、アルファ値が1の画素については(ステップS53;α=1)、被写体切り抜き画像P3aの対応する画素の画素値で上書きし(ステップS54)、アルファ値が0<α<1の画素については(ステップS53;0<α<1)、1の補数(1−α)を用いて被写体画像Gaを切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3aを生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3aから減算し、それを被写体画像Gaを切り抜いた画像(背景画像×(1−α))と合成し(ステップS55)、アルファ値が0の画素については(ステップS53;α=0)、何もせずに背景画像P4aを透過させるようにする。   Next, the synthesizing unit 8e designates any one pixel (for example, the pixel at the upper left corner) of the background image P4a (step S52), and branches the process for the pixel based on the alpha value of the alpha map. (Step S53). Specifically, for any pixel with an alpha value of 1 among any one of the pixels in the background image P4a (step S53; α = 1), the composition unit 8e sets the pixel value of the corresponding pixel in the subject cutout image P3a. (Step S54), and for pixels with an alpha value of 0 <α <1 (step S53; 0 <α <1), an image obtained by cutting out the subject image Ga using 1's complement (1-α) ( After generating the background image × (1−α)), when the subject cutout image P3a is generated using the one's complement (1−α) in the alpha map, a value blended with the single background color is calculated, The value is subtracted from the subject cutout image P3a, and is combined with an image (background image × (1-α)) cut out of the subject image Ga (step S55). For pixels with an alpha value of 0 (step S53; α = 0) Anything so as to pass through the background image P4a without.

続けて、合成部8eは、背景画像P4aの全ての画素について処理したか否かを判定する(ステップS56)。
ここで、全ての画素について処理していないと判定されると(ステップS56;NO)、合成部8eは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS57)、処理をステップS53に移行させる。
上記の処理を、ステップS56にて全ての画素について処理したと判定されるまで(ステップS56;YES)、繰り返すことで、合成部8eは、被写体切り抜き画像P3aと背景画像P4aとを合成した被写体合成画像P5aの画像データを生成させる。
これにより、画像合成処理を終了する。
Subsequently, the composition unit 8e determines whether or not all the pixels of the background image P4a have been processed (step S56).
If it is determined that all the pixels have not been processed (step S56; NO), the synthesis unit 8e designates the next pixel as the processing target and moves the processing target to the pixel (step S57). ), The process proceeds to step S53.
By repeating the above processing until it is determined that all pixels have been processed in step S56 (step S56; YES), the combining unit 8e combines the subject clipped image P3a and the background image P4a. Image data of the image P5a is generated.
Thereby, the image composition process is terminated.

図5に示すように、その後、中央制御部13は、表示制御部10に、合成部8eにより生成された被写体合成画像P5aの画像データに基づいて、背景画像P4aに被写体が重畳された被写体合成画像P5aを表示部11の表示画面に表示させる(ステップS40)。
具体的には、例えば、背景画像P4aから自動的に指定された被写体切り抜き画像P3aを用いて合成した場合には、表示部11は、画像合成により生成された被写体合成画像P5aと画像合成前の背景画像P4aとを所定タイミングで切り替えて交互に再生表示することで、例えば、雪上を子供「A君」がソリで滑る背景画像P4aと、雪上で寒さにぶるぶると震える子供「A君」が表現された被写体合成画像P5aとを切り替えて再生表示する。
また、ユーザ所望の被写体切り抜き画像を用いて合成した場合には、表示部11は、画像合成により生成された被写体合成画像(図示略)を再生表示する。
これにより、合成画像生成処理を終了する。
As shown in FIG. 5, thereafter, the central control unit 13 causes the display control unit 10 to synthesize the subject in which the subject is superimposed on the background image P4a based on the image data of the subject synthesized image P5a generated by the synthesis unit 8e. The image P5a is displayed on the display screen of the display unit 11 (step S40).
Specifically, for example, when the image is synthesized using the subject cutout image P3a automatically specified from the background image P4a, the display unit 11 and the subject synthesized image P5a generated by the image synthesis before the image synthesis. By switching and playing back the background image P4a at a predetermined timing, for example, the background image P4a where the child “A-kun” slides on the snow with a sled and the child “A-kun” who trembles when cold on the snow are expressed. The displayed subject composite image P5a is switched and reproduced and displayed.
In addition, when the image is synthesized using a subject desired clipped image, the display unit 11 reproduces and displays a subject synthesized image (not shown) generated by the image synthesis.
Thus, the composite image generation process is finished.

以上のように、本実施形態の撮像装置100によれば、背景画像P4aから被写体切り抜き画像P3aの被写体画像(前景画像)Gaと対応付けられている特徴領域Cを検出して、背景画像P4aにおける特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gaを合成するので、背景画像P4bへの合成に適した被写体画像Gaを自動的に特定し、背景画像P4aにおける被写体画像Gaの合成位置を自動的に決定することができる。
即ち、登録テーブルT1には、被写体切り抜き画像P3aに含まれる被写体画像Gaを特定するための被写体画像情報と特徴領域Cを特定するための特定用情報とが対応付けて登録されている。そして、前景特定部8dは、登録テーブルT1を参照して、記録媒体9に記憶されている複数の被写体画像Gaを含む被写体切り抜き画像P3aの中から背景画像P4aの特徴領域Cと対応付けられている被写体画像Gaを特定するので、記録媒体9に複数の被写体切り抜き画像P3aが記憶されている場合であっても、背景画像P4aの特徴領域Cと対応付けられている被写体画像Gaを含む被写体切り抜き画像P3aの特定を自動的に、且つ、確実に行うことができる。
また、特定された被写体画像Gaの人物の顔画像領域と、背景画像P4aにおける被写体画像Gaの人物と同じ人物の顔画像領域とが重なるように合成するので、画像合成により生成される被写体合成画像P5a中に同一人物が複数存在した状態とならないように、背景画像P4aにおける被写体画像Gaの合成位置の決定を自動的に、且つ、簡便に行って被写体合成画像P5aの生成を簡便に行うことができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the feature region C associated with the subject image (foreground image) Ga of the subject cutout image P3a is detected from the background image P4a, and the background image P4a Since the subject image Ga associated with the feature region C is combined with the region in which the feature region C is detected, the subject image Ga suitable for combination with the background image P4b is automatically identified, and the background image P4a The composition position of the subject image Ga in can be automatically determined.
That is, in the registration table T1, subject image information for specifying the subject image Ga included in the subject cutout image P3a and specification information for specifying the feature region C are registered in association with each other. Then, the foreground specifying unit 8d refers to the registration table T1, and is associated with the feature region C of the background image P4a from the subject cutout image P3a including the plurality of subject images Ga stored in the recording medium 9. Therefore, even if a plurality of subject cutout images P3a are stored in the recording medium 9, a subject cutout including the subject image Ga associated with the feature region C of the background image P4a is specified. The image P3a can be specified automatically and reliably.
In addition, since the face image area of the person of the specified subject image Ga and the face image area of the same person as the person of the subject image Ga in the background image P4a are combined, the combined subject image generated by the image combination The composition position of the subject image Ga in the background image P4a can be determined automatically and simply so that the composite subject image P5a can be easily generated so that the same person does not exist in P5a. it can.

また、前景特定部8dによって複数の被写体画像Gaを含む被写体切り抜き画像P3aが特定された場合であっても、ユーザ所望の何れか一の被写体画像Gaを指定することができ、当該ユーザ所望の被写体画像Gaを背景画像P4aにおける特徴領域Cが検出された領域に合成することができることとなって、ユーザ所望の被写体画像Gaが合成された被写体合成画像P5aを生成することができる。   Even when the foreground specifying unit 8d specifies a subject cut-out image P3a including a plurality of subject images Ga, any one of the user-desired subject images Ga can be designated, and the user-desired subject Since the image Ga can be combined with the region in which the feature region C in the background image P4a is detected, a subject composite image P5a in which the user-desired subject image Ga is combined can be generated.

さらに、合成される被写体画像Gaの寸法に基づいて、当該被写体画像Ga及び背景画像P4aの少なくとも一方の寸法を自動的に変更することができるので、被写体画像Gaの寸法と背景画像P4aにおける特徴領域Cの寸法が異なる場合であっても、同一人物が複数存在した不自然な被写体合成画像P5aの生成を防止することができる。   Furthermore, since at least one of the subject image Ga and the background image P4a can be automatically changed based on the size of the subject image Ga to be synthesized, the size of the subject image Ga and the feature region in the background image P4a Even when the dimensions of C are different, generation of an unnatural subject composite image P5a in which a plurality of the same persons exist can be prevented.

また、画像合成により生成された被写体合成画像P5aと画像合成前の背景画像P4aとを所定タイミングで切り替えて交互に再生表示するので、被写体合成画像P5aが静止画像であっても、現象的には再生表示される画像中の被写体画像Gaに動きを持たせることができる。即ち、例えば、防寒服を着た子供「A君」が雪上をソリで滑る背景画像P4a(図7(a)参照)と、雪上で軽装のために寒さにぶるぶると震える子供「A君」が表現された被写体合成画像P5a(図7(b)参照)とを交互に切り替えることで、防寒服を着てソリに乗っている子供「A君」がいきなり軽装になってぶるぶると震え出すような動きを表現することができる。これにより、再生表示される画像の興趣性を向上させることができる。   In addition, since the subject composite image P5a generated by the image composition and the background image P4a before the image composition are switched at a predetermined timing and alternately reproduced and displayed, even if the subject composite image P5a is a still image, the phenomenon A motion can be given to the subject image Ga in the image to be reproduced and displayed. That is, for example, there is a background image P4a (see FIG. 7A) where a child “Mr. By alternately switching the expressed subject composite image P5a (see FIG. 7 (b)), the child “A-kun” wearing a winter clothes and wearing a sled suddenly becomes lightly dressed and trembles. Can express movement. Thereby, the interest property of the image reproduced and displayed can be improved.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、特徴領域Cとして人物の顔画像領域を検出するようにしたが、検出される領域は人物の顔画像領域に限られるものではなく、人物の画像であれば顔を含むか否かは適宜任意に変更することができる。また、同様に、特徴領域Cとして検出された顔画像領域と対応付けられている被写体画像Gaの顔画像領域と特徴領域Cの顔画像領域とが重なるように被写体画像Gaと背景画像P4aとを合成するようにしたが、必ずしも被写体画像Gaの顔画像領域と特徴領域Cの顔画像領域とが重なるように合成される必要はなく、被写体画像Gaが顔を含まない人物画像である場合には、当該被写体画像Gaと特徴領域Cとが重なるように合成されれば良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above-described embodiment, the human face image area is detected as the feature area C. However, the detected area is not limited to the human face image area. Whether or not a face is included can be arbitrarily changed as appropriate. Similarly, the subject image Ga and the background image P4a are arranged such that the face image area of the subject image Ga associated with the face image area detected as the feature area C and the face image area of the feature area C overlap. Although they are combined, it is not always necessary to combine the face image area of the subject image Ga and the face image area of the feature area C. When the subject image Ga is a human image that does not include a face, The subject image Ga and the feature area C may be combined so as to overlap.

また、上記実施形態にあっては、画像合成に係る被写体として人物(例えば、子供「A君」)を例示して説明したが、被写体の種類はこれに限られるものではなく適宜任意に変更することができる。さらに、背景画像P4aの特徴領域Cと被写体切り抜き処理にて抽出される被写体画像(前景画像)Gaの種類が同じである必要はなく、前景画像と対応付けられる特徴領域Cは如何なるものであっても良し、ユーザが任意に設定できるようにしても良い。
以下に、被写体の一例として、動物(例えば、「犬」等)を、当該動物と対応付けられる特徴領域Cとして、物品(例えば、「サッカーボール」等)を採用して撮像装置100の変形例を説明する。
In the above-described embodiment, a person (for example, the child “A-kun”) is exemplified as a subject related to image composition. However, the type of subject is not limited to this, and can be arbitrarily changed as appropriate. be able to. Further, the feature region C of the background image P4a and the subject image (foreground image) Ga extracted by the subject clipping process do not have to be the same, and what is the feature region C associated with the foreground image? Alternatively, the user may arbitrarily set it.
Hereinafter, as an example of a subject, an animal (for example, “dog” or the like) is used as a feature region C associated with the animal, and an article (for example, “soccer ball” or the like) is employed. Will be explained.

<変形例1>
変形例1の撮像装置100について、図8及び図9を参照して説明する。
図8(a)〜図8(c)は、変形例1の撮像装置100による被写体切り抜き処理に係る画像の一例を模式的に示す図であり、また、図9(a)及び図9(b)は、合成画像生成処理に係る画像の一例を模式的に示す図である。
なお、変形例1の撮像装置100は、特徴領域検出部8b及び登録テーブルT1の構成以外の点で上記実施形態の撮像装置100と略同様の構成をなし、その説明は省略する。
<Modification 1>
An imaging apparatus 100 according to Modification 1 will be described with reference to FIGS. 8 and 9.
FIGS. 8A to 8C are diagrams schematically illustrating an example of an image related to the subject clipping process performed by the imaging apparatus 100 according to the first modification, and FIGS. 9A and 9B. () Is a figure which shows typically an example of the image which concerns on a synthetic image generation process.
Note that the imaging apparatus 100 according to the first modification has a configuration substantially similar to that of the imaging apparatus 100 according to the above-described embodiment except for the configuration of the feature region detection unit 8b and the registration table T1, and the description thereof is omitted.

画像処理部8の特徴領域検出部8bは、例えば、背景画像P4bの画像データの色情報などを用いてコントラスト差を検出したり、画素集合の輪郭線(エッジ部分)を抽出することで、特徴領域C(例えば、「サッカーボール」や「木」の画像部分)を検出する。そして、特徴領域検出部8bは、検出された特徴領域Cが登録テーブルT1に登録されているか否かを判定する。例えば、特徴領域検出部8bは、特徴領域Cの画像と同じ画像パターンが特定用情報として記憶されているか否かを判定し、当該判定の結果、特徴領域Cが登録されていると判定されると、当該特徴領域Cと対応付けて登録されている登録名(例えば、「サッカーボール」)を取得する。
次に、特徴領域検出部8bは、特徴領域Cの登録名に対応する被写体画像情報が登録テーブルT1に登録されているか否かを判定する。そして、特徴領域検出部8bは、被写体画像情報(例えば、「サッカーボール」と対応付けて「犬」)が登録テーブルT1に登録されていると判定されると、特徴領域Cが被写体画像Gbと対応付けられていると判断して当該特徴領域Cをその後の処理に利用する一方で、被写体画像情報が登録テーブルT1に登録されていないと判定されると、検出された特徴領域Cを破棄する。
The feature region detection unit 8b of the image processing unit 8 detects a contrast difference using, for example, color information of image data of the background image P4b, or extracts a contour line (edge portion) of a pixel set. A region C (for example, an image portion of “soccer ball” or “tree”) is detected. Then, the feature region detection unit 8b determines whether or not the detected feature region C is registered in the registration table T1. For example, the feature region detection unit 8b determines whether or not the same image pattern as the image of the feature region C is stored as identification information, and as a result of the determination, it is determined that the feature region C is registered. Then, a registered name (for example, “soccer ball”) registered in association with the feature region C is acquired.
Next, the feature region detection unit 8b determines whether or not subject image information corresponding to the registered name of the feature region C is registered in the registration table T1. When it is determined that the subject image information (for example, “dog” in association with “soccer ball”) is registered in the registration table T1, the feature region detection unit 8b determines that the feature region C is the subject image Gb. While determining that the feature region C is associated and using the feature region C for subsequent processing, if it is determined that the subject image information is not registered in the registration table T1, the detected feature region C is discarded. .

テーブル記憶部8gには、登録名(例えば、「サッカーボール」等の物品の「名称」や、動物の種類を表す「動物名」やペットの「名称」や「愛称」等)と、特徴領域Cとして検出された画像部分を特定するための特定用情報と、被写体切り抜き処理にて抽出された被写体画像Gbに係る被写体画像情報等が対応付けられた登録テーブルT1が記憶されている。
なお、特定用情報は、物品や動物等の対象画像そのものの画像データに限られるものではなく、特徴領域Cを特定するための画像に係る情報、例えば、物品や動物の特徴データや画像パターン等の如何なる情報であっても良い。
The table storage unit 8g includes a registered name (for example, “name” of an article such as “soccer ball”, “animal name” indicating the type of animal, “name” or “nickname” of a pet), and a feature area. A registration table T1 is stored in which identification information for identifying the image portion detected as C is associated with subject image information relating to the subject image Gb extracted by subject clipping processing.
Note that the specifying information is not limited to the image data of the target image itself such as an article or an animal, but information related to an image for specifying the feature region C, for example, feature data or an image pattern of the article or animal. Any information may be used.

次に、撮像装置100による被写体切り抜き処理について、図2並びに図8(a)〜図8(c)を参照して説明する。
なお、以下に説明する被写体切り抜き処理にあっては、被写体として「犬」を撮像して当該「犬」の被写体切り抜き画像P3bを生成する以外の点で、上記実施形態における処理と略同様であり、その詳細な説明は省略する。
Next, the subject clipping process performed by the imaging apparatus 100 will be described with reference to FIG. 2 and FIGS. 8 (a) to 8 (c).
The subject clipping process described below is substantially the same as the process in the above embodiment, except that “dog” is imaged as a subject and the subject clipped image P3b of the “dog” is generated. Detailed description thereof will be omitted.

即ち、図2に示すように、先ず、上記実施形態と同様に、中央制御部13は、表示制御部10にライブビュー画像を表示部11の表示画面に表示させる処理を行わせる(ステップS1)。
そして、ステップS2にて、中央制御部13は、画像処理部8の特徴領域検出部8bに、ライブビュー画像を構成する複数の画像フレームの各々から特徴領域Cを検出させる。具体的には、特徴領域検出部8bは、各画像フレームの画像データの色情報などを用いてコントラスト差を検出したり、画素集合の輪郭線(エッジ部分)を抽出することで、特徴領域C(例えば、「犬」の画像部分)を検出する。そして、特徴領域Cが検出されると、中央制御部13は、表示制御部10に、検出された特徴領域Cに重畳させて特徴領域検出枠(図示略)を表示部11に表示させる処理を行わせる。
That is, as shown in FIG. 2, first, as in the above embodiment, the central control unit 13 causes the display control unit 10 to perform a process of displaying a live view image on the display screen of the display unit 11 (step S1). .
In step S2, the central control unit 13 causes the feature region detection unit 8b of the image processing unit 8 to detect the feature region C from each of a plurality of image frames constituting the live view image. Specifically, the feature region detection unit 8b detects a contrast difference using color information of image data of each image frame or extracts a contour line (edge portion) of a pixel set, thereby detecting the feature region C. (For example, an image portion of “dog”) is detected. When the feature region C is detected, the central control unit 13 causes the display control unit 10 to display a feature region detection frame (not shown) on the display unit 11 so as to be superimposed on the detected feature region C. Let it be done.

その後、上記実施形態と同様に、ステップS3にて、撮像指示が入力されたと判定されると(ステップS3;YES)、中央制御部13は、撮像制御部3に、特徴領域検出枠(図示略)をAFエリアとしてフォーカスレンズの合焦位置を調整させるとともに、露出条件(シャッター速度、絞り、信号増幅率等)やホワイトバランス等を調整させて、被写体存在画像P1b(図8(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる(ステップS4)。   Thereafter, as in the above embodiment, when it is determined in step S3 that an imaging instruction has been input (step S3; YES), the central control unit 13 causes the imaging control unit 3 to display a feature region detection frame (not shown). ) As an AF area, the focus position of the focus lens is adjusted, and exposure conditions (shutter speed, aperture, signal amplification factor, etc.), white balance, etc. are adjusted, and the subject existing image P1b (see FIG. 8A) Are imaged by the electronic imaging unit 2 under a predetermined condition (step S4).

次に、中央制御部13は、上記実施形態と同様に、表示制御部10にライブビュー画像を表示部11の表示画面に表示させる処理を行わせる(ステップS5)。
この後、上記実施形態と同様に、ユーザは、被写体が移動するのを待つか、或いは、被写体を画角外に移動させた後、ユーザにより被写体非存在画像P2bが被写体存在画像P1bの半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS6;YES)、中央制御部13は、撮像制御部3に、被写体非存在画像P2b(図8(b)参照)の光学像を被写体存在画像P1bの撮像後に固定された条件で電子撮像部2により撮像させる(ステップS7)。
Next, the central control unit 13 causes the display control unit 10 to perform a process of displaying the live view image on the display screen of the display unit 11 as in the above embodiment (step S5).
Thereafter, as in the above-described embodiment, the user waits for the subject to move, or moves the subject outside the angle of view, and then the subject nonexistent image P2b is translucent to the subject present image P1b. When it is determined that the camera position is adjusted so as to overlap the image of the camera and the shutter button 12a of the operation input unit 12 is operated in a predetermined manner and an imaging instruction is input (step S6; YES), the central control unit 13 performs imaging. The control unit 3 causes the electronic imaging unit 2 to capture an optical image of the subject non-existing image P2b (see FIG. 8B) under conditions fixed after capturing the subject existing image P1b (step S7).

続けて、上記実施形態と同様に、ステップS8〜S12の処理を行って、画像処理部8の画像生成部は、被写体画像Gbを所定の単一色画像と合成した被写体切り抜き画像P3b(図8(c)参照)の画像データを生成する。
その後、上記実施形態と同様に、中央制御部13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部により生成されたアルファマップと被写体切り抜き画像P3bの画像データとを対応付けて一ファイルで記憶させる(ステップS13)。
次に、上記実施形態と同様に、中央制御部13は、テーブル記憶部8gの登録テーブルT1に、被写体切り抜き画像P3bの被写体画像Gbに対応する被写体画像情報を特徴領域検出処理にて検出された特徴領域Cの特定用情報と対応付けて記憶させる(ステップS14)。
Subsequently, in the same manner as in the above-described embodiment, the processes of steps S8 to S12 are performed, and the image generation unit of the image processing unit 8 combines the subject image Gb with a predetermined single color image P3b (FIG. 8 ( c)) is generated.
Thereafter, as in the above embodiment, the central control unit 13 stores the alpha map generated by the position information generation unit of the image processing unit 8 and the image data of the subject cutout image P3b in a predetermined storage area of the recording medium 9. The file is stored in association with one file (step S13).
Next, as in the above embodiment, the central control unit 13 has detected subject image information corresponding to the subject image Gb of the subject cutout image P3b in the registration table T1 of the table storage unit 8g by the feature region detection process. The information is stored in association with the information for specifying the feature area C (step S14).

これにより、被写体切り抜き処理を終了する。この結果、例えば、所定の背景内から「犬」が被写体として抽出された被写体切り抜き画像P3bの画像データが生成される。   Thereby, the subject clipping process is completed. As a result, for example, image data of a subject cutout image P3b in which “dog” is extracted as a subject from a predetermined background is generated.

次に、撮像装置100による背景画像撮像処理について、図4を参照して説明する。
なお、以下に説明する背景画像撮像処理にあっては、被写体として、被写体切り抜き画像P3bの被写体画像Gbに係る「犬」と対応付けられている「サッカーボール」が含まれる背景を撮像する以外の点で、上記実施形態における処理と略同様であり、その詳細な説明は省略する。
Next, background image imaging processing by the imaging apparatus 100 will be described with reference to FIG.
In the background image capturing process described below, a background other than capturing a background including a “soccer ball” associated with “dog” related to the subject image Gb of the subject cut-out image P3b. In this respect, the processing is substantially the same as the processing in the above embodiment, and detailed description thereof is omitted.

即ち、図4に示すように、上記実施形態と同様に、ステップS21〜S24の処理を行って、電子撮像部2が背景画像P4b(図9(a)参照)の光学像を所定の条件で撮像して、画像データ生成部4が背景画像P4bのYUVデータを生成した後、中央制御部13は、記録媒体9の所定の記憶領域に、背景画像P4bのYUVデータをExif形式の画像ファイルとして記憶させる。   That is, as shown in FIG. 4, similarly to the above embodiment, the processing of steps S21 to S24 is performed, and the electronic imaging unit 2 causes the optical image of the background image P4b (see FIG. 9A) to be obtained under a predetermined condition. After the image is captured and the image data generation unit 4 generates the YUV data of the background image P4b, the central control unit 13 stores the YUV data of the background image P4b as an Exif format image file in a predetermined storage area of the recording medium 9. Remember.

これにより、背景画像撮像処理を終了する。この結果、例えば、背景内に「サッカーボール」が存する背景画像P4bの静止画像データが生成される。   Thereby, the background image capturing process is terminated. As a result, for example, still image data of the background image P4b having “soccer ball” in the background is generated.

次に、撮像装置100による合成画像生成処理について、図5、図6並びに図9(a)及び図9(b)を参照して説明する。
なお、以下に説明する合成画像生成処理にあっては、背景画像P4bから「サッカーボール」の画像部分を特徴領域Cとして検出して、当該「サッカーボール」に重ねて「犬」の画像を合成する以外の点で、上記実施形態における処理と略同様であり、その詳細な説明は省略する。
Next, composite image generation processing by the imaging apparatus 100 will be described with reference to FIGS. 5, 6, 9 (a), and 9 (b).
In the composite image generation process described below, the image portion of “soccer ball” is detected as the feature region C from the background image P4b, and the image of “dog” is superimposed on the “soccer ball”. Except for this point, the processing is substantially the same as the processing in the above embodiment, and the detailed description thereof is omitted.

即ち、図5に示すように、先ず、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の背景画像P4b(図9(a)参照)が選択されて指定されると、中央制御部13は、画像処理部8に、指定された背景画像P4bの画像データを読み出させて画像メモリ5に展開させる(ステップS31)。   That is, as shown in FIG. 5, first, based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user, a desired background image P4b (see FIG. 5) among a plurality of images recorded on the recording medium 9. When 9 is selected and designated, the central control unit 13 causes the image processing unit 8 to read the image data of the designated background image P4b and develop it in the image memory 5 (step S31). ).

次に、中央制御部13は、特徴領域検出部8bに、背景画像P4bから特徴領域Cを検出させる(ステップS32)。具体的には、特徴領域検出部8bは、背景画像P4bから所定の検出方法を用いて特徴領域C(例えば、「サッカーボール」や「木」の画像部分)を検出する処理を行った後、当該検出処理にて検出された特徴領域Cに対応する特定用情報が登録テーブルT1に登録されているか否かを判定する。当該判定の結果、特定用情報が登録されていると判定されると、特徴領域検出部8bは、当該特定用情報と対応付けて登録されている登録名(例えば、「サッカーボール」)を取得する。
上記の特徴領域Cの検出処理の結果、背景画像P4bから特徴領域Cが検出されると(ステップS32;YES)、中央制御部13は、特徴領域検出部8bに、特徴領域Cと被写体画像Gbとが対応付けられているか否かを判定させる(ステップS33)。具体的には、特徴領域検出部8bは、取得した登録名に対応する被写体画像情報(例えば、「サッカーボール」と対応付けて「犬」)が登録テーブルT1に登録されているか否かに応じて特徴領域Cと被写体画像Gbとが対応付けられているか否かを判定する。そして、特徴領域検出部8bは、被写体画像情報が登録テーブルT1に登録されていると判定すると、特徴領域Cと被写体画像Gbとが対応付けられていると判断して(ステップS33;YES)、当該特徴領域Cをその後の処理に利用する。
Next, the central control unit 13 causes the feature region detection unit 8b to detect the feature region C from the background image P4b (step S32). Specifically, the feature region detection unit 8b performs a process of detecting the feature region C (for example, an image portion of “soccer ball” or “tree”) from the background image P4b using a predetermined detection method, It is determined whether or not the identification information corresponding to the feature area C detected by the detection process is registered in the registration table T1. If it is determined that the identification information is registered as a result of the determination, the feature region detection unit 8b acquires a registered name (for example, “soccer ball”) registered in association with the identification information. To do.
When the feature area C is detected from the background image P4b as a result of the detection process of the feature area C (step S32; YES), the central control unit 13 causes the feature area detection unit 8b to send the feature area C and the subject image Gb. Are associated with each other (step S33). Specifically, the feature region detection unit 8b determines whether subject image information (for example, “dog” in association with “soccer ball”) corresponding to the acquired registered name is registered in the registration table T1. Then, it is determined whether or not the feature region C and the subject image Gb are associated with each other. When the characteristic area detection unit 8b determines that the subject image information is registered in the registration table T1, the characteristic area detection unit 8b determines that the characteristic area C and the subject image Gb are associated with each other (step S33; YES). The feature region C is used for subsequent processing.

次に、ステップS34にて、上記実施形態と同様に、画像処理部8の前景特定部8dは、登録テーブルT1を参照して、特徴領域Cと対応付けられている被写体画像Gbが含まれる被写体切り抜き画像P3bを少なくとも一つ特定して、当該被写体切り抜き画像P3bの画像データを記録媒体9から読み出して画像メモリ5に一時的に記憶する。
その後、ステップS35にて、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、表示部11に表示されている少なくとも一の被写体切り抜き画像P3bの中で所望の被写体切り抜き画像P3b(図8(c)参照)が選択されて指定されると、画像処理部8は、前景特定部8dによって特定された被写体切り抜き画像P3bの被写体画像Gb(例えば、「犬」の画像)と背景画像P4bの特徴領域C(例えば、「サッカーボール」の画像部分)とが重なるように、背景画像P4bの特徴領域Cを被写体画像Gbの合成位置として指定する(ステップS36)。
そして、ステップS37にて、合成部8eは、背景画像P4bと被写体切り抜き画像P3bにおける被写体画像Gbを用いて、画像合成処理(図6参照)を行う。
なお、図6に示す画像合成処理は、上記実施形態と同様であり、その詳細な説明は省略する。
Next, in step S34, as in the above embodiment, the foreground specifying unit 8d of the image processing unit 8 refers to the registration table T1, and includes a subject including the subject image Gb associated with the feature region C. At least one clipped image P3b is specified, and the image data of the subject clipped image P3b is read from the recording medium 9 and temporarily stored in the image memory 5.
Thereafter, in step S35, a desired subject cutout image P3b (of at least one subject cutout image P3b displayed on the display unit 11 based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. When the image processing unit 8 is selected and designated (see FIG. 8C), the image processing unit 8 selects the subject image Gb (for example, “dog” image) of the subject cutout image P3b specified by the foreground specifying unit 8d and the background image. The feature region C of the background image P4b is designated as the synthesis position of the subject image Gb so as to overlap with the feature region C of P4b (for example, the image portion of “soccer ball”) (step S36).
In step S37, the composition unit 8e performs image composition processing (see FIG. 6) using the subject image Gb in the background image P4b and the subject cutout image P3b.
Note that the image composition processing shown in FIG. 6 is the same as that in the above embodiment, and a detailed description thereof will be omitted.

一方、ステップS32にて、背景画像P4bから特徴領域Cが検出されなかった場合(ステップS32;YES)、或いは、ステップS33にて、特徴領域Cと被写体画像Gbとが対応付けて登録されていないと判断された場合(ステップS33;NO)、中央制御部13は、処理をステップS38に移行させるが、それ以降の処理は上記実施形態と同様であり、その詳細な説明は省略する。   On the other hand, if the feature region C is not detected from the background image P4b in step S32 (step S32; YES), or the feature region C and the subject image Gb are not registered in association with each other in step S33. Is determined (step S33; NO), the central control unit 13 shifts the processing to step S38, but the subsequent processing is the same as in the above embodiment, and detailed description thereof is omitted.

次に、図5に示すように、ステップS40にて、表示制御部10は、合成部8eにより生成された被写体合成画像P5bの画像データに基づいて、背景画像P4bに被写体が重畳された被写体合成画像P5bを表示部11の表示画面に表示させる。これにより、表示部11は、背景画像P4b中のサッカーボールの位置に被写体画像Gbである「犬」の画像が重ねられた被写体合成画像P5bを表示する。
なお、上記実施形態と同様に、表示部11は、画像合成により生成された被写体合成画像P5bと画像合成前の背景画像P4bとを所定タイミングで切り替えて交互に再生表示しても良い。
これにより、合成画像生成処理を終了する。
Next, as shown in FIG. 5, in step S40, the display control unit 10 performs subject composition in which the subject is superimposed on the background image P4b based on the image data of the subject composite image P5b generated by the composition unit 8e. The image P5b is displayed on the display screen of the display unit 11. Thereby, the display unit 11 displays the subject composite image P5b in which the image of the “dog” that is the subject image Gb is superimposed on the position of the soccer ball in the background image P4b.
Similar to the above embodiment, the display unit 11 may alternately reproduce and display the subject composite image P5b generated by image composition and the background image P4b before image composition at a predetermined timing.
Thus, the composite image generation process is finished.

従って、変形例1の撮像装置100によれば、上記実施形態と同様に、背景画像P4bから被写体切り抜き画像P3bの「犬」の画像である被写体画像(前景画像)Gbと対応付けられている特徴領域C(「サッカーボール」の画像部分)を検出して、背景画像P4bにおける特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gbを合成するので、背景画像P4bへの合成に適した被写体画像Gbを自動的に特定し、背景画像P4bにおける被写体画像Gbの合成位置を自動的に決定することができ、被写体合成画像P5bの生成を簡便に行うことができる。   Therefore, according to the imaging apparatus 100 of the first modification, as in the above embodiment, the feature image is associated with the subject image (foreground image) Gb that is the “dog” image of the subject cutout image P3b from the background image P4b. Since the region C (image portion of “soccer ball”) is detected and the subject image Gb associated with the feature region C is combined with the region in which the feature region C is detected in the background image P4b, the background image The subject image Gb suitable for the composition to P4b can be automatically specified, the composition position of the subject image Gb in the background image P4b can be automatically determined, and the subject composition image P5b can be easily generated. .

また、上記実施形態及び変形例1にあっては、前景特定部8dによって複数の被写体画像Ga(Gb)を含む被写体切り抜き画像P3a(P3b)が特定された場合には、ユーザによる操作入力部12の所定操作に基づいてユーザ所望の何れか一の被写体画像Ga(Gb)を指定するようにしたが、例えば、撮影条件、撮影日時、被写体画像Ga(Gb)の寸法等の各種条件を考慮して、被写体画像Ga(Gb)の指定を自動的に行なっても良い。即ち、複数の被写体切り抜き画像P3a(P3b)の中から、例えば、ピンぼけしていない画像や、明るい画像や、撮影日時が最も新しい画像や、被写体画像Ga(Gb)の寸法の大きい画像等を優先的に選択するようにして、当該被写体画像Ga(Gb)の指定処理を自動的に行っても良い。これにより、複数の被写体切り抜き画像P3a(P3b)が特定された場合に、被写体合成画像P5bの生成をさらに簡便に行うことができる。
また、上記実施形態及び変形例1にあっては、特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gbを合成するようにしたが、これに限られるものではない。例えば、特徴領域Cが検出されたら、前景特定部8dによって特徴領域Cと対応付けられている被写体画像Gbを特定し、合成位置はユーザによる操作入力部12の所定操作に基づいて決定するようにしても良いし、ユーザによる操作入力部12の所定操作に基づいて複数記憶されている被写体切り抜き画像P3a(P3b)と背景画像P4a(P4b)からそれぞれ1つを指定し、指定した背景画像P4a(P4b)から特徴領域Cが検出されると、この特徴領域Cを指定した被写体切り抜き画像P3a(P3b)に含まれる被写体画像Ga(Gb)の合成位置とするようにしても良い。つまり、特徴領域Cに基づいて、被写体画像Ga(Gb)だけ特定してもよいし、合成位置だけ特定してもよい。
また、上記実施形態及び変形例1にあっては、指定した背景画像P4a(P4b)から特徴領域Cが検出された領域に、当該特徴領域Cと対応付けられている被写体画像Gbを特定するようにしたが、ユーザによる操作入力部12の所定操作に基づいて複数記憶されている被写体切り抜き画像P3a(P3b)から1つを指定すると、指定した被写体切り抜き画像P3a(P3b)に含まれる被写体画像Gbと対応付けられている特徴領域Cを含んだ、背景画像P4a(P4b)を特定するようにしても良い。
In the above embodiment and the first modification, when the foreground specifying unit 8d specifies the subject cutout image P3a (P3b) including the plurality of subject images Ga (Gb), the operation input unit 12 by the user. One of the user-desired subject images Ga (Gb) is designated based on the predetermined operation, but taking into account various conditions such as shooting conditions, shooting date and time, and dimensions of the subject image Ga (Gb). The subject image Ga (Gb) may be automatically specified. In other words, among the plurality of subject cutout images P3a (P3b), for example, an image that is not out of focus, a bright image, an image with the latest shooting date and time, an image with a large size of the subject image Ga (Gb), and the like are given priority. The subject image Ga (Gb) may be designated automatically by selecting the target image. Thus, when a plurality of subject cutout images P3a (P3b) are specified, the subject composite image P5b can be generated more easily.
In the embodiment and the first modification, the subject image Gb associated with the feature region C is combined with the region in which the feature region C is detected. However, the present invention is not limited to this. is not. For example, when the feature region C is detected, the subject image Gb associated with the feature region C is specified by the foreground specifying unit 8d, and the synthesis position is determined based on a predetermined operation of the operation input unit 12 by the user. Alternatively, one of each of the subject cutout images P3a (P3b) and the background images P4a (P4b) stored based on a predetermined operation of the operation input unit 12 by the user may be designated, and the designated background image P4a ( When the feature region C is detected from P4b), the feature region C may be set as the synthesis position of the subject image Ga (Gb) included in the designated subject cutout image P3a (P3b). That is, based on the feature region C, only the subject image Ga (Gb) may be specified, or only the synthesis position may be specified.
In the embodiment and the first modification, the subject image Gb associated with the feature region C is specified as the region in which the feature region C is detected from the designated background image P4a (P4b). However, if one of the plurality of subject cutout images P3a (P3b) stored based on a predetermined operation of the operation input unit 12 by the user is designated, the subject image Gb included in the designated subject cutout image P3a (P3b) Alternatively, the background image P4a (P4b) including the feature region C associated with may be specified.

加えて、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置100を例示したが、これに限られるものではない。例えば、背景画像P4a(P4b)の撮像及び被写体切り抜き画像P3a(P3b)の生成は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された画像データを記録して、合成画像生成処理のみを実行する画像合成装置であっても良い。
また、上記実施形態にあっては、表示部11は、画像合成により生成された被写体合成画像P5aと背景画像P4aとを所定間隔で切替え再生するようにしたが、必ずしもこれらの画像を切り替え再生する必要はなく、少なくとも被写体合成画像P5aを表示すれば良い。
さらに、上記実施形態にあっては、被写体画像Ga及び背景画像P4aの寸法を変更する寸法変更部8fを備えるようにしたが、これに限られるものではなく、寸法変更部8fを備えるか否かは適宜任意に変更することができる。
In addition, the configuration of the imaging apparatus 100 is merely an example of the configuration described in the above embodiment, and is not limited thereto. That is, although the imaging device 100 is illustrated as an image composition device, it is not limited to this. For example, the background image P4a (P4b) is captured and the subject cut-out image P3a (P3b) is generated by an imaging device different from the imaging device 100, and the image data transferred from the imaging device is recorded and combined. It may be an image composition device that executes only image generation processing.
In the above embodiment, the display unit 11 switches and reproduces the subject composite image P5a and the background image P4a generated by image synthesis at a predetermined interval. However, the display unit 11 does not necessarily switch and reproduce these images. It is not necessary to display at least the subject composite image P5a.
Furthermore, in the above embodiment, the dimension changing unit 8f that changes the dimensions of the subject image Ga and the background image P4a is provided. However, the present invention is not limited to this, and whether or not the dimension changing unit 8f is provided. Can be arbitrarily changed as appropriate.

また、上記実施形態にあっては、背景指定手段、検出手段、特定手段としての機能を、中央制御部13の制御下にて、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、背景指定処理ルーチン、検出処理ルーチン、特定処理ルーチンを含むプログラムを記憶しておく。そして、背景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の背景画像P4aの中から何れか一の背景画像P4aを指定する背景指定手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部13のCPUを、指定された背景画像P4aから特徴領域Cを検出する検出手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部13のCPUを、検出された特徴領域Cと対応付けられている被写体画像(前景画像)Gaを記録媒体9に記憶されている複数の被写体画像Gaの中から特定する特定手段として機能させるようにしても良い。
また、プログラムを記憶するプログラムメモリ(図示略)に、前景指定処理ルーチン、背景指定処理ルーチン、検出処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、前景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の被写体画像(前景画像)Gaの中から何れか一の被写体画像Gaを指定する前景指定手段として機能させるようにしても良い。また、背景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の背景画像P4aの中から何れか一の背景画像P4aを指定する背景指定手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部13のCPUを、背景指定処理ルーチンにより指定された背景画像P4aから前景指定処理ルーチンにより指定された被写体画像(前景画像)Gaと対応付けられている特徴領域Cを検出する検出手段として機能させるようにしても良い。また、合成処理ルーチンにより中央制御部13のCPUを、背景画像P4aにおける特徴領域Cが検出された領域に、前景指定処理ルーチンにより指定された被写体画像(前景画像)Gaを合成する合成手段として機能させるようにしても良い。
また、プログラムを記憶するプログラムメモリ(図示略)に、前景指定処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、前景指定処理ルーチンにより中央制御部13のCPUを、記録媒体9に記憶されている複数の被写体画像(前景画像)Gaの中から何れか一の被写体画像Gaを指定する前景指定手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部13のCPUを、指定された被写体画像(前景画像)Gaと対応付けられている特徴領域Cを含んだ背景画像P4aを記録媒体9に記憶されている複数の背景画像P4aの中から特定する特定手段として機能させるようにしても良い。
In the above embodiment, the functions as the background specifying means, the detecting means, and the specifying means are realized by the image processing unit 8 being driven under the control of the central control unit 13. However, the present invention is not limited to this, and a configuration realized by executing a predetermined program or the like by the central control unit 13 may be adopted.
That is, a program including a background designation processing routine, a detection processing routine, and a specific processing routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 13 is caused to function as a background designating unit for designating any one of the background images P4a stored in the recording medium 9 by the background designating processing routine. Also good. Further, the CPU of the central control unit 13 may function as detection means for detecting the feature region C from the designated background image P4a by the detection processing routine. Further, the CPU of the central control unit 13 by the specific processing routine causes the subject image (foreground image) Ga associated with the detected feature area C to be selected from the plurality of subject images Ga stored in the recording medium 9. You may make it function as a specific means to specify.
A program memory (not shown) that stores the program stores a program including a foreground designation processing routine, a background designation processing routine, a detection processing routine, and a synthesis processing routine. Then, the CPU of the central control unit 13 functions as a foreground designation means for designating any one of the plurality of subject images (foreground images) Ga stored in the recording medium 9 by the foreground designation processing routine. You may make it let it. Further, the CPU of the central control unit 13 is caused to function as a background designating means for designating any one of the background images P4a stored in the recording medium 9 by the background designating processing routine. Also good. Further, the CPU of the central control unit 13 is made to correspond to the subject image (foreground image) Ga designated by the foreground designation processing routine from the background image P4a designated by the background designation processing routine by the detection processing routine. You may make it function as a detection means to detect. Further, the CPU of the central control unit 13 functions as a combining unit that combines the subject image (foreground image) Ga designated by the foreground designation processing routine with the region where the feature region C is detected in the background image P4a. You may make it let it.
Further, a program memory (not shown) for storing the program stores a program including a foreground designation processing routine and a synthesis processing routine. Then, the CPU of the central control unit 13 functions as a foreground designation means for designating any one of the plurality of subject images (foreground images) Ga stored in the recording medium 9 by the foreground designation processing routine. You may make it let it. Further, the CPU of the central control unit 13 performs a specific processing routine so that the background image P4a including the feature region C associated with the designated subject image (foreground image) Ga is stored in the recording medium 9. You may make it function as an identification means to identify from the background image P4a.

100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8a 切り抜き画像生成部
8b 特徴領域検出部
8c 顔認識部
8d 前景特定部
8e 合成部
8f 寸法変更部
8g テーブル記憶部
9 記録媒体
12 操作入力部
12b 選択決定ボタン
13 中央制御部
Ga、Gb 被写体画像
P4a、P4b 背景画像
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Lens part 2 Electronic imaging part 3 Imaging control part 8 Image processing part 8a Cutout image generation part 8b Feature area detection part 8c Face recognition part 8d Foreground specific part 8e Composition part 8f Size change part 8g Table storage part 9 Recording medium 12 Operation input part 12b Selection decision button 13 Central control part Ga, Gb Subject image P4a, P4b Background image

Claims (17)

背景画像に前景画像を合成する合成手段を備えた画像合成装置において、
背景画像及び前景画像の各々を複数記憶する記憶手段と、
この記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、
この背景指定手段によって指定された背景画像から特徴領域を検出する検出手段と、
この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段と、
を備えたことを特徴とする画像合成装置。
In an image synthesizing apparatus provided with a synthesizing unit that synthesizes a foreground image with a background image,
Storage means for storing a plurality of background images and foreground images;
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region from the background image specified by the background specifying means;
Specifying means for specifying a foreground image associated with the feature region detected by the detecting means from among a plurality of foreground images stored in the storage means;
An image composition device comprising:
前記合成手段は、前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記特定手段によって特定された前景画像を合成することを特徴とする請求項1に記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the synthesizing unit synthesizes the foreground image specified by the specifying unit with an area of the background image in which a characteristic region is detected by the detecting unit. 前記特定手段は、前記前景画像を複数特定し、
前記特定手段によって特定された複数の前景画像の中から何れか一の前景画像を指定する前景指定手段を更に備え、
前記合成手段は、
前記前景指定手段によって指定された前記前景画像を合成することを特徴とする請求項1又は2に記載の画像合成装置。
The specifying means specifies a plurality of the foreground images,
Foreground designating means for designating any one of the foreground images identified by the identifying means;
The synthesis means includes
3. The image composition apparatus according to claim 1, wherein the foreground image designated by the foreground designating unit is synthesized.
前記特徴領域は、前記背景画像における人物画像領域であり、
前記特定手段は、前記特徴領域と同じ人物の画像を含む前景画像を特定することを特徴とする請求項1〜3の何れか一項に記載の画像合成装置。
The feature region is a person image region in the background image,
The image specifying apparatus according to claim 1, wherein the specifying unit specifies a foreground image including an image of the same person as the feature region.
背景画像及び前景画像の各々を複数記憶する記憶手段と、
この記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段と、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段と、
この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段と、
前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段と、
を備えたことを特徴とする画像合成装置。
Storage means for storing a plurality of background images and foreground images;
Foreground designating means for designating any one foreground image from a plurality of background images stored in the storage means;
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region associated with the foreground image specified by the foreground specifying means from the background image specified by the background specifying means;
Synthesizing means for synthesizing the foreground image designated by the foreground designating means to the area of the background image in which the characteristic area is detected by the detecting means;
An image composition device comprising:
前記前景画像は、人物の顔画像を含む人物画像であり、
前記特徴領域は、前記背景画像における前記人物と同じ人物の顔画像領域であることを特徴とする請求項5記載の画像合成装置。
The foreground image is a human image including a human face image;
6. The image composition apparatus according to claim 5, wherein the feature area is a face image area of the same person as the person in the background image.
前記合成手段は、
前記前景画像の顔画像領域と前記背景画像の顔画像領域とが重なるように合成することを特徴とする請求項6に記載の画像合成装置。
The synthesis means includes
The image synthesizing apparatus according to claim 6, wherein the synthesis is performed so that the face image area of the foreground image and the face image area of the background image overlap.
背景画像に前景画像を合成する合成手段を備えた画像合成装置において、
背景画像及び前景画像の各々を複数記憶する記憶手段と、
この記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、
この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段と、
を備えたことを特徴とする画像合成装置。
In an image synthesizing apparatus provided with a synthesizing unit that synthesizes a foreground image with a background image,
Storage means for storing a plurality of background images and foreground images;
Foreground designating means for designating any one of the foreground images stored in the storage means;
Specifying means for specifying a background image including a feature region associated with the foreground image designated by the foreground designating means from a plurality of background images stored in the storage means;
An image composition device comprising:
前記合成手段によって合成される前景画像の寸法と前記背景画像における前記特徴領域の寸法とに基づいて、当該前景画像及び前記背景画像の少なくとも一方の寸法を変更する変更手段を更に備え、
前記合成手段は、前記変更手段によって前記前景画像及び前記背景画像の少なくとも一方の寸法を変更してから合成することを特徴とする請求項1〜8の何れか一項に記載の画像合成装置。
Further comprising changing means for changing the size of at least one of the foreground image and the background image based on the size of the foreground image synthesized by the synthesizing unit and the size of the feature region in the background image,
The image synthesizing apparatus according to claim 1, wherein the synthesizing unit synthesizes after changing at least one dimension of the foreground image and the background image by the changing unit.
前記背景画像と、前記合成手段により合成された合成画像とを切替え再生する再生手段を更に備えることを特徴とする請求項1〜9の何れか一項に記載の画像合成装置。   The image synthesizing apparatus according to any one of claims 1 to 9, further comprising a reproducing unit that switches and reproduces the background image and the synthesized image synthesized by the synthesizing unit. 前記前景画像と前記特徴領域とを対応付けて登録する登録手段を更に備えることを特徴とする請求項1〜10の何れか一項に記載の画像合成装置。   The image synthesizing apparatus according to claim 1, further comprising a registration unit that registers the foreground image and the feature region in association with each other. 背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像特定方法であって、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、
この背景指定ステップによって指定された背景画像から特徴領域を検出する検出ステップと、
前記記憶手段に記憶されている複数の前景画像の中から、前記検出ステップによって検出された特徴領域と対応付けられている前景画像を特定する特定ステップと、
を備えたことを特徴とする画像特定方法。
An image specifying method of an image composition device comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image,
A background designating step of designating any one of the plurality of background images stored in the storage means;
A detection step of detecting a feature region from the background image designated by the background designation step;
A specifying step for specifying a foreground image associated with the feature region detected by the detection step from among the plurality of foreground images stored in the storage unit;
An image specifying method comprising:
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像合成方法であって、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定ステップと、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定ステップと、
この背景指定ステップによって指定された背景画像から前記前景画像指定ステップによって指定された前景画像と対応付けられている特徴領域を検出する検出ステップと、
前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成ステップと、
を備えたことを特徴とする画像合成方法。
An image composition method for an image composition apparatus comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image,
A foreground designating step of designating any one foreground image from a plurality of background images stored in the storage means;
A background designating step of designating any one of the plurality of background images stored in the storage means;
A detecting step for detecting a feature region associated with the foreground image specified by the foreground image specifying step from the background image specified by the background specifying step;
Synthesizing a foreground image designated by the foreground designating means with an area of the background image in which the characteristic area is detected by the detecting means;
An image composition method characterized by comprising:
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段と、を備えた画像合成装置の画像特定方法であって、
前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定ステップと、
この前景指定ステップによって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定ステップと、
を備えたことを特徴とする画像特定方法。
An image specifying method of an image composition device comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image,
A foreground designating step of designating any one of the foreground images stored in the storage means;
A specifying step of specifying a background image including a feature region associated with the foreground image specified in the foreground specifying step from a plurality of background images stored in the storage unit;
An image specifying method comprising:
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段とを備える画像合成装置のコンピュータを、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、
この背景指定手段によって指定された背景画像から前景画像と対応付けられている特徴領域を検出する検出手段、
この検出手段によって検出された特徴領域と対応付けられている前景画像を前記記憶手段に記憶されている複数の前景画像の中から特定する特定手段、
として機能させることを特徴とするプログラム。
A computer of an image composition device comprising: storage means for storing a plurality of background images and foreground images; and composition means for combining the background image and the foreground image.
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region associated with the foreground image from the background image specified by the background specifying means;
A specifying means for specifying a foreground image associated with the feature region detected by the detecting means from among a plurality of foreground images stored in the storage means;
A program characterized by functioning as
背景画像及び前景画像の各々を複数記憶する記憶手段を備える画像合成装置のコンピュータを、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の前景画像を指定する前景指定手段、
前記記憶手段に記憶されている複数の背景画像の中から何れか一の背景画像を指定する背景指定手段、
この背景指定手段によって指定された背景画像から前記前景指定手段によって指定された前景画像と対応付けられている特徴領域を検出する検出手段、
前記背景画像における前記検出手段によって特徴領域が検出された領域に、前記前景指定手段によって指定された前景画像を合成する合成手段、
として機能させることを特徴とするプログラム。
A computer of an image composition device comprising storage means for storing a plurality of background images and foreground images,
Foreground designating means for designating any one foreground image from a plurality of background images stored in the storage means;
Background designating means for designating any one of the plurality of background images stored in the storage means;
Detecting means for detecting a feature region associated with the foreground image specified by the foreground specifying means from the background image specified by the background specifying means;
Synthesizing means for synthesizing the foreground image designated by the foreground designating means with the area of the background image in which the characteristic area is detected by the detecting means;
A program characterized by functioning as
背景画像及び前景画像の各々を複数記憶する記憶手段と、前記背景画像と前記前景画像とを合成する合成手段とを備える画像合成装置のコンピュータを、
前記記憶手段に記憶されている複数の前景画像の中から何れか一の前景画像を指定する前景指定手段と、
この前景指定手段によって指定された前景画像と対応付けられている特徴領域を含んだ背景画像を前記記憶手段に記憶されている複数の背景画像の中から特定する特定手段、
として機能させることを特徴とするプログラム。
A computer of an image composition apparatus comprising storage means for storing a plurality of background images and foreground images, and composition means for synthesizing the background image and the foreground image,
Foreground designating means for designating any one of the foreground images stored in the storage means;
Specifying means for specifying a background image including a feature region associated with the foreground image designated by the foreground designating means from a plurality of background images stored in the storage means;
A program characterized by functioning as
JP2009146266A 2009-06-19 2009-06-19 Image composition device, image specifying method, image composition method, and program Pending JP2011003057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009146266A JP2011003057A (en) 2009-06-19 2009-06-19 Image composition device, image specifying method, image composition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009146266A JP2011003057A (en) 2009-06-19 2009-06-19 Image composition device, image specifying method, image composition method, and program

Publications (1)

Publication Number Publication Date
JP2011003057A true JP2011003057A (en) 2011-01-06

Family

ID=43560955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009146266A Pending JP2011003057A (en) 2009-06-19 2009-06-19 Image composition device, image specifying method, image composition method, and program

Country Status (1)

Country Link
JP (1) JP2011003057A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150087056A (en) 2014-01-21 2015-07-29 한화테크윈 주식회사 Apparatus and method for stabilizing image
US10136063B2 (en) 2013-07-12 2018-11-20 Hanwha Aerospace Co., Ltd Image stabilizing method and apparatus
KR20200010527A (en) 2020-01-15 2020-01-30 한화테크윈 주식회사 Apparatus and method for stabilizing image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149285A (en) * 1997-11-17 1999-06-02 Matsushita Electric Ind Co Ltd Image acoustic system
JP2001076164A (en) * 2000-08-01 2001-03-23 Casio Comput Co Ltd Device and method for preparing facial image
JP2001292305A (en) * 2000-02-02 2001-10-19 Casio Comput Co Ltd Image data synthesizer, image data synthesis system, image data synthesis method and recording medium
JP2003346170A (en) * 2002-05-28 2003-12-05 Casio Comput Co Ltd Image delivery server, image delivery program and image delivery method
JP2004153345A (en) * 2002-10-28 2004-05-27 Ricoh Co Ltd Imaging apparatus, imaging method, and recording medium for recording program for the method
JP2004302939A (en) * 2003-03-31 2004-10-28 Casio Comput Co Ltd Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP2005050012A (en) * 2003-07-31 2005-02-24 Casio Comput Co Ltd Image outputting device, image outputting method, and image output processing program, and image distributing server, and image distribution processing program
JP2007299297A (en) * 2006-05-02 2007-11-15 Fujifilm Corp Image composition device and control method thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149285A (en) * 1997-11-17 1999-06-02 Matsushita Electric Ind Co Ltd Image acoustic system
JP2001292305A (en) * 2000-02-02 2001-10-19 Casio Comput Co Ltd Image data synthesizer, image data synthesis system, image data synthesis method and recording medium
JP2001076164A (en) * 2000-08-01 2001-03-23 Casio Comput Co Ltd Device and method for preparing facial image
JP2003346170A (en) * 2002-05-28 2003-12-05 Casio Comput Co Ltd Image delivery server, image delivery program and image delivery method
JP2004153345A (en) * 2002-10-28 2004-05-27 Ricoh Co Ltd Imaging apparatus, imaging method, and recording medium for recording program for the method
JP2004302939A (en) * 2003-03-31 2004-10-28 Casio Comput Co Ltd Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP2005050012A (en) * 2003-07-31 2005-02-24 Casio Comput Co Ltd Image outputting device, image outputting method, and image output processing program, and image distributing server, and image distribution processing program
JP2007299297A (en) * 2006-05-02 2007-11-15 Fujifilm Corp Image composition device and control method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10136063B2 (en) 2013-07-12 2018-11-20 Hanwha Aerospace Co., Ltd Image stabilizing method and apparatus
US10848672B2 (en) 2013-07-12 2020-11-24 Hanwha Techwin Co., Ltd. Image stabilizing method and apparatus
KR20150087056A (en) 2014-01-21 2015-07-29 한화테크윈 주식회사 Apparatus and method for stabilizing image
US9466095B2 (en) 2014-01-21 2016-10-11 Hanwha Techwin Co., Ltd. Image stabilizing method and apparatus
KR20200010527A (en) 2020-01-15 2020-01-30 한화테크윈 주식회사 Apparatus and method for stabilizing image

Similar Documents

Publication Publication Date Title
JP5051156B2 (en) Image processing apparatus and program
JP5105550B2 (en) Image composition apparatus and program
JP4760973B2 (en) Imaging apparatus and image processing method
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP5359856B2 (en) Image composition apparatus, image composition method, and program
JP2010239447A (en) Image capturing apparatus, image processing method, and program
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP5402166B2 (en) Image composition apparatus and program
JP2011003057A (en) Image composition device, image specifying method, image composition method, and program
JP5267279B2 (en) Image composition apparatus and program
JP5402148B2 (en) Image composition apparatus, image composition method, and program
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP5423296B2 (en) Image processing apparatus, image processing method, and program
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP5476900B2 (en) Image composition apparatus, image composition method, and program
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2011182014A (en) Image pickup device, image processing method and program
JP2011041041A (en) Imaging apparatus, imaging method and program
JP2010278701A (en) Image combining device, and image combining method and program
JP2009098850A (en) Arithmetic device and program of same
JP5494537B2 (en) Image processing apparatus and program
JP5381207B2 (en) Image composition apparatus and program
JP5644180B2 (en) Imaging apparatus, imaging method, and program
JP5565227B2 (en) Image processing apparatus, image processing method, and program
JP5310361B2 (en) Imaging apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120605

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140212