JP2010287983A - Image capturing apparatus, image processing method, and program - Google Patents

Image capturing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2010287983A
JP2010287983A JP2009138895A JP2009138895A JP2010287983A JP 2010287983 A JP2010287983 A JP 2010287983A JP 2009138895 A JP2009138895 A JP 2009138895A JP 2009138895 A JP2009138895 A JP 2009138895A JP 2010287983 A JP2010287983 A JP 2010287983A
Authority
JP
Japan
Prior art keywords
image
subject
unit
imaging
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009138895A
Other languages
Japanese (ja)
Inventor
Keiichi Imamura
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009138895A priority Critical patent/JP2010287983A/en
Publication of JP2010287983A publication Critical patent/JP2010287983A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a generation of an image with less uncomfortable feeing as a result of synthesis. <P>SOLUTION: An image capturing apparatus 100 has an image synthesis unit 63 for synthesizing a subject image O extracted from a subject existing image P by a subject extraction unit 61 and a background image recorded in a recording medium 7 from a plurality of image frames sequentially generated by an image data generation unit 4. A CPU 11 changes a size of the subject image O according to an operation of an operating input unit 10 and causes the image synthesis unit 63 to synthesize the subject image O whose size is changed and a background image B. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、被写体を撮像する撮像装置、画像処理方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an image processing method, and a program for imaging a subject.

従来、撮像装置を用いて、背景内に被写体が存在する画像と被写体が存在しない背景画像を撮影して、背景画像と被写体が存在する画像とから差分情報を生成し、被写体のみを抜き出す技術が知られている(例えば、特許文献1参照)。   Conventionally, there is a technique in which an imaging device is used to capture an image with a subject in the background and a background image without the subject, generate difference information from the background image and the image with the subject, and extract only the subject. It is known (see, for example, Patent Document 1).

特開平10−21408号公報Japanese Patent Laid-Open No. 10-21408

しかしながら、上記技術で抜き出した被写体画像の大きさが、その画像を合成したい背景画像に対して不自然な大きさだった場合、合成を行うと現実味に乏しい合成画像が生成されてしまう問題があった。   However, if the size of the subject image extracted by the above technique is unnatural with respect to the background image to which the image is to be synthesized, there is a problem in that a synthesized image with poor realism is generated when the synthesis is performed. It was.

そこで本発明の課題は、合成した結果として違和感の少ない画像を生成することができるようにすることである。   Accordingly, an object of the present invention is to be able to generate an image with a little uncomfortable feeling as a result of synthesis.

上記課題を解決するため、請求項1に記載の発明の撮像装置は、撮像手段と、この撮像手段により撮像された画像から被写体領域を抽出した被写体画像を取得する抽出手段と、背景用画像を取得する取得手段と、前記抽出手段によって取得された被写体画像と前記取得手段によって取得された背景用画像とを合成する際の、前記被写体画像の大きさを指定する第1の指定手段と、前記第1の指定手段によって指定された大きさの被写体画像を前記背景画像に合成する合成手段とを備えることを特徴としている。   In order to solve the above-described problem, an imaging apparatus according to a first aspect of the present invention includes an imaging unit, an extraction unit that obtains a subject image obtained by extracting a subject region from an image captured by the imaging unit, and a background image. An acquisition unit for acquiring, a first specifying unit for specifying a size of the subject image when the subject image acquired by the extraction unit and the background image acquired by the acquisition unit are combined; Synthesizing means for synthesizing a subject image having a size designated by the first designating means with the background image.

請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記合成手段によって前記被写体画像を前記背景画像に合成する位置を指定する第2の指定手段を更に備えることを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
The image forming apparatus further includes second specifying means for specifying a position where the object image is combined with the background image by the combining means.

請求項3に記載の発明は、請求項1又は2に記載の撮像装置において、前記撮像手段に連続した撮像を行わせる撮像制御手段と、前記抽出手段は、前記撮像制御手段による連続した撮像によって得られた複数の画像それぞれから被写体画像を取得し、前記合成手段は、前記抽出手段によって取得された複数の被写体画像のそれぞれを前記背景画像に合成して複数の合成画像を生成することを特徴としている。   According to a third aspect of the present invention, in the imaging apparatus according to the first or second aspect, the imaging control unit that causes the imaging unit to perform continuous imaging, and the extraction unit are configured by continuous imaging performed by the imaging control unit. Subject images are obtained from each of the plurality of obtained images, and the synthesizing unit generates a plurality of synthesized images by synthesizing each of the plurality of subject images acquired by the extracting unit with the background image. It is said.

請求項4に記載の発明は、請求項3に記載の撮像装置において、前記抽出手段によって抽出された複数の被写体画像のうち、少なくとも1つの被写体画像について前記第1の指定手段による指定を行い、前記合成手段は、前記指定手段による指定結果に基づき、前記抽出手段によって得られた他の被写体画像のそれぞれを合成した複数の合成画像を生成することを特徴としている。   According to a fourth aspect of the present invention, in the imaging device according to the third aspect, the first designation means designates at least one subject image among the plurality of subject images extracted by the extraction means, The synthesizing unit generates a plurality of synthesized images obtained by synthesizing each of the other subject images obtained by the extracting unit based on a designation result by the designation unit.

請求項5に記載の発明は、請求項3又は4に記載の撮像装置において、前記合成手段による合成前に、合成した結果を再現表示する再現表示手段を更に備えたことを特徴としている。   According to a fifth aspect of the present invention, in the imaging apparatus according to the third or fourth aspect, the image pickup apparatus further includes a reproduction display unit that reproduces and displays the synthesized result before the synthesis by the synthesizing unit.

請求項6に記載の発明は、請求項1から5の何れか一項に記載の撮像装置において、前記取得手段は、当該装置に接続された外部機器から前記背景用画像を取得することを特徴としている。   A sixth aspect of the present invention is the imaging apparatus according to any one of the first to fifth aspects, wherein the acquisition unit acquires the background image from an external device connected to the apparatus. It is said.

請求項7に記載の発明は、請求項1から6の何れか一項に記載の撮像装置において、前景画像を記録する前景画像記録手段を更に備え、前記合成手段は更に、前記取得手段によって取得された背景用画像に、前記画像記録手段に記録された前記前景画像を合成することを特徴としている。   The invention according to claim 7 is the imaging apparatus according to any one of claims 1 to 6, further comprising foreground image recording means for recording a foreground image, wherein the synthesizing means is further acquired by the acquisition means. The foreground image recorded in the image recording means is combined with the background image thus formed.

請求項8に記載の発明の画像処理方法は、撮像された画像から被写体領域を抽出した被写体画像を取得する抽出ステップと、前記抽出ステップにて取得された被写体画像と背景用画像とを合成する際の、前記被写体画像の大きさを指定する指定ステップと、前記指定ステップにて指定された大きさの被写体画像を前記背景画像に合成する合成ステップとを含むことを特徴とする画像処理方法としている。   An image processing method according to an eighth aspect of the present invention is an extraction step of acquiring a subject image obtained by extracting a subject region from a captured image, and combines the subject image acquired in the extraction step with a background image. An image processing method comprising: a specifying step for specifying the size of the subject image, and a combining step for combining the subject image having the size specified in the specifying step with the background image. Yes.

請求項9に記載の発明のプログラムは、撮像装置が有するコンピュータを撮像された画像から被写体領域を抽出した被写体画像を取得する抽出手段、前記抽出手段によって取得された被写体画像と背景用画像とを合成する際の、前記被写体画像の大きさの指定を検出する指定検出手段、前記指定検出手段によって指定が検出された大きさの被写体画像を前記背景画像に合成する合成手段として機能させることを特徴としている。   According to a ninth aspect of the present invention, there is provided a program for extracting a subject image obtained by extracting a subject region from an image captured by a computer included in an imaging apparatus, and a subject image and a background image acquired by the extraction unit. A function for detecting a designation of the size of the subject image at the time of synthesis, and a function for synthesizing the subject image having a size detected by the designation detection unit with the background image. It is said.

本発明によれば、合成した結果として違和感の少ない画像を生成することができるようにする。   According to the present invention, it is possible to generate an image with less sense of incongruity as a result of synthesis.

本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 to which this invention is applied. 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to subject clipping processing by the imaging apparatus of FIG. 1. 被写体存在画像Pを説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the subject presence image. 切り抜き動画データMを説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the clip moving image data. 図1の撮像装置による合成画像生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a composite image generation process by the imaging apparatus of FIG. 1. 背景用画像Bと被写体画像O1の拡大縮小表示を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the expansion / contraction display of the image B for background, and the to-be-photographed image O1. 図1の撮像装置による画像合成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an image composition process performed by the imaging apparatus of FIG. 1. 本発明を適用した変形例の撮像装置とパーソナルコンピュータの概念図である。It is a conceptual diagram of the imaging device and personal computer of the modification to which this invention is applied.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、本実施形態の説明及び図に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the description and drawings of the present embodiment.

[実施形態1]
図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
実施形態1の撮像装置100は、電子撮像部2によって撮像された複数の画像フレームf0〜fnの間で対応する各画素の差分情報に基づいて、各画像フレームから被写体が含まれる被写体領域Sを抽出する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、画像処理部6と、記録媒体7と、表示制御部8と、表示部9と、記録制御部7と、操作入力部10と、CPU11と、レンズモータ12と、外部インターフェイス13とを備えている。
[Embodiment 1]
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to the first embodiment to which the present invention is applied.
The imaging apparatus 100 according to the first embodiment defines a subject area S including a subject from each image frame based on difference information of each pixel corresponding to a plurality of image frames f0 to fn captured by the electronic imaging unit 2. Extract.
Specifically, as illustrated in FIG. 1, the imaging apparatus 100 includes a lens unit 1, an electronic imaging unit 2, an imaging control unit 3, an image data generation unit 4, an image memory 5, and an image processing unit 6. A recording medium 7, a display control unit 8, a display unit 9, a recording control unit 7, an operation input unit 10, a CPU 11, a lens motor 12, and an external interface 13.

レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、レンズモータ13の駆動に基づいて、ズームレンズ、フォーカスレンズが移動する。
The lens unit 1 includes a plurality of lenses and includes a zoom lens, a focus lens, and the like.
In the lens unit 1, the zoom lens and the focus lens move based on the driving of the lens motor 13.

電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the lens unit 1 into a two-dimensional image signal. To do.

撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AE(自動露出処理)、AF(自動合焦処理)、AWB(自動ホワイトバランス)等の撮像条件の調整制御を行う。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image data generation unit 4.
In addition, the imaging control unit 3 performs adjustment control of imaging conditions such as AE (automatic exposure processing), AF (automatic focusing processing), and AWB (automatic white balance).

このように構成されたレンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像Pを撮像する。   The lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 configured as described above capture the subject presence image P.

画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image data generation unit 4 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the electronic imaging unit 2, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an image memory 5 used as a buffer memory via a DMA controller (not shown).

画像メモリ5は、例えば、DRAM等により構成され、画像処理部6やCPU11等によって処理されるデータ等を一時記憶する。
また、画像メモリ5は、例えば、20フレーム分の画像フレームを一時記憶することができるリングバッファを備え、画像データ生成部4により生成された複数の画像フレームを循環記憶する。
The image memory 5 is composed of, for example, a DRAM or the like, and temporarily stores data processed by the image processing unit 6 or the CPU 11.
Further, the image memory 5 includes, for example, a ring buffer that can temporarily store 20 frames of image frames, and cyclically stores a plurality of image frames generated by the image data generation unit 4.

画像処理部6は、被写体存在画像Pの複数の画像フレームf1〜fn間で対応する各画素の差分情報を生成し、当該差分情報を基準として各画像フレームf1〜fnから被写体画像O1〜Onを抽出する被写体抽出部61を備えている。
また、画像処理部6は、各画像フレームf1〜fn内から抽出された被写体画像O1〜Onの位置を特定して、各画像フレームf1〜fnにおける被写体画像O1〜Onの位置を示す位置情報を生成する位置情報生成部62を備えている。
ここで、位置情報としては、例えば、アルファマップが挙げられ、アルファマップとは、被写体存在画像Pの各画素について、被写体画像Oの画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
The image processing unit 6 generates difference information of corresponding pixels between the plurality of image frames f1 to fn of the subject existing image P, and uses the difference information as a reference to obtain subject images O1 to On from the image frames f1 to fn. A subject extraction unit 61 for extraction is provided.
Further, the image processing unit 6 specifies the positions of the subject images O1 to On extracted from the image frames f1 to fn, and obtains positional information indicating the positions of the subject images O1 to On in the image frames f1 to fn. A position information generation unit 62 for generation is provided.
Here, the position information includes, for example, an alpha map. The alpha map is a weight for alpha blending the image of the subject image O with respect to a predetermined background for each pixel of the subject existing image P. It is expressed as a value (0 ≦ α ≦ 1).

また、画像処理部6は、生成されたアルファマップに基づいて、被写体存在画像Pの各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体画像Oを所定の単一色画像と合成して生成した複数の画像データからなる切り抜き動画データMを生成する画像合成部63を具備している。
また、この画像合成部63は、被写体画像Oと背景用画像Bとを合成して合成画像を生成する。具体的には、画像合成部63は、記録媒体7からユーザ所望の背景用画像Bを取得して、当該背景用画像Bの各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像Cの対応する画素の画素値で上書きし、さらに、背景用画像Bの各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体画像Oを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像Cを生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像Cから減算し、それを被写体画像Oを切り抜いた画像(背景用画像×(1−α))と合成する。
また、画像処理部6はキャラクタメモリ64を備えており、このキャラクタメモリ64には、切り抜き動画データMとして使用可能なCG(コンピュータグラフィック)等からなる前景画像データM´が予め記録されている。
Further, the image processing unit 6 does not transmit a pixel having an alpha value of 1 among the pixels of the subject existing image P to a predetermined single color image (not shown) based on the generated alpha map. And an image composition unit 63 for generating cutout moving image data M composed of a plurality of image data generated by combining the subject image O with a predetermined single color image so as to transmit pixels having an alpha value of 0. ing.
Further, the image composition unit 63 composes the subject image O and the background image B to generate a composite image. Specifically, the image composition unit 63 obtains the user-desired background image B from the recording medium 7, and transmits pixels having an alpha value of 0 among the pixels of the background image B, thereby transmitting the alpha value. Is overwritten with the pixel value of the corresponding pixel of the subject cut-out image C, and among the pixels of the background image B, the pixel whose alpha value is 0 <α <1 is the one's complement (1-α ) Is used to generate the cropped image C (background image × (1-α)), and then the cropped image C is generated using the 1's complement (1-α) in the alpha map. A value blended with a single background color is calculated, and the value is subtracted from the subject cutout image C, and is combined with an image obtained by cutting out the subject image O (background image × (1-α)).
The image processing unit 6 includes a character memory 64, and foreground image data M ′ made of CG (computer graphic) that can be used as the clipped moving image data M is recorded in the character memory 64 in advance.

記録媒体7は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部6のJPEG圧縮部(図示略)により符号化された画像データ等を記憶する。
また、記録媒体7は、撮像レンズ部1、電子撮像部2及び撮像制御部3による撮像により生成された複数の画像フレームの各々を画像処理部6の符号化部(図示略)により所定の圧縮形式、例えば、Motion−JPEG形式で符号化された切り抜き動画データMを記録する。
また、切り抜き動画データMは、当該被写体切り抜き動画データMを構成する各画像フレームC0〜Cnと画像処理部6の位置情報生成部62により生成された各アルファマップとを対応付けて一つのファイルとして保存されている。
The recording medium 7 is composed of, for example, a nonvolatile memory (flash memory) or the like, and stores image data encoded by a JPEG compression unit (not shown) of the image processing unit 6.
The recording medium 7 compresses each of a plurality of image frames generated by imaging by the imaging lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 by a coding unit (not shown) of the image processing unit 6. Cutout moving image data M encoded in a format, for example, Motion-JPEG format, is recorded.
The clipped moving image data M is a file in which the image frames C0 to Cn constituting the subject clipped moving image data M and the alpha maps generated by the position information generating unit 62 of the image processing unit 6 are associated with each other. Saved.

表示制御部8は、画像メモリ5に一時的に記憶されている画像データを読み出して表示部9に表示させる制御を行う。
具体的には、表示制御部8は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU11の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部9に出力する。
The display control unit 8 performs control to read out image data temporarily stored in the image memory 5 and display it on the display unit 9.
Specifically, the display control unit 8 includes a VRAM, a VRAM controller, a digital video encoder, and the like. The digital video encoder periodically reads the luminance signal Y and the color difference signals Cb and Cr read from the image memory 5 and stored in the VRAM (not shown) under the control of the CPU 11 from the VRAM via the VRAM controller. Are read out, a video signal is generated based on these data, and is output to the display unit 9.

表示部9は、例えば、液晶表示装置であり、表示制御部8からのビデオ信号に基づいて、撮像された画像などを表示画面に表示する。具体的には、表示部9は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による撮像によって生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。   The display unit 9 is, for example, a liquid crystal display device, and displays a captured image on the display screen based on a video signal from the display control unit 8. Specifically, the display unit 9 displays a live view image based on a plurality of image frames generated by imaging by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 in the imaging mode, A REC view image captured as a captured image is displayed.

操作入力部10は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部10は、被写体の撮影指示に係るシャッタボタン101、撮像モードや機能等の選択指示やズーム量の調整指示に係る選択決定ボタン102等を備え、これらのボタンの操作に応じて所定の操作信号をCPU11に出力する。   The operation input unit 10 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 10 includes a shutter button 101 related to an instruction to shoot a subject, a selection determination button 102 related to an instruction to select an imaging mode or function, an instruction to adjust a zoom amount, and the like. In response to this, a predetermined operation signal is output to the CPU 11.

CPU11は、撮像装置100の各部を制御するものである。具体的には、CPU11は、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。   The CPU 11 controls each part of the imaging device 100. Specifically, the CPU 11 performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

レンズモータ12は、撮像制御部3からの制御信号に基づいてレンズ部1のズームレンズ、フォーカスレンズを駆動させる。   The lens motor 12 drives the zoom lens and the focus lens of the lens unit 1 based on the control signal from the imaging control unit 3.

外部インターフェイス13は、たとえば、USBやIEEE1394などの汎用プロトコルに対応したデータ入出力部であり、この外部インターフェイス13を介し、パーソナルコンピュータ等の外部機器(不図示)から送信される制御信号や、操作入力部10からの操作を検出することにより、撮像された画像データの転送(記録媒体7に記録されている画像データを外部機器等に転送する)や読み込み(外部機器等から記録媒体に画像データを読み込む)を行うことができるものである。
尚、本実施形態では、外部インターフェイス13はケーブル接続により外部機器に接続、画像データ送受を行うようにしているがこれに限るものではなく、非接触通信や無線通信用のモジュールを含み、無線により外部機器と画像データを送受するようにしても良い。
The external interface 13 is, for example, a data input / output unit compatible with a general-purpose protocol such as USB or IEEE 1394. A control signal transmitted from an external device (not shown) such as a personal computer or the like via this external interface 13 By detecting an operation from the input unit 10, the captured image data is transferred (image data recorded in the recording medium 7 is transferred to an external device or the like) or read (image data from the external device or the like to the recording medium). Can be read).
In the present embodiment, the external interface 13 is connected to an external device by cable connection, and performs image data transmission / reception, but is not limited to this, and includes a module for non-contact communication and wireless communication, and wirelessly. You may make it transmit and receive image data with an external apparatus.

次に、撮像装置100の画像処理方法に係る被写体切り抜き処理について、図2及び図3を参照して説明する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
Next, the subject clipping process according to the image processing method of the imaging apparatus 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the subject clipping process.

被写体切り抜き処理は、ユーザによる選択決定ボタン102の所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図2に示すように、先ず、CPU11は、表示制御部8に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部9の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像Pの撮像指示メッセージを表示部9の表示画面に表示させる(ステップS1)。
The subject clipping process is a process executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 102 by the user.
As shown in FIG. 2, first, the CPU 11 displays a live view image on the display control unit 8 based on a plurality of image frames generated by imaging the subject by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. The image is displayed on the display screen of the display unit 9 and is superimposed on the live view image, and an imaging instruction message of the subject existing image P is displayed on the display screen of the display unit 9 (step S1).

そして、CPU11は、撮像制御部3によってレンズモータ12を駆動させ、フォーカスレンズの合焦位置を調整させて、ユーザによる操作入力部11のシャッタボタン101が撮像指示操作されるまでライブビュー画像を更新しながら待機し、撮像指示操作がされると(ステップS2でYES)、指示されたタイミングで被写体存在画像Pの光学像を所定の撮像条件で電子撮像部2による所定回数(n回)の連続撮像を開始させることで複数の画像フレームf1〜fnを取得する(ステップS3)。なお、画像データ生成部4により生成された被写体存在画像Pの各画像フレームのYUVデータは、画像メモリ5に一時記憶される。
なお図3は、ステップS3において得られた被写体画像O1〜Onを含んだ複数の画像フレームf1〜fnからなる被写体存在画像Pを示す図である。
Then, the CPU 11 drives the lens motor 12 by the imaging control unit 3 to adjust the focus position of the focus lens, and updates the live view image until the user operates the shutter button 101 of the operation input unit 11 to perform an imaging instruction operation. When the imaging instruction operation is performed while waiting (YES in step S2), an optical image of the subject existing image P is continuously performed a predetermined number of times (n times) by the electronic imaging unit 2 under a predetermined imaging condition at the instructed timing. A plurality of image frames f1 to fn are acquired by starting imaging (step S3). The YUV data of each image frame of the subject existing image P generated by the image data generation unit 4 is temporarily stored in the image memory 5.
FIG. 3 is a diagram showing a subject existing image P including a plurality of image frames f1 to fn including the subject images O1 to On obtained in step S3.

そして、被写体抽出部61は、ステップS3において取得された被写体存在画像Pの各画像フレームf1〜fnから被写体が含まれる被写体画像O1〜Onをそれぞれ抽出する(ステップS4)。
具体的には、被写体抽出部61は、被写体存在画像Pの各画像フレームf1〜fnにおけるYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体抽出部61は、ローパスフィルタをかけた、被写体存在画像Pの各画像フレームf1〜fnの間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体抽出部61は、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体抽出部61は、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体画像Oとして特定する。
Then, the subject extraction unit 61 extracts subject images O1 to On including the subject from the image frames f1 to fn of the subject presence image P acquired in step S3 (step S4).
Specifically, the subject extraction unit 61 applies a low-pass filter to each of the YUV data in each of the image frames f1 to fn of the subject presence image P to remove the high frequency component of each image. Thereafter, the subject extraction unit 61 calculates a difference for each pixel corresponding to each of the image frames f1 to fn of the subject existing image P to which a low-pass filter has been applied, and generates a difference map. Subsequently, the subject extraction unit 61 binarizes the dissimilarity map relating to each pixel with a predetermined threshold, and then performs a contraction process in order to remove an area in which the dissimilarity has occurred due to fine noise or camera shake. . Thereafter, the subject extraction unit 61 performs a labeling process to remove a region below a predetermined value or a region other than the maximum region, and then specifies the largest island pattern as the subject image O.

次に、CPU11は、位置情報生成部62に、各画像フレームf1〜fn毎に抽出された被写体画像O1〜Onの対応する各画像フレームf1〜fn内での位置を示すアルファマップを生成させる(ステップS5)。   Next, the CPU 11 causes the position information generation unit 62 to generate an alpha map indicating the positions in the corresponding image frames f1 to fn of the subject images O1 to On extracted for each of the image frames f1 to fn ( Step S5).

その後、CPU11は、画像合成部63に、各画像フレームf1〜fnにおける被写体画像Oを所定の単一色画像と合成した複数の被写体切り抜き画像C1〜Cnからなる切り抜き動画像データMを生成させる(ステップS6)。
具体的には、CPU11は、画像合成部63に、各画像フレームf1〜fnにおける被写体画像O1〜On、及び、単一色画像及び各画像フレームf1〜fnに対応したアルファマップを読み出させて画像メモリ5に展開した後、各画像フレームf1〜fnにおける被写体画像O1〜Onの全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
その後、CPU11は、表示制御部8に、画像合成部63により生成された被写体切り抜き画像の各画像フレームC1〜Cn(図4参照)からなる切り抜き動画データMを表示部9の表示画面に再生表示させる。
Thereafter, the CPU 11 causes the image composition unit 63 to generate cutout moving image data M including a plurality of subject cutout images C1 to Cn obtained by combining the subject image O in each of the image frames f1 to fn with a predetermined single color image (Step S11). S6).
Specifically, the CPU 11 causes the image composition unit 63 to read out the subject images O1 to On in the image frames f1 to fn, and a single color image and an alpha map corresponding to the image frames f1 to fn. After development in the memory 5, with respect to all the pixels of the subject images O1 to On in the image frames f1 to fn, pixels with an alpha value of 0 (α = 0) are transmitted, and the alpha value is 0 <α <1. For pixels of (0 <α <1), blending with a predetermined single color is performed, and for pixels with an alpha value of 1 (α = 1), nothing is transmitted to the predetermined single color without doing anything. To do.
Thereafter, the CPU 11 reproduces and displays on the display screen of the display unit 9 the clipped moving image data M including the image frames C1 to Cn (see FIG. 4) of the subject clipped image generated by the image composition unit 63 on the display control unit 8. Let

次に、CPU11は、記録媒体7の所定の記憶領域に、被写体切り抜き画像の各画像フレームC1〜Cn毎に、位置情報生成部62により生成されたアルファマップと画像フレームの画像データとを対応付けて一ファイルとして切り抜き動画像データMを保存させる(ステップS7)。
これにより、被写体切り抜き処理を終了する。
Next, the CPU 11 associates the alpha map generated by the position information generation unit 62 with the image data of the image frame for each image frame C1 to Cn of the subject clipped image in a predetermined storage area of the recording medium 7. Then, the cutout moving image data M is stored as one file (step S7).
Thereby, the subject clipping process is completed.

次に、撮像装置100による合成画像生成処理について、図5及び図6を参照して説明する。
図5は、合成画像生成処理に係る動作の一例を示すフローチャートである。
合成画像生成処理は、画像処理部6の画像合成部63を用いて、背景用画像Bと切り抜き動画像データMの各画像フレームC1〜Cnとを合成して被写体合成画像を生成させる処理である。
Next, the composite image generation process by the imaging device 100 will be described with reference to FIGS. 5 and 6.
FIG. 5 is a flowchart illustrating an example of an operation related to the composite image generation process.
The composite image generation process is a process of generating a subject composite image by combining the background image B and the image frames C1 to Cn of the cutout moving image data M using the image composition unit 63 of the image processing unit 6. .

図5に示すように、先ず、ユーザによる操作入力部10の所定操作に基づいて、記録媒体7に記録されている複数の画像の中で所望の背景用画像B(図6(a))が選択されると、画像合成部63は、指定された背景用画像Bの画像データを読み出して画像メモリ5に展開させる(ステップS11)。なお、この背景用画像Bは、当該撮像装置100によって撮像した画像でなくてもよい。例えば、パーソナルコンピュータから外部インターフェイス13を介して記録媒体7に転送された画像であってもよい。   As shown in FIG. 5, first, based on a predetermined operation of the operation input unit 10 by the user, a desired background image B (FIG. 6A) among a plurality of images recorded on the recording medium 7 is obtained. When selected, the image composition unit 63 reads out the image data of the designated background image B and develops it in the image memory 5 (step S11). Note that the background image B may not be an image captured by the imaging device 100. For example, it may be an image transferred from the personal computer to the recording medium 7 via the external interface 13.

次に、ユーザによる操作入力部10からの指示操作に基づいて、記録媒体7に記録されている複数の画像の中で所望の切り抜き動画像データMが選択されると(ステップS31)、画像処理部6は、選択された切り抜き動画像データMの各画像フレームC1〜Cnを読み出して画像メモリ5に展開する(ステップS12)。また、このとき表示制御部8は、画像メモリ5に展開された背景用画像B上の所定の位置に、同じく画像メモリ5に展開された切り抜き動画データMの画像フレームC1における被写体画像O1を重ねて表示部9に表示させる制御を行う(ステップS13)。   Next, when desired clipped moving image data M is selected from a plurality of images recorded on the recording medium 7 based on an instruction operation from the operation input unit 10 by the user (step S31), image processing is performed. The unit 6 reads out the image frames C1 to Cn of the selected cutout moving image data M and develops them in the image memory 5 (step S12). At this time, the display control unit 8 also superimposes the subject image O1 in the image frame C1 of the cutout moving image data M developed in the image memory 5 at a predetermined position on the background image B developed in the image memory 5. The display unit 9 is controlled to display (Step S13).

続けてCPU11は、ユーザによる操作入力部10の所定の操作に基づいて、被写体画像Oの拡大縮小指示がなされたか否かを判定する(ステップS14)。ここで拡大縮小指示がなされかった場合は(ステップS14でNO)、ステップS16の処理に移る。   Subsequently, the CPU 11 determines whether or not an instruction to enlarge / reduce the subject image O has been given based on a predetermined operation of the operation input unit 10 by the user (step S14). If the enlargement / reduction instruction has not been issued (NO in step S14), the process proceeds to step S16.

一方、拡大縮小指示がなされたと判定すると(ステップS14でYES)、CPU11は、図6の(b)〜(d)に示したように、操作入力部10による操作に応じて、表示制御部8によって背景用画像B上に重ねて表示部9に表示している被写体画像O1を拡大縮小させる制御を行う(ステップS15)。尚、この拡大縮小表示の際、切り抜き動画像データMの各画像フレームC1〜Cnの範囲を示す枠を背景用画像Bに重畳表示するようにしても良い。   On the other hand, if it is determined that an enlargement / reduction instruction has been issued (YES in step S14), the CPU 11 displays the display control unit 8 in accordance with an operation by the operation input unit 10 as shown in FIGS. Thus, control is performed to enlarge / reduce the subject image O1 displayed on the display unit 9 so as to be superimposed on the background image B (step S15). In this enlargement / reduction display, a frame indicating the range of the image frames C1 to Cn of the cutout moving image data M may be superimposed on the background image B.

次に、ユーザによる操作入力部10の所定操作に基づいて、ユーザ所望の被写体画像O1の合成位置の指定がなされたか否かを判定する(ステップS16)。   Next, based on a predetermined operation of the operation input unit 10 by the user, it is determined whether or not a user-desired synthesis position of the subject image O1 has been designated (step S16).

ここで、拡大縮小指示及び合成位置の指示がされない場合は(ステップS16でNO)、所定時間以上(例えば2秒以上)ユーザによる操作入力部10の操作がないか否かを判定し(ステップS17)、操作がないと判定されると(ステップS17でYES)、現在背景用画像B上に表示された被写体画像O1の大きさ、位置を基準として、背景用画像Bに切り抜き動画像データMの各画像フレームC1〜Cnをそれぞれ合成した被写体合成画像を順次再生表示することで被写体合成動画を再現表示させる。   Here, when the enlargement / reduction instruction and the composite position instruction are not given (NO in step S16), it is determined whether or not the user has not operated the operation input unit 10 for a predetermined time or longer (eg, 2 seconds or longer) (step S17). If it is determined that there is no operation (YES in step S17), the clipped moving image data M is cut into the background image B based on the size and position of the subject image O1 currently displayed on the background image B. The subject synthesized video is reproduced and displayed by sequentially reproducing and displaying the subject synthesized image obtained by synthesizing the image frames C1 to Cn.

一方、ステップS16にて合成位置の指定がされたと判定すると(ステップS16でYES)、CPU11は、処理をステップS19に移行させて、画像メモリ5に展開した背景用画像Bと切り抜き動画像データMの各画像フレームC1〜Cnとを合成する画像合成処理を行う(ステップS19)。   On the other hand, if it is determined in step S16 that the composition position has been designated (YES in step S16), the CPU 11 shifts the processing to step S19, and the background image B developed in the image memory 5 and the cut-out moving image data M. An image composition process for composing each of the image frames C1 to Cn is performed (step S19).

ここで、画像合成処理について図7を参照して詳細に説明する。
図7は、画像合成処理に係る動作の一例を示すフローチャートである。
図7に示すように、画像合成部63は、「.jpe」で保存されているアルファマップを読み出し、読み出したアルファマップをステップS15において拡大縮小表示させた被写体画像O1の大きさに対応させて画像メモリ5に展開する(ステップS31)。
Here, the image composition processing will be described in detail with reference to FIG.
FIG. 7 is a flowchart illustrating an example of an operation related to the image composition process.
As shown in FIG. 7, the image composition unit 63 reads the alpha map stored as “.jpe”, and associates the read alpha map with the size of the subject image O1 that is enlarged and reduced in step S15. The data is developed in the image memory 5 (step S31).

次に、画像合成部63は、画像メモリ5に展開した各画像フレームのうち、最初のフレームを指定し(ステップS32)、続けて、背景用画像Bの何れか一の画素(例えば、左上隅部の画素)を指定する(ステップS33)。当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS34)。具体的には、合成部8fは、背景用画像Bの何れか一の画素のうち、アルファ値が1の画素については(ステップS34;α=1)、被写体切り抜き画像Cの対応する画素の画素値で上書きし(ステップS35)、アルファ値が0<α<1の画素については(ステップS34;0<α<1)、1の補数(1−α)を用いて被写体画像Oを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像Cを生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像Cから減算し、それを被写体画像Oを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS36、アルファ値が0の画素については(ステップS34;α=0)、何もせずに背景用画像Bを透過させるようにする。   Next, the image composition unit 63 designates the first frame among the image frames developed in the image memory 5 (step S32), and then continues with any one pixel (for example, the upper left corner) of the background image B. Part pixel) is designated (step S33). For the pixel, the process is branched based on the alpha value of the alpha map (step S34). Specifically, the composition unit 8f, for any one of the pixels in the background image B, for a pixel with an alpha value of 1 (step S34; α = 1), a pixel corresponding to the subject cut-out image C Overwrite with a value (step S35), and for a pixel with an alpha value of 0 <α <1 (step S34; 0 <α <1), an image obtained by cutting out the subject image O using 1's complement (1-α) After generating (background image × (1-α)), when the subject cutout image C is generated using the one's complement (1-α) in the alpha map, a value blended with a single background color is calculated. Then, the value is subtracted from the subject cutout image C, and is combined with an image obtained by cutting out the subject image O (background image × (1−α)) (step S36, for a pixel with an alpha value of 0 (step S34). ; Α = 0), background without doing anything So as to transmit the image B.

続けて、画像合成部63は、背景用画像Bの全ての画素について処理したか否かを判定する(ステップS37)。
ここで、全ての画素について処理していないと判定されると(ステップS37;NO)、画像合成部63は、処理対象を次の画素に移動させて(ステップS38)、処理をステップS34に移行させる。
また上記の処理を、切り抜き動画像データMを構成する画像フレームC1〜Cnの全てについて処理したかを判定し(ステップS39)、処理していないと判定した場合は、処理対象を次の画像フレームに変更して(ステップS40)、処理をステップS33に移行させる。これにより、所望の基準合成位置及び大きさで被写体画像O1を合成し、且つ、基準画像フレーム以外の各画像フレームにおいては、位置情報生成部62が生成した隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf2)の被写体画像Oの位置情報に基づいて、基準画像フレーム以外の各画像フレームにおける被写体切り抜き画像Cの合成位置及び大きさを設定して、基準画像フレームに合成された被写体切り抜き画像C1に対し切り抜き動画データMの動きに合わせて変位させるように被写体切り抜き画像C2〜Onを合成して複数の合成画像フレームを生成する。
一方、全ての画像フレームについて処理したと判定すると(ステップS39;YES)、画像合成処理を終了する。
Subsequently, the image composition unit 63 determines whether or not all the pixels of the background image B have been processed (step S37).
If it is determined that all the pixels have not been processed (step S37; NO), the image composition unit 63 moves the processing target to the next pixel (step S38), and the process proceeds to step S34. Let
Further, it is determined whether or not the above processing has been performed for all of the image frames C1 to Cn constituting the cutout moving image data M (step S39). (Step S40), and the process proceeds to step S33. Thus, the subject image O1 is synthesized at a desired reference composition position and size, and in each image frame other than the reference image frame, between adjacent image frames generated by the position information generation unit 62 (for example, image frames). Based on the position information of the subject image O in the image frame f2) with respect to f3, the composition position and size of the subject cutout image C in each image frame other than the reference image frame are set, and the subject cutout synthesized with the reference image frame The subject clipped images C2 to On are combined with the image C1 so as to be displaced in accordance with the movement of the clipped moving image data M to generate a plurality of combined image frames.
On the other hand, if it is determined that all image frames have been processed (step S39; YES), the image composition process is terminated.

以上のように、本実施形態の撮像装置100によれば、背景用画像Bに被写体画像Oを合成する際に、合成する被写体画像Oの大きさを任意に指定できるようにした。これにより、ユーザは背景用画像に合成する被写体画像Oの大きさを任意に変更させることができるので、合成した結果として違和感の少ない画像を生成することができる。
また、切り抜き動画データMにおける被写体画像O1〜Onを背景用画像Bに合成する場合は、最初の被写体切り抜き画像フレームC1における被写体画像O1の背景用画像Bに対する合成位置及び、大きさを指定し、その指定結果を基準として以降のフレームC2〜Cnにおける被写体画像O2〜Onを合成することで、切り抜き動画像データMにおける被写体の動きに合わせて所望の大きさに変更した被写体画像Oを所定動作させることができ、興趣性の高い合成動画を生成することができる。
さらにまた、本実施形態によれば、切り抜き動画データM´を前景画像として予め記憶しているので、要領良く切り抜き動画データMが生成できない場合であっても、簡単に合成画像を生成することができる。
As described above, according to the imaging apparatus 100 of the present embodiment, when the subject image O is combined with the background image B, the size of the subject image O to be combined can be arbitrarily designated. As a result, the user can arbitrarily change the size of the subject image O to be combined with the background image, and as a result of the combination, it is possible to generate an image with less discomfort.
When the subject images O1 to On in the cutout moving image data M are combined with the background image B, the composition position and the size of the subject image O1 with respect to the background image B in the first subject cutout image frame C1 are designated, and By synthesizing the subject images O2 to On in the subsequent frames C2 to Cn based on the designation result, the subject image O changed to a desired size in accordance with the motion of the subject in the cutout moving image data M is operated in a predetermined manner. It is possible to generate a synthetic video with high interest.
Furthermore, according to the present embodiment, the cutout moving image data M ′ is stored in advance as a foreground image, so that even if the cutout moving image data M cannot be generated in a satisfactory manner, a composite image can be easily generated. it can.

また、上記実施形態に例示したものは一例であり、これに限られるものではない。例えば、被写体画像Oは、撮像によって取得された被写体存在画像Pの各画像フレームf0〜fnから、被写体抽出部61によって抽出するものとしたが、予めキャラクタメモリ64に記録されている前景画像データM´の各フレームにおけるキャラクタ画像を被写体画像Oとして用いてもよい。   Moreover, what was illustrated in the said embodiment is an example, and is not restricted to this. For example, the subject image O is extracted by the subject extraction unit 61 from the image frames f0 to fn of the subject presence image P acquired by imaging, but the foreground image data M recorded in the character memory 64 in advance. The character image in each frame of ′ may be used as the subject image O.

さらに、上記実施形態にあっては、背景用画像Bは、記録媒体7に記録された画像から選択するようにしたが、図8に示したように、外部インターフェイス13を介してパーソナルコンピュータ200と当該撮像装置100を接続し、パーソナルコンピュータ200のHDD(ハードディスクドライブ)201に保存されている画像を記録媒体7に取り込めるようにしてもよい。
このようにすることにより、外部機器を介して所望の静止画像を背景画像として取得することができるので、実際に撮影されたものでない画像を背景画像とした合成画像を生成することができる。
Furthermore, in the above embodiment, the background image B is selected from the images recorded on the recording medium 7. However, as shown in FIG. 8, the background image B is connected to the personal computer 200 via the external interface 13. The image capturing apparatus 100 may be connected so that an image stored in an HDD (Hard Disk Drive) 201 of the personal computer 200 can be taken into the recording medium 7.
In this way, since a desired still image can be acquired as a background image via an external device, a composite image can be generated with an image that is not actually taken as a background image.

さらにまた、上記実施形態にあっては、本発明をデジタルカメラに適用した場合を例示したが、デジタルカメラに限ることなく、コンピュータソフトウェアや、ネットワークサーバシステム等、様々なハードウェア、システム、ソフトウェアに適用可能である。   Furthermore, in the above-described embodiment, the case where the present invention is applied to a digital camera has been illustrated. However, the present invention is not limited to a digital camera, and may be applied to various hardware, systems, and software such as computer software and network server systems. Applicable.

2 電子撮像部
3 撮像制御部
4 画像データ生成部
5 画像メモリ
6 画像処理部
7 記録媒体
10 操作入力部
11 CPU
13 外部インターフェイス
61 被写体抽出部
62 位置情報生成部
63 画像合成部
64 キャラクタメモリ
100 撮像装置
101 シャッタボタン
102 選択決定ボタン
200 パーソナルコンピュータ
201 HDD(ハードディスクドライブ)
2 Electronic imaging unit 3 Imaging control unit 4 Image data generation unit 5 Image memory 6 Image processing unit 7 Recording medium 10 Operation input unit 11 CPU
13 External Interface 61 Subject Extraction Unit 62 Position Information Generation Unit 63 Image Composition Unit 64 Character Memory 100 Imaging Device 101 Shutter Button 102 Selection Decision Button 200 Personal Computer 201 HDD (Hard Disk Drive)

Claims (9)

撮像手段と、
この撮像手段により撮像された画像から被写体領域を抽出した被写体画像を取得する抽出手段と、
背景用画像を取得する取得手段と、
前記抽出手段によって取得された被写体画像と前記取得手段によって取得された背景用画像とを合成する際の、前記被写体画像の大きさを指定する第1の指定手段と、
前記第1の指定手段によって指定された大きさの被写体画像を前記背景画像に合成する合成手段と
を備えることを特徴とする撮像装置。
Imaging means;
Extraction means for acquiring a subject image obtained by extracting a subject region from an image captured by the imaging means;
Acquisition means for acquiring a background image;
First specifying means for specifying the size of the subject image when the subject image acquired by the extracting unit and the background image acquired by the acquiring unit are combined;
An image pickup apparatus comprising: a combining unit configured to combine a subject image having a size specified by the first specifying unit with the background image.
前記合成手段によって前記被写体画像を前記背景画像に合成する位置を指定する第2の指定手段を更に備えることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, further comprising second specifying means for specifying a position at which the subject image is combined with the background image by the combining means. 前記撮像手段に連続した撮像を行わせる撮像制御手段と、
前記抽出手段は、前記撮像制御手段による連続した撮像によって得られた複数の画像それぞれから被写体画像を取得し、
前記合成手段は、前記抽出手段によって取得された複数の被写体画像のそれぞれを前記背景画像に合成して複数の合成画像を生成することを特徴とする請求項1又は2に記載の撮像装置。
Imaging control means for causing the imaging means to perform continuous imaging;
The extraction unit acquires a subject image from each of a plurality of images obtained by continuous imaging by the imaging control unit,
The imaging apparatus according to claim 1, wherein the synthesizing unit generates a plurality of synthesized images by synthesizing each of the plurality of subject images acquired by the extracting unit with the background image.
前記抽出手段によって抽出された複数の被写体画像のうち、少なくとも1つの被写体画像について前記第1の指定手段による指定を行い、
前記合成手段は、前記指定手段による指定結果に基づき、前記抽出手段によって得られた他の被写体画像のそれぞれを合成した複数の合成画像を生成することを特徴とする請求項3記載の撮像装置。
Specifying at least one subject image among the plurality of subject images extracted by the extracting means by the first specifying means;
The imaging apparatus according to claim 3, wherein the synthesizing unit generates a plurality of synthesized images obtained by synthesizing each of the other subject images obtained by the extracting unit based on a designation result by the designation unit.
前記合成手段による合成前に、合成した結果を再現表示する再現表示手段を更に備えたことを特徴とする請求項3又は4記載の撮像装置。   5. The image pickup apparatus according to claim 3, further comprising reproduction display means for reproducing and displaying the synthesized result before the synthesis by the synthesizing means. 前記取得手段は、当該装置に接続された外部機器から前記背景用画像を取得することを特徴とする請求項1から5の何れか一項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the acquisition unit acquires the background image from an external device connected to the apparatus. 前景画像を記録する前景画像記録手段を更に備え、
前記合成手段は更に、前記取得手段によって取得された背景用画像に、前記画像記録手段に記録された前記前景画像を合成することを特徴とする請求項1から6の何れかに記載の撮像装置。
Foreground image recording means for recording the foreground image;
The imaging apparatus according to claim 1, wherein the synthesizing unit further synthesizes the foreground image recorded in the image recording unit with the background image acquired by the acquiring unit. .
撮像された画像から被写体領域を抽出した被写体画像を取得する抽出ステップと、
前記抽出ステップにて取得された被写体画像と背景用画像とを合成する際の、前記被写体画像の大きさを指定する指定ステップと、
前記指定ステップにて指定された大きさの被写体画像を前記背景画像に合成する合成ステップと
を含むことを特徴とする画像処理方法。
An extraction step of acquiring a subject image obtained by extracting a subject region from the captured image;
A designation step for designating the size of the subject image when the subject image acquired in the extraction step and the background image are combined;
An image processing method comprising: a combining step of combining the subject image having the size specified in the specifying step with the background image.
撮像装置が有するコンピュータを
撮像された画像から被写体領域を抽出した被写体画像を取得する抽出手段、
前記抽出手段によって取得された被写体画像と背景用画像とを合成する際の、前記被写体画像の大きさの指定を検出する指定検出手段、
前記指定検出手段によって指定が検出された大きさの被写体画像を前記背景画像に合成する合成手段
として機能させることを特徴とするプログラム。
An extracting means for acquiring a subject image obtained by extracting a subject region from an image captured by a computer included in the imaging device;
Designation detecting means for detecting designation of the size of the subject image when the subject image acquired by the extracting means and the background image are combined;
A program for causing a subject image having a size detected by the designation detection means to function as a synthesis means for synthesizing the subject image with the background image.
JP2009138895A 2009-06-10 2009-06-10 Image capturing apparatus, image processing method, and program Pending JP2010287983A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009138895A JP2010287983A (en) 2009-06-10 2009-06-10 Image capturing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009138895A JP2010287983A (en) 2009-06-10 2009-06-10 Image capturing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2010287983A true JP2010287983A (en) 2010-12-24

Family

ID=43543382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009138895A Pending JP2010287983A (en) 2009-06-10 2009-06-10 Image capturing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2010287983A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348447A (en) * 2002-05-29 2003-12-05 Sony Corp Image output apparatus
JP2004328788A (en) * 2004-06-21 2004-11-18 Daiichikosho Co Ltd Method for compounding person video image separately photographed and background video image recorded and outputting to indicator, and karaoke apparatus adopting the method
JP2005020607A (en) * 2003-06-27 2005-01-20 Casio Comput Co Ltd Composite image output device and composite image output processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348447A (en) * 2002-05-29 2003-12-05 Sony Corp Image output apparatus
JP2005020607A (en) * 2003-06-27 2005-01-20 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2004328788A (en) * 2004-06-21 2004-11-18 Daiichikosho Co Ltd Method for compounding person video image separately photographed and background video image recorded and outputting to indicator, and karaoke apparatus adopting the method

Similar Documents

Publication Publication Date Title
JP2005142680A (en) Image processing apparatus
US9185294B2 (en) Image apparatus, image display apparatus and image display method
JP2010206685A (en) Image processing apparatus and program
JP4807432B2 (en) Imaging apparatus, image processing method, and program
JP6304293B2 (en) Image processing apparatus, image processing method, and program
CN107205112B (en) Image pickup apparatus, image pickup method, and recording medium
JP4556195B2 (en) Imaging device, moving image playback device, and program
JP2013162425A (en) Imaging apparatus, imaging method, and program
JP2006254129A (en) Histogram display device
US8068144B2 (en) Image recording and reproducing apparatus
JP5402166B2 (en) Image composition apparatus and program
JP5267279B2 (en) Image composition apparatus and program
JP2009038478A (en) Program, image processing apparatus, imaging apparatus, and image processing method
JP2009044329A (en) Program, image processing method, and image processor
JP6775386B2 (en) Imaging device, its control method, program and recording medium
CN105530426A (en) Image capturing apparatus, control method thereof, and storage medium
JP2014049882A (en) Imaging apparatus
JP5476900B2 (en) Image composition apparatus, image composition method, and program
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2011182014A (en) Image pickup device, image processing method and program
CN113615156A (en) Image processing apparatus, image processing method, computer program, and storage medium
JP5510318B2 (en) Electronic camera
JP5589333B2 (en) Image composition apparatus, image composition method, and program
JP2010287983A (en) Image capturing apparatus, image processing method, and program
JP5206421B2 (en) Digital camera, photographing recording method, and photographing control program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Effective date: 20120904

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130122