JP2013197673A - Imaging device and control method - Google Patents

Imaging device and control method Download PDF

Info

Publication number
JP2013197673A
JP2013197673A JP2012060165A JP2012060165A JP2013197673A JP 2013197673 A JP2013197673 A JP 2013197673A JP 2012060165 A JP2012060165 A JP 2012060165A JP 2012060165 A JP2012060165 A JP 2012060165A JP 2013197673 A JP2013197673 A JP 2013197673A
Authority
JP
Japan
Prior art keywords
image
unit
person
display
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012060165A
Other languages
Japanese (ja)
Inventor
Fumiaki Kobayashi
史明 小林
Tsuyoshi Uesaka
剛史 上坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012060165A priority Critical patent/JP2013197673A/en
Publication of JP2013197673A publication Critical patent/JP2013197673A/en
Pending legal-status Critical Current

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire an improved composite image.SOLUTION: The imaging device reads a first image which includes a stored first imaging target (Step S151), overlaps the read first image with a second image which includes an imaged second imaging target to make them into a third image (Step S154), displays the overlapped third image (Step S156), controls so as to report information for determining the displayed third image on the basis of the first image and the second image (Steps S133 and S143), and stores the third image when shutter operation is received (Step S175).

Description

この発明は、撮像装置および制御方法に関し、特に、画像を合成するのに適した撮像装置および制御方法に関する。   The present invention relates to an imaging apparatus and a control method, and more particularly to an imaging apparatus and a control method suitable for synthesizing images.

従来、同じ撮影シーンに対して被写体に焦点の合っている画像および背景に焦点のあっている画像など焦点位置の異なる複数の画像を撮影して、被写体および背景について好みの焦点位置の画像の部分を組合せて合成するデジタルカメラがあった(たとえば、特許文献1)。   Conventionally, a plurality of images with different focal positions, such as an image focused on the subject and an image focused on the background for the same shooting scene, are taken, and the portion of the image at the desired focal position for the subject and background There has been a digital camera that combines and combines (for example, Patent Document 1).

また、表示した画像の一部分に空白部分を設け、この空白部分に他の画像を合成して記録することができる合成撮影カメラがあった(たとえば、特許文献2)。   In addition, there has been a composite photographing camera in which a blank portion is provided in a part of a displayed image and another image can be combined and recorded in the blank portion (for example, Patent Document 2).

また、他人に写真を撮影してもらう場合に、予めユーザが、撮影したい景色に仮の人型画像を貼り付けた仮画像を作成し、仮画像に重ねて撮影する景色およびユーザを表示して、他人には、表示された景色およびユーザの位置のレイアウトが仮画像に合うように、撮影してもらうことができるカメラ装置があった(たとえば、特許文献3)。   In addition, when someone else takes a picture, the user creates a temporary image in which a temporary human-type image is pasted on the scene to be photographed, and displays the scenery and user to be photographed over the temporary image. There is a camera device that allows other people to take pictures so that the layout of the displayed scenery and the position of the user matches the provisional image (for example, Patent Document 3).

また、現在の被写体全体を示す現在画像に既に撮影された画像の主被写体の画像を重畳し、合成画像を作成するカメラがあった(たとえば、特許文献4)。   In addition, there has been a camera that creates a composite image by superimposing an image of a main subject already captured on a current image showing the entire current subject (for example, Patent Document 4).

特開2009−284404号公報JP 2009-284404 A 特開2001−45346号公報JP 2001-45346 A 特開2004−40724号公報JP 2004-40724 A 特開2010−245613号公報JP 2010-245613 A

しかし、特許文献1から特許文献4の撮像装置によれば、より良い合成画像を得られるような仕組みがないといった問題があった。   However, the imaging devices disclosed in Patent Documents 1 to 4 have a problem that there is no mechanism for obtaining a better composite image.

この発明は、上述の問題を解決するためになされたものであり、より良い合成画像を得ることが可能な撮像装置および制御方法を提供することである。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide an imaging apparatus and a control method capable of obtaining a better composite image.

上述の目的を達成するために、この発明のある局面によれば、撮像装置は、画像を撮像する撮像部と、画像を表示する表示部と、画像を記憶するための記憶部と、画像を記憶部に記憶させるためのシャッタ操作を受付ける操作部と、制御部とを備える。   In order to achieve the above object, according to an aspect of the present invention, an imaging device includes an imaging unit that captures an image, a display unit that displays an image, a storage unit that stores an image, and an image. An operation unit that receives a shutter operation for storage in the storage unit, and a control unit are provided.

制御部は、記憶部に記憶された第1の撮影対象を含む第1の画像を読出す読出部と、読出部によって読出された第1の画像を、撮像部によって撮像されている第2の撮影対象を含む第2の画像と重畳して第3の画像とする重畳部と、重畳部によって重畳された第3の画像を、表示部に表示させる表示制御部と、第1の画像および第2の画像に基づいて、表示部に表示されている第3の画像を確定させるための情報を報知するよう制御する報知制御部と、操作部によってシャッタ操作が受付けられたときの第3の画像を、記憶部に記憶させる記憶制御部とを含む。   The control unit reads a first image including the first photographing target stored in the storage unit, and a second image in which the first image read by the reading unit is captured by the imaging unit. A superimposing unit that superimposes the second image including the imaging target to form a third image, a display control unit that displays the third image superimposed by the superimposing unit on the display unit, the first image, and the first image And a notification control unit that controls to notify information for determining the third image displayed on the display unit based on the second image, and a third image when a shutter operation is received by the operation unit. Is stored in the storage unit.

この発明に従えば、撮像装置によって、記憶された第1の撮影対象を含む第1の画像が読出され、読出された第1の画像が、撮像されている第2の撮影対象を含む第2の画像と重畳されて第3の画像とされ、重畳された第3の画像が、表示され、第1の画像および第2の画像に基づいて、表示されている第3の画像を確定させるための情報を報知するよう制御され、シャッタ操作が受付けられたときの第3の画像が、記憶される。このため、重畳された画像を確定させるための情報が報知される。その結果、より良い合成画像を得ることが可能な撮像装置を提供することができる。   According to this invention, the first image including the stored first imaging object is read out by the imaging device, and the read first image includes the second imaging object being captured. In order to determine the third image displayed on the basis of the first image and the second image, the third image that is superimposed is displayed as a third image. The third image when the shutter operation is accepted is controlled so as to notify the information. For this reason, information for determining the superimposed image is notified. As a result, it is possible to provide an imaging device capable of obtaining a better composite image.

好ましくは、制御部は、さらに、表示部に第3の画像が表示されているときに、第1の画像および第2の画像の相対的な大きさを変更可能とする変更部を含む。   Preferably, the control unit further includes a changing unit capable of changing a relative size of the first image and the second image when the third image is displayed on the display unit.

この発明に従えば、撮像装置によって、第3の画像が表示されているときに、第1の画像および第2の画像の相対的な大きさが変更可能とされる。その結果、さらに、より良い合成画像を得ることができる。   According to this invention, when the third image is displayed by the imaging device, the relative sizes of the first image and the second image can be changed. As a result, a better composite image can be obtained.

好ましくは、制御部は、さらに、表示部に第3の画像が表示されているときに、第1の画像と第2の画像との相対的な位置を変更可能とする変更部を含む。   Preferably, the control unit further includes a changing unit capable of changing a relative position between the first image and the second image when the third image is displayed on the display unit.

この発明に従えば、撮像装置によって、第3の画像が表示されているときに、第1の画像と第2の画像との相対的な位置が変更可能とされる。その結果、さらに、より良い合成画像を得ることができる。   According to this invention, the relative position between the first image and the second image can be changed by the imaging device when the third image is displayed. As a result, a better composite image can be obtained.

好ましくは、第1の撮影対象は、人物である。報知制御部は、第1の画像に人物の足元まで含まれる場合は、ユーザにその旨を報知するよう制御する。   Preferably, the first shooting target is a person. When the first image includes a person's feet, the notification control unit performs control to notify the user to that effect.

この発明に従えば、撮像装置によって、第1の画像に人物の足元まで含まれる場合は、ユーザにその旨を報知するよう制御される。人物の足元まで含まれているか否かによって第2の画像と合成するときのレイアウトに対する配慮が必要となる。足元まで含まれる旨が報知されれば、ユーザはその点を配慮することができる。その結果、さらに、より良い合成画像を得ることができる。   According to this invention, when the first image includes the foot of a person, the imaging device is controlled to notify the user of that fact. Consideration of the layout when combining with the second image is required depending on whether or not the foot of the person is included. If it is notified that the foot is included, the user can consider that point. As a result, a better composite image can be obtained.

撮像装置の制御方法は、画像を撮像する撮像部と、画像を表示する表示部と、画像を記憶するための記憶部と、画像を記憶部に記憶させるためのシャッタ操作を受付ける操作部と、制御部とを備える撮像装置の制御方法である。   An imaging apparatus control method includes: an imaging unit that captures an image; a display unit that displays an image; a storage unit that stores an image; and an operation unit that receives a shutter operation for storing the image in the storage unit; A control method for an imaging apparatus including a control unit.

撮像装置の制御方法は、制御部が、記憶部に記憶された第1の撮影対象を含む第1の画像を読出すステップと、読出された第1の画像を、撮像部によって撮像されている第2の撮影対象を含む第2の画像と重畳して第3の画像とするステップと、重畳された第3の画像を、表示部に表示させるステップと、第1の画像および第2の画像に基づいて、表示部に表示されている第3の画像を確定させるための情報を報知するよう制御するステップと、操作部によってシャッタ操作が受付けられたときの第3の画像を、記憶部に記憶させるステップとを含む。   In the control method of the imaging apparatus, the control unit reads the first image including the first imaging target stored in the storage unit, and the read first image is captured by the imaging unit. A step of superimposing a second image including the second photographing target to form a third image, a step of displaying the superimposed third image on a display unit, a first image, and a second image; And a step of controlling to notify information for confirming the third image displayed on the display unit, and a third image when the shutter operation is accepted by the operation unit in the storage unit. Storing.

この発明に従えば、より良い合成画像を得ることが可能な撮像装置の制御方法を提供することができる。   According to the present invention, it is possible to provide a method for controlling an imaging apparatus capable of obtaining a better composite image.

この発明の実施の形態のデジタルカメラの構成の概略を示すブロック図である。It is a block diagram which shows the outline of a structure of the digital camera of embodiment of this invention. この実施の形態のデジタルカメラで実行される合成写真処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the composite photograph process performed with the digital camera of this embodiment. この実施の形態のデジタルカメラで実行される合成写真処理のサブルーチンの流れを示すフローチャートである。It is a flowchart which shows the flow of the subroutine of the composite photograph process performed with the digital camera of this embodiment. この実施の形態において人物の画像を撮影するときの実際の景色を示す図である。It is a figure which shows the actual scenery when image | photographing a person's image in this embodiment. この実施の形態において人物の画像を撮影するときの実際の景色のうち液晶ファインダに表示される人物が存在する部分を示す図である。It is a figure which shows the part where the person displayed on a liquid-crystal finder exists among the actual scenery when imaging | photography of a person's image in this embodiment. この実施の形態において人物の画像を撮影するときの実際の景色のうち液晶ファインダに表示される人物が存在していた部分を示す図である。It is a figure which shows the part in which the person displayed on a liquid crystal finder existed among the actual scenery when imaging | photography of a person's image in this embodiment. この実施の形態において抜出された人物の画像を確認するための画面を示す図である。It is a figure which shows the screen for confirming the image of the person extracted in this embodiment. この実施の形態において抜出された人物の画像の調整の例を示す図である。It is a figure which shows the example of adjustment of the image of the person extracted in this embodiment. この実施の形態において抜出された人物の画像で足が含まれる場合を示す図である。It is a figure which shows the case where a foot | leg is included in the image of the person extracted in this embodiment. この実施の形態において複数の人物画像がある場合の前後関係を設定するための第1の画面である。It is the 1st screen for setting up and down relation when there are a plurality of person images in this embodiment. この実施の形態において複数の人物画像がある場合の前後関係を設定するための第2の画面である。It is a 2nd screen for setting the context in the case where there exist several person images in this embodiment. この実施の形態において複数の人物画像がある場合の人物画像と背景画像との重畳の一例を示す第1の図である。It is a 1st figure which shows an example of a superimposition of a person image and a background image in case this embodiment has a several person image. この実施の形態において複数の人物画像がある場合の人物画像と背景画像との重畳の一例を示す第2の図である。It is a 2nd figure which shows an example of a superimposition of a person image and a background image in case this embodiment has a several person image. この実施の形態において人物画像と背景画像との調整を説明するための第1の図である。It is a 1st figure for demonstrating adjustment of a person image and a background image in this embodiment. この実施の形態において人物画像と背景画像との調整を説明するための第2の図である。It is a 2nd figure for demonstrating adjustment of a person image and a background image in this embodiment. この実施の形態において確定された重畳画像を示す図である。It is a figure which shows the superimposition image determined in this embodiment. この実施の形態において画像からの人物の抜出しを説明するための第1の図である。It is a 1st figure for demonstrating extraction of the person from an image in this embodiment. この実施の形態において画像からの人物の抜出しを説明するための第2の図である。It is a 2nd figure for demonstrating extraction of the person from an image in this embodiment. この実施の形態において画像からの人物の抜出しを説明するための第3の図である。It is a 3rd figure for demonstrating extraction of the person from an image in this embodiment.

以下、この発明の実施の形態について、図面を参照しならが詳細に説明する。なお、図中の同一のまたは相当する部分については、同一符号を付してその説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals, and the description thereof will not be repeated.

図1は、この発明の実施の形態のデジタルカメラ100の構成の概略を示すブロック図である。図1を参照して、デジタルカメラ100は、CPU110と、メモリ120と、ユーザインタフェース130と、液晶ファインダ部140と、画像処理プロセッサ150と、ファイルマネージャ160と、カメラ撮影部170と、写真画像保存領域190とを含む。   FIG. 1 is a block diagram showing an outline of the configuration of a digital camera 100 according to an embodiment of the present invention. Referring to FIG. 1, a digital camera 100 includes a CPU 110, a memory 120, a user interface 130, a liquid crystal finder unit 140, an image processor 150, a file manager 160, a camera photographing unit 170, and a photographic image storage. Region 190.

CPU110は、メモリ120、ユーザインタフェース130、液晶ファインダ部140、画像処理プロセッサ150、ファイルマネージャ160、カメラ撮影部170、および、写真画像保存領域190を制御し、メモリ120に記憶されたプログラムまたはデータに従って所定の処理を実行し、ユーザインタフェース130、画像処理プロセッサ150、ファイルマネージャ160、カメラ撮影部170、および、写真画像保存領域190から入力されたデータを処理し、処理したデータを、メモリ120または写真画像保存領域190に記憶させたり、画像処理プロセッサ150、ファイルマネージャ160、および、液晶ファインダ部140に出力したりする。   The CPU 110 controls the memory 120, the user interface 130, the liquid crystal finder unit 140, the image processor 150, the file manager 160, the camera photographing unit 170, and the photographic image storage area 190, and according to a program or data stored in the memory 120. A predetermined process is executed to process data input from the user interface 130, the image processor 150, the file manager 160, the camera photographing unit 170, and the photograph image storage area 190, and the processed data is stored in the memory 120 or the photograph. It is stored in the image storage area 190 or outputted to the image processor 150, the file manager 160, and the liquid crystal finder unit 140.

メモリ120は、CPU110でプログラムを実行するために必要な作業領域として用いられるRAM(Random Access Memory)と、CPU110で実行するための基本的なプログラムを記憶するためのROM(Read Only Memory)とを含む。さらに、メモリ120の記憶領域を補助するための補助記憶装置の記憶媒体として、磁気ディスク(HD(Hard Disk)、FD(Flexible Disk))、光ディスク(CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray Disc))、光磁気ディスク(MO(Magneto-Optical disk))、または、半導体メモリ(メモリカード、SSD(Solid State Drive))などが用いられてもよい。   The memory 120 includes a RAM (Random Access Memory) used as a work area necessary for the CPU 110 to execute a program, and a ROM (Read Only Memory) for storing a basic program to be executed by the CPU 110. Including. Further, as a storage medium of an auxiliary storage device for assisting the storage area of the memory 120, a magnetic disk (HD (Hard Disk), FD (Flexible Disk)), optical disk (CD (Compact Disc), DVD (Digital Versatile Disk) BD (Blu-ray Disc), a magneto-optical disk (MO (Magneto-Optical disk)), or a semiconductor memory (memory card, SSD (Solid State Drive)) may be used.

本実施の形態においては、メモリ120に加えて、写真画像保存領域190が設けられる。写真画像保存領域190は、本体内または記憶メディア内に設けられる。写真画像保存領域190には、写真画像が保存される。なお、メモリ120には、保存前の写真画像は、一時的に記憶されるが、保存用の写真画像は、記憶されない。   In the present embodiment, in addition to the memory 120, a photographic image storage area 190 is provided. The photographic image storage area 190 is provided in the main body or a storage medium. A photographic image is stored in the photographic image storage area 190. Note that the photographic image before saving is temporarily stored in the memory 120, but the photographic image for saving is not stored.

また、メモリ120には、写真画像編集ワーク領域121および液晶ファインダ表示画像展開バッファ129が設けられる。写真画像編集ワーク領域121は、写真画像の編集のために用いられるメモリの領域である。写真画像編集ワーク領域121の用いられ方については、後述の図2および図3で説明する。液晶ファインダ表示画像展開バッファ129は、液晶ファインダ142の表示のために用いられるメモリの領域である。   The memory 120 is provided with a photographic image editing work area 121 and a liquid crystal finder display image expansion buffer 129. The photo image editing work area 121 is an area of a memory used for editing a photo image. How the photographic image editing work area 121 is used will be described later with reference to FIGS. The liquid crystal finder display image development buffer 129 is a memory area used for display of the liquid crystal finder 142.

ファイルマネージャ160は、CPU110によって制御されて、保存するための写真画像をメモリ120から写真画像保存領域190に転送したり、編集される写真画像を写真画像保存領域190からメモリ120に転送したりする。   The file manager 160 is controlled by the CPU 110 to transfer a photographic image to be stored from the memory 120 to the photographic image storage area 190 and to transfer an edited photographic image from the photographic image storage area 190 to the memory 120. .

ユーザインタフェース130は、ズームキー、シャッタボタン、および、モード変更用のキーなどを含み、ユーザからの操作を受付けて、受付けた操作に応じた操作信号をCPU110に送信する。   The user interface 130 includes a zoom key, a shutter button, a mode change key, and the like, receives an operation from the user, and transmits an operation signal corresponding to the received operation to the CPU 110.

カメラ撮影部170は、レンズ173と、CCD(Charge Coupled Device)172と、カメラドライバ171とを含む。レンズ173は、デジタルカメラ100の外部の被写体の像をCCD172まで導く。CCD172は、レンズ173からの像を電気信号に変換する。カメラドライバ171は、CPU110によって制御されて、CCD172で変換された電気信号を、画像処理プロセッサ150に送信する。   The camera photographing unit 170 includes a lens 173, a CCD (Charge Coupled Device) 172, and a camera driver 171. The lens 173 guides an image of a subject outside the digital camera 100 to the CCD 172. The CCD 172 converts the image from the lens 173 into an electric signal. The camera driver 171 is controlled by the CPU 110 and transmits an electrical signal converted by the CCD 172 to the image processor 150.

画像処理プロセッサ150は、カメラ撮影部170からのアナログ信号をデジタル信号に変換したり、変換したデジタル信号を所定の画像形式のデータに符号化したり、所定の画像形式のデータを復号して液晶ファインダ部140で表示可能な信号にしたり、画像を拡大したり縮小したり、画像の解像度を変換したりといった、画像に関する様々な処理を実行する。   The image processor 150 converts the analog signal from the camera photographing unit 170 into a digital signal, encodes the converted digital signal into data of a predetermined image format, or decodes the data of the predetermined image format to decode the liquid crystal finder. Various processes relating to the image, such as a signal that can be displayed by the unit 140, enlargement or reduction of the image, or conversion of the resolution of the image, are executed.

液晶ファインダ部140は、液晶表示ドライバ141と、液晶ファインダ142とを含む。液晶ファインダ142は、LCD(Liquid Crystal Display)で構成される。液晶表示ドライバ141は、CPU110からの画像の信号に基づいて、液晶ファインダ142に画像を表示させる。   The liquid crystal finder unit 140 includes a liquid crystal display driver 141 and a liquid crystal finder 142. The liquid crystal finder 142 is configured by an LCD (Liquid Crystal Display). The liquid crystal display driver 141 displays an image on the liquid crystal finder 142 based on an image signal from the CPU 110.

図2は、この実施の形態のデジタルカメラ100で実行される合成写真処理の流れを示すフローチャートである。図2を参照して、ステップS111で、CPU110は、合成写真モードに切替えられているか否かを判断する。合成写真モードに切替えられていないと判断した場合(ステップS111でNOと判断した場合)、CPU110は、実行する処理を、この合成写真処理の呼出元の処理に戻す。   FIG. 2 is a flowchart showing the flow of the composite photo process executed by the digital camera 100 of this embodiment. Referring to FIG. 2, in step S111, CPU 110 determines whether or not the mode has been switched to the composite photo mode. If it is determined that the mode has not been switched to the composite photo mode (NO in step S111), the CPU 110 returns the process to be executed to the process that called the composite photo process.

合成写真モードに切替えられたと判断した場合(ステップS111でYESと判断した場合)、ステップS112で、CPU110は、前景とする人物の撮影をユーザに促す旨を、液晶ファインダ142に表示させるよう制御する。たとえば、「人物の画像を撮影してください。」といったメッセージを液晶ファインダ142に表示させる。なお、表示と共にまたは表示に替えて、音声によって報知してもよい。   If it is determined that the mode has been switched to the composite photo mode (YES in step S111), in step S112, the CPU 110 controls the liquid crystal finder 142 to display a message prompting the user to take a person as a foreground. . For example, a message such as “Please take a picture of a person” is displayed on the liquid crystal finder 142. In addition, you may alert | report by audio | voice with or instead of a display.

図4は、この実施の形態において人物の画像を撮影するときの実際の景色を示す図である。図4を参照して、ここでは、この景色を撮影するときに、人物を先に撮影して、撮影した人物画像を背景画像に重畳させて合成写真を撮影する。   FIG. 4 is a diagram showing an actual scene when a person image is photographed in this embodiment. Referring to FIG. 4, here, when photographing this scenery, a person is photographed first, and a composite photograph is photographed by superimposing the photographed person image on the background image.

図5は、この実施の形態において人物の画像を撮影するときの実際の景色のうち液晶ファインダ142に表示される人物が存在する部分を示す図である。図5を参照して、この図において、枠で囲まれた領域が、液晶ファインダ142に表示されている画像Aを示す。画像Aには、人物が含まれるように撮影される。   FIG. 5 is a diagram illustrating a portion where a person displayed on the liquid crystal finder 142 exists in an actual scene when a person image is captured in this embodiment. Referring to FIG. 5, in this figure, a region surrounded by a frame shows image A displayed on liquid crystal finder 142. The image A is shot so as to include a person.

図2に戻って、ステップS113では、ユーザによるユーザインタフェース130のシャッタボタンの操作があったか否かを判断する。シャッタ操作がないと判断した場合(ステップS113でNOと判断した場合)、CPU110は、ステップS113の処理を繰返す。   Returning to FIG. 2, in step S <b> 113, it is determined whether or not the user has operated the shutter button of the user interface 130. If it is determined that there is no shutter operation (NO in step S113), CPU 110 repeats the process in step S113.

一方、シャッタ操作があったと判断した場合(ステップS113でYESと判断した場合)、ステップS114で、CPU110は、人物を含む画像Aを、図1で示すメモリ120の写真画像編集ワーク領域の合成用被写体切抜ワーク領域に記憶させる。   On the other hand, if it is determined that a shutter operation has been performed (YES in step S113), in step S114, CPU 110 combines image A including a person with a photographic image editing work area in memory 120 shown in FIG. Store in the subject cutout work area.

次に、ステップS115で、CPU110は、カメラを動かさない旨、および、人物をフレーム外に移動させる旨を、液晶ファインダ142に表示させるよう制御する。たとえば、「カメラを動かさずに、人物をフレーム外に移動させてください」といったメッセージを液晶ファインダ142に表示させる。なお、表示と共にまたは表示に替えて、音声によって報知してもよい。   Next, in step S115, the CPU 110 controls the liquid crystal finder 142 to display that the camera is not moved and that the person is moved out of the frame. For example, a message such as “Please move the person out of the frame without moving the camera” is displayed on the liquid crystal finder 142. In addition, you may alert | report by audio | voice with or instead of a display.

次いで、ステップS116で、CPU110は、人物がフレーム外に移動するまでの画像を連写して、図1で示すメモリ120の写真画像編集ワーク領域の合成用被写体切抜ワーク領域に記憶させる。具体的には、ステップS113でシャッタ操作があったと判断されてから、連写(たとえば、1回/0.3秒程度)が開始され、n枚(たとえば、10枚)連続して画像の差分が無いと判断されることで、人物がフレーム外に移動したと判断されるまで、連写が続けられる。   Next, in step S116, the CPU 110 continuously captures images until the person moves out of the frame and stores them in the composition subject cutout work area of the photographic image editing work area of the memory 120 shown in FIG. Specifically, after it is determined in step S113 that a shutter operation has been performed, continuous shooting (for example, about once / 0.3 seconds) is started, and n (for example, 10) consecutive image differences are started. By determining that there is no image, continuous shooting is continued until it is determined that the person has moved out of the frame.

図6は、この実施の形態において人物の画像を撮影するときの実際の景色のうち液晶ファインダ142に表示される人物が存在していた部分を示す図である。図6を参照して、人物がフレーム外に移動すると、図5では人物が存在していたフレーム内には、人物が存在しなくなる。   FIG. 6 is a diagram illustrating a portion where a person displayed on the liquid crystal finder 142 is present in an actual scene when a person image is photographed in this embodiment. Referring to FIG. 6, when the person moves out of the frame, the person does not exist in the frame where the person existed in FIG.

図2に戻って、ステップS117で、CPU110は、ステップS116での連写画像のうち、人物を含まない画像Bを、図1で示すメモリ120の写真画像編集ワーク領域の合成用被写体切抜ワーク領域に記憶させる。   Returning to FIG. 2, in step S117, the CPU 110 selects the image B that does not include a person among the continuous shot images in step S116 as the composition subject cutout work area of the photographic image editing work area of the memory 120 shown in FIG. Remember me.

次に、ステップS120で、CPU110は、図1で示すメモリ120の写真画像編集ワーク領域の合成用被写体切抜ワーク領域122に記憶された、画像Aおよび画像Bから人物の部分の画像を抜出す人物抜出し処理を実行する。   Next, in step S120, the CPU 110 extracts a person portion image from the images A and B stored in the composition subject cutout work area 122 of the photographic image editing work area of the memory 120 shown in FIG. Perform extraction processing.

図3は、この実施の形態のデジタルカメラで実行される合成写真処理のサブルーチンの流れを示すフローチャートである。図3を参照して、人物抜出し処理では、まず、ステップS121で、CPU110は、画像Aおよび画像Bの差分から、人物の部分を認識する。   FIG. 3 is a flowchart showing the flow of a subroutine of composite photo processing executed by the digital camera of this embodiment. Referring to FIG. 3, in the person extraction process, first, in step S <b> 121, CPU 110 recognizes a person portion from the difference between image A and image B.

図17は、この実施の形態において画像からの人物の抜出しを説明するための第1の図である。図17を参照して、この画像から人物を抜出す場合を例に説明する。上述した画像Aおよび画像Bの差分から人物の部分が抽出される。   FIG. 17 is a first diagram for explaining extraction of a person from an image in this embodiment. A case where a person is extracted from this image will be described as an example with reference to FIG. A person portion is extracted from the difference between the image A and the image B described above.

図18は、この実施の形態において画像からの人物の抜出しを説明するための第2の図である。図18を参照して、この画像のように、人物の部分のみの画像が抽出される。なお、背景は透過設定とされる。   FIG. 18 is a second diagram for explaining extraction of a person from an image in this embodiment. Referring to FIG. 18, an image of only the person portion is extracted like this image. The background is set to be transparent.

図19は、この実施の形態において画像からの人物の抜出しを説明するための第3の図である。図19を参照して、これにより、画像Aにおいて、人物の領域が認識された状態となる。   FIG. 19 is a third diagram for explaining extraction of a person from an image in this embodiment. Referring to FIG. 19, the person area is recognized in image A.

図3に戻って、ステップS123で、CPU110は、画像Aから、ステップS121で認識された人物の画像を抜出す。   Returning to FIG. 3, in step S123, the CPU 110 extracts an image of the person recognized in step S121 from the image A.

そして、ステップS124で、CPU110は、抜出した人物画像をメモリ120に記憶させる。その後、CPU110は、実行する処理をこの人物抜出し処理の呼出元の図2の合成写真処理のステップS120に戻す。   In step S <b> 124, the CPU 110 stores the extracted person image in the memory 120. Thereafter, the CPU 110 returns the process to be executed to step S120 of the composite photograph process of FIG. 2 that is the caller of this person extraction process.

図2を再び参照して、ステップS120の後、ステップS131で、CPU110は、抜出してメモリ120に記憶された人物画像を、液晶ファインダ142に表示させるよう制御する。この人物画像は、メモリ120の写真画像編集ワーク領域の合成用被写体画像展開領域123に展開される。   Referring again to FIG. 2, after step S <b> 120, in step S <b> 131, the CPU 110 controls the liquid crystal finder 142 to display the person image extracted and stored in the memory 120. This person image is developed in the composition subject image development area 123 in the photographic image editing work area of the memory 120.

図7は、この実施の形態において抜出された人物の画像を確認するための画面を示す図である。図7を参照して、ユーザは、この画面を見て、抜出された人物を確認する。   FIG. 7 is a diagram showing a screen for confirming an image of a person extracted in this embodiment. Referring to FIG. 7, the user sees this screen and confirms the extracted person.

図8は、この実施の形態において抜出された人物の画像の調整の例を示す図である。図8を参照して、この段階で、人物画像を拡大させたり、縮小させたり、画像中の人物の位置を移動させたりできる。   FIG. 8 is a diagram showing an example of adjustment of an image of a person extracted in this embodiment. Referring to FIG. 8, at this stage, the person image can be enlarged or reduced, or the position of the person in the image can be moved.

図2に戻って、ステップS132で、CPU110は、抜出した人物の画像に人物の足が含まれるか否かを判断する。具体的には、CPU110は、抜出した人物の画像の輪郭が途中で途切れていないか否か、言い換えれば、抜出した人物の画像の輪郭線が抜出す前の画像の端部と交差しているか否かを判断する。   Returning to FIG. 2, in step S <b> 132, CPU 110 determines whether or not a person's foot is included in the extracted person image. Specifically, the CPU 110 determines whether or not the contour of the extracted person image is interrupted in the middle, in other words, whether the contour line of the extracted person image intersects the edge of the image before extraction. Judge whether or not.

図9は、この実施の形態において抜出された人物の画像で足が含まれる場合を示す図である。図9を参照して、このような人物の画像の場合、人物の画像の輪郭が途中で途切れておらず、また、人物の画像の輪郭線が抜出す前の画像の端部と交差しておらず、足を含むと判断される。   FIG. 9 is a diagram showing a case in which feet are included in the image of a person extracted in this embodiment. Referring to FIG. 9, in the case of such a person image, the outline of the person image is not interrupted, and the outline of the person image intersects with the edge of the image before extraction. It is judged that the foot is included.

図2に戻って、足を含むと判断した場合(ステップS132でYESと判断した場合)、ステップS133で、CPU110は、人物の画像が人物の足元まで含む旨を、液晶ファインダ142に表示させるよう制御する。たとえば、「足元まで含まれていますので、背景との合成時にはご注意ください。」といったメッセージを液晶ファインダ142に表示させる。なお、表示と共にまたは表示に替えて、音声によって報知してもよい。   Returning to FIG. 2, if it is determined that the foot is included (YES in step S132), in step S133, the CPU 110 displays on the liquid crystal finder 142 that the image of the person includes the foot of the person. Control. For example, the liquid crystal finder 142 displays a message such as “Because the foot is included, please be careful when compositing with the background”. In addition, you may alert | report by audio | voice with or instead of a display.

足を含まないと判断した場合(ステップS132でNOと判断した場合)、および、ステップS133の後、ステップS134で、CPU110は、ユーザから、人物の画像を了承するか、または、合成写真処理を中止するかのいずれの指示がユーザから入力されたかを判断する。中止するとの指示が入力されたと判断した場合、CPU110は、実行する処理をこの合成写真処理の呼出元の処理に戻す。   When it is determined that the foot is not included (when NO is determined in step S132), and after step S133, in step S134, the CPU 110 accepts the image of the person from the user or performs the composite photo process. It is determined which instruction to cancel is input from the user. If it is determined that an instruction to cancel is input, the CPU 110 returns the process to be executed to the process of the caller of the composite photo process.

一方、人物の画像を了承するとの指示が入力されたと判断した場合、CPU110は、ステップS135で、人物をさらに追加する旨の指示がユーザから入力されたか否かを判断する。人物を追加する旨の指示が入力されたと判断した場合(ステップS135でYESと判断した場合)、CPU110は、実行する処理をステップS112の処理に戻して、上述した追加する人物の人物画像を得る処理を実行する。   On the other hand, if CPU 110 determines that an instruction to approve a person image has been input, CPU 110 determines in step S135 whether an instruction to add a person has been input by the user. If it is determined that an instruction to add a person has been input (YES in step S135), CPU 110 returns the process to be executed to step S112 to obtain the above-described person image of the person to be added. Execute the process.

一方、人物を追加しない旨の指示が入力されたと判断した場合(ステップS135でNOと判断した場合)、ステップS141で、CPU110は、背景の撮影を促す旨を、液晶ファインダ142に表示させるよう制御する。たとえば、「背景の画像を撮影してください。」といったメッセージを液晶ファインダ142に表示させる。なお、表示と共にまたは表示に替えて、音声によって報知してもよい。   On the other hand, when it is determined that an instruction not to add a person has been input (NO in step S135), in step S141, the CPU 110 performs control to display on the liquid crystal finder 142 a prompt to shoot a background. To do. For example, a message such as “Please take a background image” is displayed on the liquid crystal finder 142. In addition, you may alert | report by audio | voice with or instead of a display.

次に、ステップS142で、CPU110は、ユーザがデジタルカメラ100を、撮影したい背景に向けると、撮影されている背景を、液晶ファインダ142に表示させるよう制御する。この背景画像は、図1で示すメモリ120の写真画像編集ワーク領域121の合成用背景画像展開領域124に展開される。   Next, in step S142, the CPU 110 controls the liquid crystal finder 142 to display the photographed background when the user points the digital camera 100 toward the background to be photographed. This background image is developed in the composition background image development area 124 of the photographic image editing work area 121 of the memory 120 shown in FIG.

次いで、ステップS143で、CPU110は、人物画像を撮影したときのデジタルカメラ100のピッチ角およびロール角に対する、背景画像を撮影している現在のデジタルカメラ100のピッチ角およびロール角のそれぞれの差を、液晶ファインダ142に表示させるよう制御する。   Next, in step S143, the CPU 110 calculates the difference between the pitch angle and roll angle of the current digital camera 100 that is capturing the background image with respect to the pitch angle and roll angle of the digital camera 100 when the person image is captured. Then, the liquid crystal finder 142 is controlled to display.

なお、ピッチ角およびロール角は、図示はしていないが、デジタルカメラ100に設けられたジャイロセンサによって検知される。また、人物画像を撮影したときのデジタルカメラ100のピッチ角およびロール角は、人物画像に関連付けられてメモリ120に記憶される。   Although not shown, the pitch angle and the roll angle are detected by a gyro sensor provided in the digital camera 100. In addition, the pitch angle and roll angle of the digital camera 100 when a person image is captured are stored in the memory 120 in association with the person image.

また、このピッチ角およびロール角の差が所定値以上(または所定値超)の場合は、人物画像と背景画像との合成が不自然になる可能性があるので、液晶ファインダ142に警告を表示させるよう制御してもよい。   If the difference between the pitch angle and roll angle is greater than or equal to a predetermined value (or greater than a predetermined value), the person image and the background image may be unnaturally combined, so a warning is displayed on the liquid crystal finder 142. Control may be performed.

そして、ステップS150で、CPU110は、人物画像と背景画像とを重畳させる処理である人物背景重畳処理を実行する。   In step S150, the CPU 110 executes a human background superimposing process that is a process of superimposing the human image and the background image.

図3を再び参照して、人物背景重畳処理において、まず、ステップS151で、CPU110は、メモリ120から人物画像を読出して、メモリ120の写真画像編集ワーク領域121の合成用被写体画像展開領域に展開する。   Referring again to FIG. 3, in the person background superimposing process, first, in step S <b> 151, CPU 110 reads a person image from memory 120 and develops it in the composition subject image development area of photographic image editing work area 121 of memory 120. To do.

次に、ステップS152で、CPU110は、人物画像が複数であるか否かを判断する。複数であると判断した場合(ステップS152でYESと判断した場合)、ステップS153で、CPU110は、人物画像の前後をどのようにするかの指示の入力をユーザから受付けて、それにしたがい、人物画像の前後を確定させる。   Next, in step S152, CPU 110 determines whether there are a plurality of person images. When it is determined that there are a plurality of images (when YES is determined in step S152), in step S153, the CPU 110 receives an input of an instruction on how to perform before and after the person image from the user, and accordingly, the person image Confirm before and after.

図10は、この実施の形態において複数の人物画像がある場合の前後関係を設定するための第1の画面である。図11は、この実施の形態において複数の人物画像がある場合の前後関係を設定するための第2の画面である。   FIG. 10 is a first screen for setting the context when there are a plurality of person images in this embodiment. FIG. 11 is a second screen for setting the context when there are a plurality of person images in this embodiment.

図10および図11を参照して、このように複数の人物画像の前後を入替えて、確認しながら、複数の人物画像の前後を確定させることができる。   With reference to FIG. 10 and FIG. 11, the front and rear of the plurality of person images can be confirmed while the front and rear of the plurality of person images are exchanged and confirmed in this way.

図3に戻って、人物画像が複数でないと判断した場合(ステップS152でNOと判断した場合)、および、ステップS153の後、CPU110は、ステップS154で、液晶ファインダ142に表示中の背景画像に、人物画像を重畳させる。   Returning to FIG. 3, when it is determined that there are not a plurality of person images (when NO is determined in step S152), and after step S153, the CPU 110 displays the background image displayed on the liquid crystal finder 142 in step S154. The person image is superimposed.

そして、ステップS156で、CPU110は、重畳画像を液晶ファインダ142に表示させるよう制御する。その後、CPU110は、実行する処理をこの人物背景重畳処理の呼出元の図2の合成写真処理のステップS150に戻す。   In step S156, the CPU 110 controls the liquid crystal finder 142 to display the superimposed image. Thereafter, the CPU 110 returns the process to be executed to step S150 of the composite photograph process of FIG.

図12は、この実施の形態において複数の人物画像がある場合の人物画像と背景画像との重畳の一例を示す第1の図である。図13は、この実施の形態において複数の人物画像がある場合の人物画像と背景画像との重畳の一例を示す第2の図である。   FIG. 12 is a first diagram illustrating an example of superposition of a person image and a background image when there are a plurality of person images in this embodiment. FIG. 13 is a second diagram illustrating an example of superposition of a person image and a background image when there are a plurality of person images in this embodiment.

図12および図13を参照して、この図のように、確定された複数の人物画像の前後の設定にしたがって重畳画像が作成される。   Referring to FIGS. 12 and 13, a superimposed image is created according to the settings before and after a plurality of confirmed human images, as shown in FIG.

図3に戻って、次に、ステップS161で、CPU110は、人物画像を拡大または縮小する操作がユーザによってされたか否かを判断する。人物画像を拡大または縮小する操作がされたと判断した場合(ステップS161でYESと判断した場合)、ステップS162で、CPU110は、人物画像を、背景画像に対して拡大または縮小する。   Returning to FIG. 3, in step S <b> 161, the CPU 110 determines whether an operation for enlarging or reducing the person image is performed by the user. If it is determined that an operation for enlarging or reducing the person image has been performed (YES in step S161), in step S162, CPU 110 enlarges or reduces the person image with respect to the background image.

人物画像を拡大または縮小する操作がされていないと判断した場合(ステップS161でNOと判断した場合)、および、ステップS162の後、ステップS163で、CPU110は、背景画像を拡大または縮小する操作がユーザによってされたか否かを判断する。   When it is determined that the operation for enlarging or reducing the person image is not performed (when NO is determined in step S161), and after step S162, in step S163, the CPU 110 performs an operation for enlarging or reducing the background image. Determine whether it was done by the user.

背景画像を拡大または縮小する操作がされたと判断した場合(ステップS163でYESと判断した場合)、ステップS164で、CPU110は、液晶ファインダ142に表示中の背景画像をズームインまたはズームアウトする。なお、ユーザがデジタルカメラ100を左右に動かせば、背景画像がパンされる。   If it is determined that an operation for enlarging or reducing the background image has been performed (YES in step S163), in step S164, CPU 110 zooms in or out on the background image being displayed on liquid crystal finder 142. If the user moves the digital camera 100 to the left or right, the background image is panned.

背景画像を拡大または縮小する操作がされていないと判断した場合(ステップS163でNOと判断した場合)、および、ステップS164の後、ステップS165で、CPU110は、人物画像を移動または回転する操作がされたか否かを判断する。   If it is determined that the operation for enlarging or reducing the background image has not been performed (NO in step S163), and after step S164, in step S165, CPU 110 performs an operation for moving or rotating the person image. It is judged whether it was done.

人物画像を移動または回転する操作がされたと判断した場合(ステップS165でYESと判断した場合)、ステップS166で、CPU110は、人物画像を、背景画像に対して移動または回転させる。   If it is determined that an operation for moving or rotating the person image has been performed (YES in step S165), in step S166, CPU 110 moves or rotates the person image with respect to the background image.

図14は、この実施の形態において人物画像と背景画像との調整を説明するための第1の図である。図15は、この実施の形態において人物画像と背景画像との調整を説明するための第2の図である。   FIG. 14 is a first diagram for explaining the adjustment of the person image and the background image in this embodiment. FIG. 15 is a second diagram for explaining the adjustment of the person image and the background image in this embodiment.

図14および図15を参照して、このように、ステップS161からステップS166の処理が行なわれることによって、人物画像および背景画像の調整が行なわれる。   Referring to FIGS. 14 and 15, the person image and the background image are adjusted by performing the processing from step S161 to step S166 as described above.

図3に戻って、人物画像を移動または回転する操作がされていないと判断した場合(ステップS165でNOと判断した場合)、および、ステップS166の後、CPU110は、実行する処理をこの人物背景重畳処理の呼出元の図2の合成写真処理のステップS150の処理に戻す。   Returning to FIG. 3, when it is determined that the operation for moving or rotating the person image has not been performed (when NO is determined in step S165), and after step S166, the CPU 110 performs the process to be executed on this person background. Returning to the process of step S150 of the composite photograph process of FIG.

図2を再び参照して、ステップS150の後、ステップS171で、CPU110は、ユーザによるユーザインタフェース130のシャッタボタンの操作があったか否かを判断する。シャッタ操作がないと判断した場合(ステップS171でNOと判断した場合)、CPU110は、ステップS171の処理を繰返す。   Referring to FIG. 2 again, after step S150, in step S171, CPU 110 determines whether or not the user has operated the shutter button of user interface 130. If it is determined that there is no shutter operation (NO in step S171), CPU 110 repeats the process in step S171.

一方、シャッタ操作があったと判断した場合(ステップS171でYESと判断した場合)、ステップS172で、CPU110は、重畳画像を液晶ファインダ142に確定表示させるよう制御する。   On the other hand, when it is determined that the shutter operation has been performed (when YES is determined in step S171), in step S172, the CPU 110 controls the liquid crystal finder 142 to display the superimposed image.

図16は、この実施の形態において確定された重畳画像を示す図である。図16を参照して、このように、人物画像と背景画像とが重畳されて確定された重畳画像が、液晶ファインダ142に表示される。   FIG. 16 is a diagram showing a superimposed image determined in this embodiment. Referring to FIG. 16, the superimposed image determined by superimposing the person image and the background image in this way is displayed on liquid crystal finder 142.

図2に戻って、ステップS173で、CPU110は、ユーザから重畳画像を後で編集する旨の入力が受付けられたか否かを判断する。後で編集する旨の入力が受付けられたと判断した場合(ステップS173でYESと判断した場合)、ステップS174で、CPU110は、図3のステップS124でメモリ120に記憶させた人物画像ならびにステップS171でシャッタ操作がされたときの背景画像を、メモリ120から移行させて、写真画像保存領域190に記憶させるよう、ファイルマネージャ160を制御する。   Returning to FIG. 2, in step S <b> 173, CPU 110 determines whether an input indicating that the superimposed image is to be edited later is received from the user. If it is determined that an input to be edited later is accepted (YES in step S173), in step S174, CPU 110 stores the person image stored in memory 120 in step S124 of FIG. 3 and in step S171. The file manager 160 is controlled so that the background image when the shutter operation is performed is transferred from the memory 120 and stored in the photographic image storage area 190.

また、後で編集する旨の入力が受付けられていないと判断した場合(ステップS173でNOと判断した場合)、および、ステップS174の後、ステップS175で、CPU110は、ステップS171でシャッタ操作がされたときの重畳画像を、メモリ120から移行させて、写真画像保存領域190に記憶させるよう、ファイルマネージャ160を制御する。その後、CPU110は、実行する処理をこの合成写真処理の呼出元の処理に戻す。   Further, when it is determined that an input for editing is not received later (when NO is determined in step S173), and after step S174, in step S175, CPU 110 performs a shutter operation in step S171. The file manager 160 is controlled so that the superimposed image at this time is transferred from the memory 120 and stored in the photographic image storage area 190. Thereafter, the CPU 110 returns the process to be executed to the process of the caller of this composite photo process.

以上、説明したように、この実施の形態におけるデジタルカメラ100によれば、以下のような効果が得られる。   As described above, according to the digital camera 100 in this embodiment, the following effects can be obtained.

(1) デジタルカメラ100は、画像を撮像するカメラ撮影部170と、画像を表示する液晶ファインダ部140と、画像を記憶するためのメモリ120と、画像をメモリ120に記憶させるためのシャッタ操作を受付けるユーザインタフェース130と、CPU110とを備える。   (1) The digital camera 100 performs a camera photographing unit 170 that captures an image, a liquid crystal finder unit 140 that displays an image, a memory 120 that stores an image, and a shutter operation that causes the memory 120 to store an image. A user interface 130 to be received and a CPU 110 are provided.

CPU110によって、図3のステップS151で示したように、メモリ120に記憶された人物を含む人物画像が読出され、図3のステップS154で示したように、読出された人物画像が、カメラ撮影部170によって撮像されている背景を含む背景画像と重畳されて重畳画像とされ、図3のステップS156で示したように、重畳された重畳画像が、液晶ファインダ部140に表示させられ、図2のステップS133およびステップS143で示したように、人物画像および背景画像に基づいて、液晶ファインダ部140に表示されている重畳画像を確定させるための情報を報知するよう制御され、図2のステップS175で示したように、ユーザインタフェース130によってシャッタ操作が受付けられたときの重畳画像が、メモリ120に記憶される。   The CPU 110 reads a person image including a person stored in the memory 120 as shown in step S151 in FIG. 3, and the read person image is read from the camera photographing unit as shown in step S154 in FIG. 2 is superimposed on the background image including the background imaged by 170, and the superimposed image is displayed on the liquid crystal finder 140 as shown in step S156 of FIG. As shown in step S133 and step S143, control is performed to notify information for determining the superimposed image displayed on the liquid crystal finder unit 140 based on the person image and the background image, and in step S175 of FIG. As shown, the superimposed image when the shutter operation is accepted by the user interface 130 is stored in the memory. It is stored in the 20.

このため、重畳された画像を確定させるための情報が報知される。その結果、より良い合成画像をえることができる。   For this reason, information for determining the superimposed image is notified. As a result, a better composite image can be obtained.

(2) CPU110によって、図3のステップS161からステップS166で示したように、液晶ファインダ部140に重畳画像が表示されているときに、人物画像および背景画像の相対的な大きさが変更可能とされる。その結果、さらに、より良い合成画像を得ることができる。   (2) The CPU 110 can change the relative sizes of the person image and the background image when the superimposed image is displayed on the liquid crystal finder unit 140 as shown in steps S161 to S166 of FIG. Is done. As a result, a better composite image can be obtained.

(3) CPU110によって、図3のステップS161からステップS166で示したように、液晶ファインダ部140に重畳画像が表示されているときに、人物画像と背景画像との相対的な位置が変更可能とされる。その結果、さらに、より良い合成画像を得ることができる。   (3) As shown in steps S161 to S166 in FIG. 3, when the superimposed image is displayed on the liquid crystal finder unit 140, the relative position between the person image and the background image can be changed by the CPU 110. Is done. As a result, a better composite image can be obtained.

(4) CPU110によって、図2のステップS132およびステップS133で示したように、人物画像に人物の足元まで含まれる場合は、ユーザにその旨が報知されるよう制御される。人物の足元まで含まれているか否かによって背景画像と合成するときのレイアウトに対する配慮が必要となる。足元まで含まれる旨が報知されれば、ユーザはその点を配慮することができる。その結果、さらに、より良い合成画像を得ることができる。   (4) As shown in step S132 and step S133 in FIG. 2, when the person image includes even the foot of the person, the CPU 110 controls to notify the user of that fact. Consideration for the layout when combining with the background image is necessary depending on whether or not the foot of the person is included. If it is notified that the foot is included, the user can consider that point. As a result, a better composite image can be obtained.

次に、上述した実施の形態の変形例を説明する。
(1) 前述した実施の形態においては、前景の被写体が人物であることとした。しかし、これに限定されず、ペットなどの動物であってもよいし、自動車、電車および自転車のような移動機械であってもよいし、ぬいぐるみのような物であってもよいし、背景との相対位置が変化させられるものであれば、いかなる物であってもよい。
Next, a modification of the above-described embodiment will be described.
(1) In the embodiment described above, the foreground subject is a person. However, the present invention is not limited to this, and it may be an animal such as a pet, a mobile machine such as an automobile, a train and a bicycle, a stuffed animal, or a background. Any object can be used as long as its relative position can be changed.

(2) 前述した実施の形態においては、図2のステップS116で示したように、人物がフレームアウトしたことを自動で検出するようにした。しかし、これに限定されず、ユーザが人物のフレームアウトを自分で確認して、画像Bを撮影するためにシャッタ操作を行なうようにしてもよい。   (2) In the above-described embodiment, as shown in step S116 of FIG. 2, it is automatically detected that a person is out of frame. However, the present invention is not limited to this, and the user may confirm the person's frame out by himself and perform a shutter operation to capture the image B.

(3) 前述した実施の形態においては、デジタルカメラ100として発明を捉えて、発明の実施の形態を説明した。しかし、デジタルカメラ100に限定されず、デジタルビデオカメラであってもよいし、カメラ機能を備えたスマートフォンおよび携帯電話などの携帯端末であってもよい。   (3) In the above-described embodiment, the invention has been described as the digital camera 100, and the embodiment of the invention has been described. However, the present invention is not limited to the digital camera 100, and may be a digital video camera or a mobile terminal such as a smartphone or a mobile phone having a camera function.

(4) 前述した実施の形態のおいては、デジタルカメラ100の装置として発明を捉えて、発明の実施の形態を説明した。しかし、これに限定されず、デジタルカメラ100などの装置の制御方法として発明を捉えることができる。また、デジタルカメラ100などの装置で実行される制御プログラムとして発明を捉えることができる。   (4) In the above-described embodiments, the invention has been described as an apparatus of the digital camera 100, and the embodiments of the invention have been described. However, the present invention is not limited to this, and the invention can be understood as a method for controlling a device such as the digital camera 100. Further, the invention can be understood as a control program executed by an apparatus such as the digital camera 100.

(5) 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   (5) The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 デジタルカメラ、110 CPU、120 メモリ、121 写真画像編集ワーク領域、122 合成用被写体切抜ワーク領域、123 合成用被写体画像展開領域、124 合成用背景画像展開領域、125 合成画像展開領域、129 液晶ファインダ表示画像展開バッファ、130 ユーザインタフェース、140 液晶ファインダ部、141 液晶表示ドライバ、142 液晶ファインダ、150 画像処理プロセッサ、160 ファイルマネージャ、170 カメラ撮影部、171 カメラドライバ、172 CCD、173 レンズ、190 写真画像保存領域。   100 Digital Camera, 110 CPU, 120 Memory, 121 Photo Image Editing Work Area, 122 Compositing Subject Cutout Work Area, 123 Compositing Subject Image Development Area, 124 Composition Background Image Development Area, 125 Composite Image Development Area, 129 Liquid Crystal Finder Display image development buffer, 130 User interface, 140 Liquid crystal finder, 141 Liquid crystal display driver, 142 Liquid crystal finder, 150 Image processor, 160 File manager, 170 Camera photographing unit, 171 Camera driver, 172 CCD, 173 Lens, 190 Photo image Storage area.

Claims (5)

画像を撮像する撮像手段と、
画像を表示する表示部と、
画像を記憶するための記憶部と、
画像を前記記憶部に記憶させるためのシャッタ操作を受付ける操作部と、
制御部とを備え、
前記制御部は、
前記記憶部に記憶された第1の撮影対象を含む第1の画像を読出す読出手段と、
前記読出手段によって読出された前記第1の画像を、前記撮像手段によって撮像されている第2の撮影対象を含む第2の画像と重畳して第3の画像とする重畳手段と、
前記重畳手段によって重畳された前記第3の画像を、前記表示部に表示させる表示制御手段と、
前記第1の画像および前記第2の画像に基づいて、前記表示部に表示されている前記第3の画像を確定させるための情報を報知するよう制御する報知制御手段と、
前記操作部によって前記シャッタ操作が受付けられたときの前記第3の画像を、前記記憶部に記憶させる記憶制御手段とを含む、撮像装置。
An imaging means for capturing an image;
A display for displaying an image;
A storage unit for storing images;
An operation unit for receiving a shutter operation for storing an image in the storage unit;
A control unit,
The controller is
Reading means for reading a first image including the first photographing object stored in the storage unit;
A superimposing unit that superimposes the first image read by the reading unit with a second image including the second imaging target imaged by the imaging unit to form a third image;
Display control means for causing the display unit to display the third image superimposed by the superimposing means;
Notification control means for controlling to notify information for determining the third image displayed on the display unit based on the first image and the second image;
An image pickup apparatus comprising: a storage control unit that causes the storage unit to store the third image when the shutter operation is accepted by the operation unit.
前記制御部は、さらに、
前記表示部に前記第3の画像が表示されているときに、前記第1の画像および前記第2の画像の相対的な大きさを変更可能とする変更手段を含む、請求項1に記載の撮像装置。
The control unit further includes:
The display device according to claim 1, further comprising a changing unit configured to change a relative size between the first image and the second image when the third image is displayed on the display unit. Imaging device.
前記制御部は、さらに、
前記表示部に前記第3の画像が表示されているときに、前記第1の画像と前記第2の画像との相対的な位置を変更可能とする変更手段を含む、請求項1に記載の撮像装置。
The control unit further includes:
The display device according to claim 1, further comprising a changing unit that makes it possible to change a relative position between the first image and the second image when the third image is displayed on the display unit. Imaging device.
前記第1の撮影対象は、人物であり、
前記報知制御手段は、前記第1の画像に前記人物の足元まで含まれる場合は、ユーザにその旨を報知するよう制御する、請求項1に記載の撮像装置。
The first shooting target is a person,
The imaging apparatus according to claim 1, wherein when the first image includes the foot of the person, the notification control unit performs control to notify the user to that effect.
撮像装置の制御方法であって、
前記撮像装置は、
画像を撮像する撮像手段と、
画像を表示する表示部と、
画像を記憶するための記憶部と、
画像を前記記憶部に記憶させるためのシャッタ操作を受付ける操作部と、
制御部とを備え、
前記制御部が、
前記記憶部に記憶された第1の撮影対象を含む第1の画像を読出すステップと、
読出された前記第1の画像を、前記撮像手段によって撮像されている第2の撮影対象を含む第2の画像と重畳して第3の画像とするステップと、
重畳された前記第3の画像を、前記表示部に表示させるステップと、
前記第1の画像および前記第2の画像に基づいて、前記表示部に表示されている前記第3の画像を確定させるための情報を報知するよう制御するステップと、
前記操作部によって前記シャッタ操作が受付けられたときの前記第3の画像を、前記記憶部に記憶させるステップとを含む、制御方法。
A method for controlling an imaging apparatus,
The imaging device
An imaging means for capturing an image;
A display for displaying an image;
A storage unit for storing images;
An operation unit for receiving a shutter operation for storing an image in the storage unit;
A control unit,
The control unit is
Reading a first image containing a first object to be photographed stored in the storage unit;
A step of superimposing the read first image on a second image including a second photographing target imaged by the imaging means to form a third image;
Displaying the superimposed third image on the display unit;
Controlling to notify information for finalizing the third image displayed on the display unit based on the first image and the second image;
And storing the third image when the shutter operation is accepted by the operation unit in the storage unit.
JP2012060165A 2012-03-16 2012-03-16 Imaging device and control method Pending JP2013197673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012060165A JP2013197673A (en) 2012-03-16 2012-03-16 Imaging device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012060165A JP2013197673A (en) 2012-03-16 2012-03-16 Imaging device and control method

Publications (1)

Publication Number Publication Date
JP2013197673A true JP2013197673A (en) 2013-09-30

Family

ID=49396158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012060165A Pending JP2013197673A (en) 2012-03-16 2012-03-16 Imaging device and control method

Country Status (1)

Country Link
JP (1) JP2013197673A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125425A (en) * 2013-12-27 2015-07-06 キヤノン株式会社 Imaging device and control method of the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125425A (en) * 2013-12-27 2015-07-06 キヤノン株式会社 Imaging device and control method of the same
US9681048B2 (en) 2013-12-27 2017-06-13 Canon Kabushiki Kaisha Image capturing apparatus and method for controlling the same

Similar Documents

Publication Publication Date Title
KR102114581B1 (en) Image capturing apparatus and method
US10110804B2 (en) Portrait image synthesis from multiple images captured on a handheld device
JP6404941B2 (en) Method and apparatus for acquiring images with motion blur
CN106937051B (en) Image processing apparatus, image processing method, and computer program
JP4497211B2 (en) Imaging apparatus, imaging method, and program
WO2015107927A1 (en) Image processing device, method, and program
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP2011004151A (en) Imaging device and imaging method
JP2013183306A (en) Imaging apparatus, imaging method, and program
JP2007318490A (en) Image processing apparatus, camera, and image processing program
JP5233727B2 (en) Electronic camera
JP5282530B2 (en) Digital camera
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
JP2007124399A (en) Image processing apparatus, electronic camera and image processing program
JP2007281843A (en) Imaging apparatus and image processing method
JP2007214620A (en) Image processing apparatus, image processing method, and program
JP2013197673A (en) Imaging device and control method
JP2010263270A (en) Image pickup device
JP2010245613A (en) Camera, display image control method and display image control program
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2011066828A (en) Imaging device, imaging method and program
JP2012073512A (en) Photographing device and program
JP2013240016A (en) Image pickup device and control method
JP5539820B2 (en) Imaging apparatus, imaging method, and imaging program
JP2008092046A (en) Camera capable of automatic composition extraction, and composition extraction program