JP2010268019A - Photographing apparatus - Google Patents

Photographing apparatus Download PDF

Info

Publication number
JP2010268019A
JP2010268019A JP2009115151A JP2009115151A JP2010268019A JP 2010268019 A JP2010268019 A JP 2010268019A JP 2009115151 A JP2009115151 A JP 2009115151A JP 2009115151 A JP2009115151 A JP 2009115151A JP 2010268019 A JP2010268019 A JP 2010268019A
Authority
JP
Japan
Prior art keywords
image
frame
composite image
composite
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009115151A
Other languages
Japanese (ja)
Inventor
Yusuke Yamazaki
裕介 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009115151A priority Critical patent/JP2010268019A/en
Publication of JP2010268019A publication Critical patent/JP2010268019A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem in a conventional digital camera: a wide-angle-side image and a telephotographic-side image should be recorded as two individual images because in photography for an athletic meeting, school plays or the like, photography may be polarized into wide-angle-side photography for catching entire atmospheres and telephotographic-side photography for catching vigorous moments. <P>SOLUTION: A composite image generation means generates one composite image 25 obtained by attaching to a first image 23 a new second image 24a having a viewing angle different from that of the first image 23, and a recording means records one composite image 25 generated by the composite image generation means in a memory card 20. Thereby, it is not necessary to record the first image 23 and the second image 24a having a viewing angle different from that of the first image as two individual images like before, and the first image 23 and the second image 24a having viewing angles different from each other can be recorded as one composite image 25, so that convenience of photography can be improved. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像を記録する記録手段を備えた撮影装置に関する。   The present invention relates to a photographing apparatus including a recording unit that records an image.

従来、この種の撮影装置としては、例えば、特許文献1に開示されたデジタルカメラがある。このデジタルカメラでは、撮影された画像が液晶パネルにスルー画像として表示される。撮影者は、十字カーソルボタンによってスルー画像におけるズーム中心位置を撮影者の所望の位置となるように移動させ、さらにズーム拡大ボタンを押圧操作して、ズーム中心位置を中心としてズーム領域を変化させて所望の画角にトリミングした後、撮影を行う。画像の保存は、このトリミングされたデジタルズーム領域に対して行われる。   Conventionally, as this type of photographing apparatus, there is a digital camera disclosed in Patent Document 1, for example. In this digital camera, the captured image is displayed as a through image on the liquid crystal panel. The photographer moves the zoom center position in the through image to the photographer's desired position with the cross cursor button, and further presses the zoom enlarge button to change the zoom area around the zoom center position. After trimming to a desired angle of view, shooting is performed. The image is stored in the trimmed digital zoom area.

特開2004−23631号公報Japanese Patent Laid-Open No. 2004-23631

しかしながら、特許文献1に開示されたような従来のデジタルカメラでは、運動会や学芸会等での撮影時、全体の雰囲気を捉えるために広角側で撮影を行うか、迫力のある瞬間を捉えるために望遠側で撮影を行う、といった2極に分かれていた。このため、広角側での撮影では子供の表情等を表現することが難しく、逆に、望遠側の撮影では全体の雰囲気を表現することが困難であった。従って、従来のデジタルカメラでは、広角側の画像と望遠側の画像とをそれぞれ別々の2枚の画像として記録しておく必要があった。   However, with a conventional digital camera as disclosed in Patent Document 1, when shooting at an athletic meet, a school performance, etc., to capture the entire atmosphere, or to capture a powerful moment It was divided into two poles: shooting on the telephoto side. For this reason, it is difficult to express a child's facial expression or the like when shooting on the wide-angle side, and conversely, it is difficult to express the overall atmosphere when shooting on the telephoto side. Therefore, in the conventional digital camera, it is necessary to record the wide-angle image and the telephoto image as two separate images.

本発明はこのような課題を解決するためになされたもので、
第2画像を含む第1画像を取得する第1画像取得手段と、
第1画像と画角が異なる新たな第2画像を、元の第2画像を基にして、または、第1画像取得手段により元の第2画像の取得タイミングとほぼ同じタイミングで、取得する第2画像取得手段と、
第1画像に新たな第2画像を貼り付けた1枚の合成画像を生成する合成画像生成手段と、
合成画像生成手段によって生成された1枚の合成画像を記録する記録手段とを備えて撮影装置を構成した。
The present invention has been made to solve such problems,
First image acquisition means for acquiring a first image including a second image;
A second second image having a field angle different from that of the first image is acquired based on the original second image or at substantially the same timing as the acquisition timing of the original second image by the first image acquisition means. Two image acquisition means;
A composite image generating means for generating one composite image in which a new second image is pasted on the first image;
The photographing apparatus is configured to include recording means for recording one composite image generated by the composite image generation means.

本構成によれば、合成画像生成手段により、第1画像に画角が異なる新たな第2画像が貼り付けられた1枚の合成画像が生成され、記録手段により、合成画像生成手段によって生成された1枚の合成画像が記録される。このため、従来のように、第1画像と、画角が異なる第2画像との2枚の画像を、別々の画像として記録しておく必要もなく、互いに画角の異なる第1画像および第2画像を1枚の合成画像として記録することができて便利である。また、広角側の、全体の雰囲気を表現する画像と、望遠側の、被写体の迫力ある様子を表現する画像とを1枚の画像で表現することができるため、従来の1枚ずつの画像の撮影では得られない新たな画像を作成することが可能である。   According to this configuration, the composite image generation unit generates a single composite image in which a new second image having a different angle of view is pasted on the first image, and the recording unit generates the composite image by the composite image generation unit. One composite image is recorded. For this reason, unlike the prior art, there is no need to record two images of the first image and the second image having different angles of view as separate images, and the first image and the first image having different angles of view are not required. It is convenient that two images can be recorded as one composite image. In addition, since the image representing the overall atmosphere on the wide-angle side and the image representing the powerful state of the subject on the telephoto side can be represented by a single image, It is possible to create a new image that cannot be obtained by shooting.

また、本発明は、第2画像に枠を設定する枠設定手段を備え、
第2画像取得手段が、枠設定手段で設定された枠内の第2画像を所定の倍率で拡大した画像を新たな第2画像として取得することを特徴とする。
Further, the present invention includes a frame setting means for setting a frame on the second image,
The second image acquisition unit acquires an image obtained by enlarging the second image in the frame set by the frame setting unit at a predetermined magnification as a new second image.

本構成によれば、第2画像取得手段により、枠設定手段で設定された枠内の第2画像を所定の倍率で拡大した画像が新たな第2画像として取得され、合成画像生成手段によって第1画像に貼り付けられて1枚の合成画像が生成される。このため、使用者は、枠設定手段で設定された枠から、第1画像と画角が異なる、所定の倍率で拡大される第2画像の内容を把握することが可能である。   According to this configuration, an image obtained by enlarging the second image within the frame set by the frame setting unit at a predetermined magnification is acquired as a new second image by the second image acquisition unit, and the second image acquisition unit acquires the first image by the composite image generation unit. A single composite image is generated by pasting to one image. For this reason, the user can grasp the content of the second image enlarged at a predetermined magnification, which is different in angle of view from the first image, from the frame set by the frame setting means.

また、本発明は、枠設定手段が、使用者の操作に応じて枠を設定することを特徴とする。   Further, the present invention is characterized in that the frame setting means sets a frame according to a user's operation.

本構成によれば、枠設定手段により、使用者の操作に応じて、所定の倍率で拡大されて第1画像に貼り付けられる第2画像の枠の位置、大きさ等が設定される。このため、使用者の好みに合わせた合成画像を作成することができる。   According to this configuration, the position, size, and the like of the frame of the second image that is enlarged at a predetermined magnification and pasted on the first image are set by the frame setting means in accordance with a user operation. Therefore, it is possible to create a composite image that matches the user's preference.

また、本発明は、枠設定手段が、使用者の操作によらずに自動的に枠を設定することを特徴とする。   Further, the present invention is characterized in that the frame setting means automatically sets the frame regardless of the user's operation.

本構成によれば、撮影対象物が動いても、枠設定手段が自動的に撮影対象物の動きに合わせて撮影対象物に対する枠を設定する。このため、使用者がわざわざ手動で撮影対象物の動きに合わせて枠を設定する面倒な作業も必要なく、撮影対象物を第2画像として撮影する際の利便性が向上する。   According to this configuration, even if the photographic subject moves, the frame setting means automatically sets a frame for the photographic subject in accordance with the movement of the photographic subject. For this reason, there is no need for the user to bother manually setting the frame in accordance with the movement of the object to be photographed, and the convenience when photographing the object to be photographed as the second image is improved.

また、本発明は、合成画像生成手段による新たな第2画像の貼り付け位置を選択する位置選択手段を備えたことを特徴とする。   Further, the present invention is characterized by comprising position selection means for selecting a new second image pasting position by the composite image generation means.

本構成によれば、位置選択手段により、合成画像生成手段による新たな第2画像の貼り付け位置が選択される。このため、使用者が第1画像の所望の位置に第2画像を貼り付けることができ、使用者の好みに合わせた合成画像を作成することができる。   According to this configuration, the position selection unit selects a new second image pasting position by the composite image generation unit. For this reason, the user can paste the second image at a desired position of the first image, and a composite image that matches the user's preference can be created.

また、本発明は、合成画像生成手段が、新たな第2画像を元の第2画像と重なる位置に貼り付けることを特徴とする。   In addition, the present invention is characterized in that the composite image generation means pastes a new second image at a position overlapping the original second image.

本構成によれば、合成画像生成手段により、新たな第2画像が元の第2画像と重なる位置に貼り付けられる。このため、新たな第2画像を元の第2画像の位置に記録することができ、全体の雰囲気における撮影対象物の位置関係を損なわないで、迫力ある第2画像を表現することができる。   According to this configuration, the new second image is pasted at a position overlapping the original second image by the composite image generation unit. Therefore, a new second image can be recorded at the position of the original second image, and a powerful second image can be expressed without impairing the positional relationship of the object to be photographed in the entire atmosphere.

また、本発明は、合成画像生成手段が、新たな第2画像を元の第2画像と重ならない位置に貼り付けることを特徴とする。   Further, the present invention is characterized in that the composite image generating means pastes the new second image at a position that does not overlap the original second image.

本構成によれば、合成画像生成手段により、新たな第2画像が元の第2画像と重ならない位置に貼り付けられる。このため、拡大された新たな第2画像および拡大される前の元の第2画像を比較してみることができて、便利である。   According to this configuration, the new second image is pasted at a position that does not overlap the original second image by the composite image generation unit. For this reason, it is convenient to compare the new enlarged second image and the original second image before being enlarged.

本発明による撮影装置によれば、上記のように、従来のように、第1画像と、画角が異なる第2画像との2枚の画像を、別々の画像として記録しておく必要もなく、互いに画角の異なる第1画像および第2画像を1枚の合成画像として記録することができて便利である。また、広角側の、全体の雰囲気を表現する画像と、望遠側の、被写体の迫力ある様子を表現する画像とを1枚の画像で表現することができるため、従来の1枚ずつの画像の撮影では得られない新たな画像を作成することが可能である。   According to the photographing apparatus of the present invention, as described above, there is no need to record the two images of the first image and the second image having different angles of view as separate images as in the prior art. It is convenient that the first image and the second image having different angles of view can be recorded as one composite image. In addition, since the image representing the overall atmosphere on the wide-angle side and the image representing the powerful state of the subject on the telephoto side can be represented by a single image, It is possible to create a new image that cannot be obtained by shooting.

本発明の一実施の形態によるデジタルカメラの背面図である。1 is a rear view of a digital camera according to an embodiment of the present invention. 図1に示すデジタルカメラの電気回路構成の概略を示すブロック図である。It is a block diagram which shows the outline of the electric circuit structure of the digital camera shown in FIG. 図1に示すデジタルカメラのCPUによって行われる合成画像生成処理の概略を示すフローチャートである。2 is a flowchart showing an outline of a composite image generation process performed by a CPU of the digital camera shown in FIG. 図3に示す合成画像生成処理においてモニタに表示される画面を示す図である。It is a figure which shows the screen displayed on a monitor in the synthesized image generation process shown in FIG. 図1に示すデジタルカメラのターゲット自動追尾機能により合成画像を生成する処理の概略を示すフローチャートである。2 is a flowchart showing an outline of processing for generating a composite image by a target automatic tracking function of the digital camera shown in FIG. 1. 図5に示す自動追尾機能により合成画像を生成する処理において、モニタに表示される画面を示す図である。It is a figure which shows the screen displayed on a monitor in the process which produces | generates a synthesized image by the automatic tracking function shown in FIG. 図1に示すデジタルカメラの顔認識機能により合成画像を生成する処理の概略を示すフローチャートである。2 is a flowchart showing an outline of processing for generating a composite image by the face recognition function of the digital camera shown in FIG. 1. 図7に示す顔認識機能により合成画像を生成する処理において、モニタに表示される画面を示す図である。It is a figure which shows the screen displayed on a monitor in the process which produces | generates a synthesized image by the face recognition function shown in FIG.

次に、本発明による撮影装置をデジタルカメラに適用した場合の一実施の形態について説明する。   Next, an embodiment in which the photographing apparatus according to the present invention is applied to a digital camera will be described.

図1は、この一実施の形態によるデジタルカメラ1の背面図である。   FIG. 1 is a rear view of a digital camera 1 according to this embodiment.

撮影装置を構成するデジタルカメラ1の筐体1aの上部には、被写体を撮影する際に操作されるレリーズボタン2が設けられている。レリーズボタン2は、半押しされるとオートフォーカス(Auto Focus)機能を作動させ、全押しされると予め設定されたシャッター速度でシャッターを開かせ、被写体像を所定時間露光させて被写体の撮影を行わせる。筐体1aの背面にはモニタ3が設けられている。モニタ3は、TFT(Thin Film Transistor)液晶からなる。   A release button 2 that is operated when photographing a subject is provided on an upper portion of the casing 1a of the digital camera 1 constituting the photographing apparatus. When the release button 2 is pressed halfway, the auto focus function is activated. When the release button 2 is fully pressed, the shutter is opened at a preset shutter speed, and the subject image is exposed for a predetermined time to shoot the subject. Let it be done. A monitor 3 is provided on the back of the housing 1a. The monitor 3 is made of a TFT (Thin Film Transistor) liquid crystal.

モニタ3の右側には、ズームボタン4、および十字ボタン5が配置されている。ズームボタン4は、モニタ3に表示される撮影画像を拡大、縮小表示させる際などに操作される。十字ボタン5は、上下方向および左右方向といった操作方向を検出する方向キーからなり、デジタルカメラ1の各種設定を行うメニュー画面において、種々の設定項目の中から所望の設定項目を選択する際に操作される。十字ボタン5の内側には決定ボタン6が設けられている。決定ボタン6は、十字ボタン5の操作によって選択された所望の設定項目を決定する際などに操作される。   On the right side of the monitor 3, a zoom button 4 and a cross button 5 are arranged. The zoom button 4 is operated when the captured image displayed on the monitor 3 is enlarged or reduced. The cross button 5 includes direction keys for detecting operation directions such as up and down directions and left and right directions, and is operated when a desired setting item is selected from various setting items on a menu screen for performing various settings of the digital camera 1. Is done. An enter button 6 is provided inside the cross button 5. The determination button 6 is operated when determining a desired setting item selected by operating the cross button 5.

図2は、図1に示すデジタルカメラ1の電気回路構成の概略を示すブロック図である。なお、同図において図1と同一部分には同一符号を付して説明する。   FIG. 2 is a block diagram showing an outline of an electric circuit configuration of the digital camera 1 shown in FIG. In the figure, the same parts as those in FIG.

デジタルカメラ1は、CPU(Central Processing Unit)11、EEPROM(Electrically Erasable Programmable Read Only Memory)などで構成される不揮発性メモリ12、およびRAM(Random Access Memory)などで構成されるバッファメモリ13を備えている。不揮発性メモリ12には、CPU11が種々の制御を行う際に参照される制御プログラムなどが格納されている。CPU11は、不揮発性メモリ12に格納されている制御プログラムに従い、バッファメモリ13を一時記憶作業領域として回路各部の制御を行い、デジタルカメラ1の種々の装置機能を作動させる。   The digital camera 1 includes a CPU (Central Processing Unit) 11, a nonvolatile memory 12 including an EEPROM (Electrically Erasable Programmable Lead Only Memory), and a buffer memory 13 including a RAM (Random Access Memory). Yes. The nonvolatile memory 12 stores a control program that is referred to when the CPU 11 performs various controls. In accordance with a control program stored in the nonvolatile memory 12, the CPU 11 controls each part of the circuit using the buffer memory 13 as a temporary storage work area and operates various device functions of the digital camera 1.

被写体からの光は、光学系を構成するレンズ14を介してデジタルカメラ1内に取り込まれる。デジタルカメラ1内に取り込まれた被写体光は、撮像部15の撮像面15a上に被写体像を投影する。撮像部15は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などからなり、撮像部15の撮像面15a上に結像した被写体像は、アナログの撮像信号に変換される。変換された撮像信号は、A/D変換部16においてデジタル信号に変換される。画像処理部17は、A/D変換部16でデジタル信号に変換された撮像信号をバス18を介して取得し、取得した撮像信号に対して、ホワイトバランス処理やガンマ補正などの画像処理を行い、撮影された画像の画像データを生成する。画像処理部17によって生成された画像データは、CPU11により、圧縮処理が施されてバッファメモリ13に格納されると共に、I/F部19を介して、図示しないスロットに着脱されるメモリカード20に記録される。   Light from the subject is taken into the digital camera 1 through the lens 14 constituting the optical system. The subject light captured in the digital camera 1 projects a subject image on the imaging surface 15 a of the imaging unit 15. The imaging unit 15 includes a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), and the like, and a subject image formed on the imaging surface 15a of the imaging unit 15 is converted into an analog imaging signal. The converted image signal is converted into a digital signal by the A / D converter 16. The image processing unit 17 acquires the imaging signal converted into a digital signal by the A / D conversion unit 16 via the bus 18 and performs image processing such as white balance processing and gamma correction on the acquired imaging signal. The image data of the photographed image is generated. The image data generated by the image processing unit 17 is compressed by the CPU 11 and stored in the buffer memory 13, and is also stored in a memory card 20 that is attached to and detached from a slot (not shown) via the I / F unit 19. To be recorded.

レンズ14および撮像部15は、図4において後述するように、第2画像24を含む第1画像23(図4(a)参照)を取得する第1画像取得手段を構成する。また、CPU11は、第1画像23と画角が異なる新たな第2画像24a(図4(e)参照)を、元の第2画像24を基にして、電子的処理によって画像を拡大または縮小する電子ズーム機能によって取得する第2画像取得手段を構成する。また、CPU11は、図4(b)において後述するように、第2画像24に内枠21を設定する枠設定手段を構成する。第2画像取得手段は、枠設定手段で設定された内枠21内の第2画像24を所定の倍率で拡大した画像を新たな第2画像24aとして取得する。本実施形態では、CPU11は、図4において後述するように、使用者のズームボタン4および十字ボタン5の操作に応じて内枠21を設定する。また、CPU11は、第1画像23に新たな第2画像24aを貼り付けた1枚の合成画像25(図4(e)参照)を生成する合成画像生成手段と、合成画像生成手段によって生成された1枚の合成画像25をメモリカード20に記録する記録手段とを構成する。本実施形態では、CPU11は、第2画像24aを元の第2画像24と重なる位置に貼り付ける(図4(a)、(e)参照)。   As will be described later with reference to FIG. 4, the lens 14 and the imaging unit 15 constitute a first image acquisition unit that acquires a first image 23 (see FIG. 4A) including the second image 24. Further, the CPU 11 enlarges or reduces the image by electronic processing based on the original second image 24 based on the new second image 24a (see FIG. 4E) having a different angle of view from the first image 23. A second image acquisition unit configured to acquire the electronic zoom function. Further, as will be described later with reference to FIG. 4B, the CPU 11 constitutes a frame setting unit that sets the inner frame 21 in the second image 24. The second image acquisition unit acquires an image obtained by enlarging the second image 24 in the inner frame 21 set by the frame setting unit with a predetermined magnification as a new second image 24a. In the present embodiment, the CPU 11 sets the inner frame 21 according to the operation of the zoom button 4 and the cross button 5 by the user, as will be described later with reference to FIG. The CPU 11 is generated by a composite image generation unit that generates a single composite image 25 (see FIG. 4E) in which a new second image 24a is pasted on the first image 23, and a composite image generation unit. And a recording unit for recording the single composite image 25 on the memory card 20. In the present embodiment, the CPU 11 pastes the second image 24a at a position overlapping the original second image 24 (see FIGS. 4A and 4E).

CPU11には、図2に示すように、上述したレリーズボタン2、ズームボタン4、十字ボタン5および決定ボタン6が操作部7として接続されており、使用者により操作部7を構成するレリーズボタン2が操作されると、撮像部15に被写体光が露光されて、被写体像の撮像信号が生成される。上述したモニタ3には、撮像部15の撮像面15aで撮像される被写体像がスルー画像として表示され、撮影者はこのスルー画像で構図を確認する。   As shown in FIG. 2, the release button 2, the zoom button 4, the cross button 5, and the determination button 6 described above are connected to the CPU 11 as an operation unit 7, and the release button 2 constituting the operation unit 7 by the user. Is operated, the subject light is exposed to the imaging unit 15 and an imaging signal of the subject image is generated. On the monitor 3 described above, a subject image captured by the imaging surface 15a of the imaging unit 15 is displayed as a through image, and the photographer confirms the composition using the through image.

図3は、CPU11によって行われる合成画像生成処理の概略を示すフローチャートである。図4は、図3に示す合成画像生成処理においてモニタ3に表示される画面を示す図である。   FIG. 3 is a flowchart showing an outline of the composite image generation process performed by the CPU 11. FIG. 4 is a diagram showing a screen displayed on the monitor 3 in the composite image generation process shown in FIG.

CPU11は、ステップ(以下、Sと記す)1において、図4(a)に示すようなスルー画像がモニタ3に表示されている撮影可能状態で、決定ボタン6が押されたか否かを判別する。このスルー画像には、被写体A、B、Cからなる第1画像23が表示されており、第1画像23は被写体Bからなる第2画像24を含んでいる。決定ボタン6が押されず、S1の判別が“NO”の場合、CPU11は、決定ボタン6が押されるまで待機する。   In step (hereinafter referred to as “S”) 1, the CPU 11 determines whether or not the decision button 6 has been pressed while the through image as shown in FIG. 4A is displayed on the monitor 3. . In this through image, a first image 23 composed of subjects A, B, and C is displayed, and the first image 23 includes a second image 24 composed of subject B. If the determination button 6 is not pressed and the determination in S1 is “NO”, the CPU 11 waits until the determination button 6 is pressed.

一方、決定ボタン6が押されて、S1の判別が“YES”の場合、CPU11は、モニタ3に、図4(b)に示すように内枠21および外枠22を表示する。内枠21は、拡大表示させる第2画像24のトリミング領域を規定し、外枠22は、内枠21によって規定された第2画像24のトリミング領域が拡大される領域を規定する。モニタ3に最初に表示される内枠21および外枠22の大きさ、位置は、デフォルトで設定されており、またはメニュー画面の操作により使用者によって設定される。デフォルトでは、モニタ3に最初に表示される内枠21は、例えば、画面中央の被写体Bの位置に被写体Bを囲う大きさに設定され、また、外枠22は、内枠21の中心と一致する位置に、内枠21の大きさの所定倍の大きさ、例えば2倍に設定される。次に、CPU11は、S3において、内枠21を設定変更対象として選択し、図4(b)に示すように内枠21を点線で表示する。CPU11は、S4において、ズームボタン4が押されたか否かを判別する。ズームボタン4が押されて、S4の判別が“YES”の場合、CPU11は、S5において、ズームボタン4の操作に応じて、図4(b)の内枠21の角にある矢印aに示されるように、内枠21を拡大または縮小させる。S5の処理の後、または、ズームボタン4が押されず、S4の判別が“NO”の場合、CPU11は、S6において、十字ボタン5が押されたか否かを判別する。十字ボタン5が押されて、S6の判別が“YES”の場合、CPU11は、S7において、十字ボタン5の操作に応じてモニタ3に表示されている内枠21を、図4(b)に示されるように内枠21の上下左右方向にある矢印bのいずれかの方向へ、移動させる。S7の処理の後、または、十字ボタン5が押されず、S6の判別が“NO”の場合、CPU11は、S8において、決定ボタン6が押されたか否かを判別する。決定ボタン6が押されず、S8の判別が“NO”の場合、CPU11は、S4の処理に戻る。一方、決定ボタン6が押されて、S8の判別が“YES”の場合、CPU11は、ズームボタン4および十字ボタン5によって設定された大きさ、位置に、内枠21を図4(c)の実線に示すように決定する。   On the other hand, when the determination button 6 is pressed and the determination in S1 is “YES”, the CPU 11 displays the inner frame 21 and the outer frame 22 on the monitor 3 as shown in FIG. The inner frame 21 defines a trimming area of the second image 24 to be enlarged and the outer frame 22 defines an area where the trimming area of the second image 24 defined by the inner frame 21 is enlarged. The size and position of the inner frame 21 and the outer frame 22 that are initially displayed on the monitor 3 are set by default or set by the user by operating the menu screen. By default, the inner frame 21 displayed first on the monitor 3 is set to a size that surrounds the subject B at the position of the subject B in the center of the screen, and the outer frame 22 matches the center of the inner frame 21. The position is set to a predetermined size, for example, twice the size of the inner frame 21. Next, in S3, the CPU 11 selects the inner frame 21 as a setting change target, and displays the inner frame 21 with a dotted line as shown in FIG. In S4, the CPU 11 determines whether or not the zoom button 4 has been pressed. When the zoom button 4 is pressed and the determination in S4 is “YES”, the CPU 11 indicates in S5 the arrow a at the corner of the inner frame 21 in FIG. 4B in accordance with the operation of the zoom button 4. As shown, the inner frame 21 is enlarged or reduced. After the process of S5 or when the zoom button 4 is not pressed and the determination of S4 is “NO”, the CPU 11 determines whether or not the cross button 5 is pressed in S6. When the cross button 5 is pressed and the determination in S6 is “YES”, the CPU 11 displays the inner frame 21 displayed on the monitor 3 according to the operation of the cross button 5 in S7 in FIG. As shown, the inner frame 21 is moved in any direction of the arrow b in the vertical and horizontal directions. After the process of S7 or when the cross button 5 is not pressed and the determination of S6 is “NO”, the CPU 11 determines whether or not the determination button 6 is pressed in S8. If the determination button 6 is not pressed and the determination in S8 is “NO”, the CPU 11 returns to the process of S4. On the other hand, when the determination button 6 is pressed and the determination in S8 is “YES”, the CPU 11 places the inner frame 21 at the size and position set by the zoom button 4 and the cross button 5 as shown in FIG. Determine as shown by the solid line.

次に、CPU11は、S9において、外枠22を設定変更対象として選択し、図4(c)に示すように外枠22を点線で表示する。次に、CPU11は、S10において、ズームボタン4が押されたか否かを判別する。ズームボタン4が押されて、S10の判別が“YES”の場合、CPU11は、ズームボタン4の操作に応じて、図4(c)の外枠22の角にある矢印aに示されるように、外枠22を拡大または縮小させる。S11の処理の後、または、ズームボタン4が押されず、S10の判別が“NO”の場合、CPU11は、S12において、十字ボタン5が押されたか否かを判別する。十字ボタン5が押されて、S12の判別が“YES”の場合、CPU11は、S13において、十字ボタン5の操作に応じてモニタ3に表示されている外枠22を、図4(c)に示されるように外枠22の上下左右方向にある矢印bのいずれかの方向へ、移動させる。この際、内枠21は、外枠22の移動に連動して、各枠21、22 の中心が一致するように移動する。S13の処理の後、または、十字ボタン5が押されず、S12の判別が“NO”の場合、CPU11は、S14において、決定ボタン6が押されたか否かを判別する。決定ボタン6が押されず、S14の判別が“NO”の場合、CPU11は、S10の処理に戻る。一方、決定ボタン6が押されて、S14の判別が“YES”の場合、CPU11は、ズームボタン4および十字ボタン5によって設定された大きさ、位置に、外枠22を図4(d)の実線に示すように決定する。   Next, in S9, the CPU 11 selects the outer frame 22 as a setting change target, and displays the outer frame 22 with a dotted line as shown in FIG. Next, in S10, the CPU 11 determines whether or not the zoom button 4 has been pressed. When the zoom button 4 is pressed and the determination in S10 is “YES”, the CPU 11 responds to the operation of the zoom button 4 as indicated by the arrow a at the corner of the outer frame 22 in FIG. The outer frame 22 is enlarged or reduced. After the process of S11 or when the zoom button 4 is not pressed and the determination in S10 is “NO”, the CPU 11 determines in S12 whether or not the cross button 5 has been pressed. When the cross button 5 is pressed and the determination in S12 is “YES”, the CPU 11 displays the outer frame 22 displayed on the monitor 3 in response to the operation of the cross button 5 in S13 in FIG. As shown in the drawing, the outer frame 22 is moved in any direction of the arrow b in the vertical and horizontal directions. At this time, the inner frame 21 moves so that the centers of the frames 21 and 22 coincide with the movement of the outer frame 22. After the process of S13 or when the cross button 5 is not pressed and the determination of S12 is “NO”, the CPU 11 determines whether or not the determination button 6 is pressed in S14. If the determination button 6 is not pressed and the determination in S14 is “NO”, the CPU 11 returns to the process of S10. On the other hand, when the determination button 6 is pressed and the determination in S14 is “YES”, the CPU 11 places the outer frame 22 in the size and position set by the zoom button 4 and the cross button 5 as shown in FIG. Determine as shown by the solid line.

次に、CPU11は、S15において、レリーズボタン2が押されたか否かを判別する。レリーズボタン2が押されず、S14の判別が“NO”の場合、CPU11は、レリーズボタン2が押されるまで待機する。一方、レリーズボタン2が押されて、S15の判別が“YES”の場合、CPU11は、S16において、内枠21で規定された第2画像24をデジタルカメラ1の電子ズーム機能により、図4(e)に示すように外枠22まで拡大して、新たな第2画像24aを生成する。そして、新たな第2画像24aを第1画像23に貼り付けて、図4(e)に示すように新たな第2画像24aを第1画像23に含む合成画像25を生成し、メモリカード20に記録する。   Next, the CPU 11 determines whether or not the release button 2 has been pressed in S15. If the release button 2 is not pressed and the determination in S14 is “NO”, the CPU 11 waits until the release button 2 is pressed. On the other hand, when the release button 2 is pressed and the determination in S15 is “YES”, the CPU 11 uses the electronic zoom function of the digital camera 1 to display the second image 24 defined by the inner frame 21 in S16 as shown in FIG. As shown to e), it expands to the outer frame 22, and the new 2nd image 24a is produced | generated. Then, the new second image 24a is pasted on the first image 23 to generate a composite image 25 including the new second image 24a in the first image 23 as shown in FIG. To record.

このような本実施形態によるデジタルカメラ1によれば、合成画像生成手段により、第1画像23に画角が異なる新たな第2画像24aが貼り付けられた1枚の合成画像25が生成され、記録手段により、合成画像生成手段によって生成された1枚の合成画像25がメモリカード20に記録される。このため、従来のように、第1画像23と、画角が異なる第2画像24aとの2枚の画像を、別々の画像として記録しておく必要もなく、互いに画角の異なる第1画像23および第2画像24aを1枚の合成画像25として記録することができて便利である。また、広角側の、全体の雰囲気を表現する第1画像23と、望遠側の、被写体Bの迫力ある様子を表現する新たな第2画像24aとを1枚の合成画像25で表現することができるため、従来の1枚ずつの画像の撮影では得られない新たな画像を作成することが可能である。   According to such a digital camera 1 according to the present embodiment, the composite image generation unit generates a single composite image 25 in which a new second image 24a having a different angle of view is pasted on the first image 23, The recording means records one composite image 25 generated by the composite image generation means on the memory card 20. For this reason, unlike the prior art, there is no need to record two images of the first image 23 and the second image 24a having different angles of view as separate images, and the first images having different angles of view. 23 and the second image 24a can be recorded as one composite image 25, which is convenient. In addition, the first image 23 representing the entire atmosphere on the wide angle side and the new second image 24a representing the powerful state of the subject B on the telephoto side can be represented by one composite image 25. Therefore, it is possible to create a new image that cannot be obtained by conventional imaging of each image.

また、本実施形態によるデジタルカメラ1によれば、第2画像取得手段により、枠設定手段で設定された内枠21内の第2画像24を所定の倍率で拡大した画像が新たな第2画像24aとして取得され、合成画像生成手段によって第1画像23に貼り付けられて1枚の合成画像25が生成される。このため、使用者は、枠設定手段で設定された内枠21から、第1画像23と画角が異なる、所定の倍率で拡大される第2画像24の内容を把握することが可能である。   Further, according to the digital camera 1 according to the present embodiment, an image obtained by enlarging the second image 24 in the inner frame 21 set by the frame setting unit at a predetermined magnification by the second image acquisition unit is a new second image. 24a and pasted on the first image 23 by the composite image generation means to generate one composite image 25. For this reason, the user can grasp the contents of the second image 24 that is different in angle of view from the first image 23 and enlarged at a predetermined magnification, from the inner frame 21 set by the frame setting means. .

また、本実施形態によるデジタルカメラ1によれば、枠設定手段により、使用者のズームボタン4および十字ボタン5の操作に応じて、所定の倍率で拡大されて第1画像23に貼り付けられる第2画像24の枠の位置、大きさ等が設定される。このため、使用者の好みに合わせた合成画像25を作成することができる。   Further, according to the digital camera 1 according to the present embodiment, the frame setting means enlarges the image at a predetermined magnification and pastes it on the first image 23 according to the operation of the zoom button 4 and the cross button 5 by the user. The position and size of the frame of the two images 24 are set. Therefore, it is possible to create the composite image 25 that matches the user's preference.

また、本実施形態によるデジタルカメラ1によれば、合成画像生成手段により、新たな第2画像24a(図4(e)参照)を元の第2画像24(図4(a)参照)と重なる位置に貼り付けることにより、合成画像25(図4(e)参照)が生成される。このため、新たな第2画像24aを元の第2画像24の位置に記録することができ、全体の雰囲気における撮影対象物の位置関係を損なわないで、迫力ある第2画像24aを表現することができる。   Further, according to the digital camera 1 according to the present embodiment, the new second image 24a (see FIG. 4E) is overlapped with the original second image 24 (see FIG. 4A) by the composite image generating unit. By pasting at the position, a composite image 25 (see FIG. 4E) is generated. Therefore, a new second image 24a can be recorded at the position of the original second image 24, and the powerful second image 24a can be expressed without losing the positional relationship of the object to be photographed in the entire atmosphere. Can do.

なお、本実施形態において、合成画像生成手段により、新たな第2画像24aを元の第2画像24と重ならない位置に貼り付けることにより合成画像25が生成される構成であってもよい。この構成によれば、拡大された新たな第2画像24aおよび拡大される前の元の第2画像24を比較してみることができて、便利である。   In the present embodiment, the composite image 25 may be generated by pasting the new second image 24 a at a position that does not overlap the original second image 24 by the composite image generation unit. According to this configuration, the new enlarged second image 24a and the original second image 24 before being enlarged can be compared, which is convenient.

また、CPU11および十字ボタン5により、合成画像生成手段による新たな第2画像24aの貼り付け位置を選択する位置選択手段を構成するようにしてもよい。この構成によれば、位置選択手段により、合成画像生成手段による新たな第2画像24aの貼り付け位置が選択されるため、使用者が第1画像23の所望の位置に第2画像24aを貼り付けることができ、使用者の好みに合わせた合成画像25を作成することができる。   Further, the CPU 11 and the cross button 5 may constitute position selection means for selecting a position where the new second image 24a is pasted by the composite image generation means. According to this configuration, the position selection unit selects the pasting position of the new second image 24 a by the composite image generation unit, so that the user pastes the second image 24 a on the desired position of the first image 23. The composite image 25 can be created according to the user's preference.

また、本実施形態のデジタルカメラ1は、電子ズーム機能を備え、第1画像23と画角が異なる新たな第2画像24aを、元の第2画像24を基にして、取得する構成であった。しかし、デジタルカメラ1がレンズ14を移動させて撮影画像を拡大または縮小させる光学ズーム機能を備え、第1画像23と画角が異なる新たな第2画像24aを、第1画像取得手段により元の第2画像24の取得タイミングとほぼ同じタイミングで、取得する構成であってもよい。つまり、第1画像23の撮影とほぼ同じタイミングで光学ズームにより第1画像23と画角が異なる第2画像24aの撮影を行い、第1画像23に第2画像24aを貼り付けて1枚の合成画像25が生成されるようにしてもよい。   In addition, the digital camera 1 according to the present embodiment has an electronic zoom function, and acquires a new second image 24 a having a different angle of view from the first image 23 based on the original second image 24. It was. However, the digital camera 1 has an optical zoom function for enlarging or reducing the photographed image by moving the lens 14, and a new second image 24a having a field angle different from that of the first image 23 is obtained by the first image acquisition unit. The configuration may be such that the second image 24 is acquired at substantially the same timing as the acquisition timing of the second image 24. That is, the second image 24a having a different angle of view from the first image 23 is shot by optical zoom at almost the same timing as the shooting of the first image 23, and the second image 24a is pasted on the first image 23 to obtain one sheet. A composite image 25 may be generated.

また、本実施形態では、モニタ3に表示される内枠21と外枠22の形状は矩形であったが、この形に限らず、他の形状、例えば、丸や三角形やハートの形状などであってもよい。   In the present embodiment, the shapes of the inner frame 21 and the outer frame 22 displayed on the monitor 3 are rectangular. However, the shape is not limited to this shape, and other shapes such as a circle, a triangle, and a heart shape are also possible. There may be.

また、本実施形態では、モニタ3に表示される外枠22の形状は、内枠21の拡大相似形状であったが、外枠22の形状はこの形状に限らず、内枠21と異なる形状であってもよい。例えば、内枠21が長方形で、外枠22が三角形やハートの形状等でもよい。この場合、内枠21内の画像が外枠22の形状に合わせて拡大されたりする。   In the present embodiment, the shape of the outer frame 22 displayed on the monitor 3 is an enlarged similar shape of the inner frame 21, but the shape of the outer frame 22 is not limited to this shape, and is a shape different from the inner frame 21. It may be. For example, the inner frame 21 may be a rectangle, and the outer frame 22 may be a triangle or a heart shape. In this case, the image in the inner frame 21 is enlarged according to the shape of the outer frame 22.

また、デジタルカメラ1のモニタ3がタッチパネルからなり、このタッチパネル上で、十字ボタン5を用いずに、ペン等を用いて、またはタッチ操作で、外枠22と内枠21の形状を自由に決定できる構成であってもよい。   In addition, the monitor 3 of the digital camera 1 includes a touch panel, and the shape of the outer frame 22 and the inner frame 21 is freely determined on the touch panel using a pen or the like without using the cross button 5 or by a touch operation. The structure which can be used may be sufficient.

また、本実施形態では、生成された合成画像25に表示される外枠22を線で表していたが、この線はなくてもよく、また、合成画像25とその背景画像との境界線をぼかしてもよい   In the present embodiment, the outer frame 22 displayed in the generated composite image 25 is represented by a line. However, this line may not be present, and a boundary line between the composite image 25 and the background image is represented. May blur

また、CPU11が、複数の被写体A、B、Cのそれぞれに対して外枠22、内枠21を表示し、使用者が十字ボタン5および決定ボタン6を操作することにより、これらの複数の外枠22、内枠21から特定の1つまたは複数の外枠22、内枠21を選択し、内枠21に表示された第2画像24を外枠22まで拡大した1つまたは複数の新たな第2画像24aを含む合成画像25が生成される構成であってもよい。   Further, the CPU 11 displays the outer frame 22 and the inner frame 21 for each of the plurality of subjects A, B, and C, and the user operates the cross button 5 and the determination button 6 so that the plurality of the outer frames 22 and the inner frame 21 are operated. One or more new outer frames 22 or inner frames 21 are selected from the frame 22 or inner frame 21 and the second image 24 displayed on the inner frame 21 is enlarged to the outer frame 22. The composition image 25 including the second image 24a may be generated.

また、本実施形態では、内枠21と外枠22が同時にモニタ3に表示される構成であったが、最初に内枠21のみをモニタ3に表示し、決定ボタン6が押されて内枠21の位置、大きさが決定された後に、初めてモニタ3に外枠22が表示される構成であってもよい。この構成によれば、設定変更対象となっている枠が内枠21であるか外枠22であるかを見誤まることがない。   In the present embodiment, the inner frame 21 and the outer frame 22 are displayed on the monitor 3 at the same time. However, only the inner frame 21 is displayed on the monitor 3 first, and the decision button 6 is pressed to display the inner frame. The configuration may be such that the outer frame 22 is displayed on the monitor 3 for the first time after the position and size of 21 are determined. According to this configuration, it is not mistaken whether the setting change target frame is the inner frame 21 or the outer frame 22.

また、最初にモニタ3に表示される内枠21、外枠22の位置は、デフォルトまたはメニュー画面の操作により、モニタ3の中央にある被写体Bに表示される構成であったが、例えば、左の被写体Aや右の被写体C等の位置であってもよい。また、最初に被写体Bに表示された内枠21、外枠22の位置を、その後の使用者の十字ボタン5の操作によって異なる被写体AまたはCに変更する構成としてもよい。   The positions of the inner frame 21 and the outer frame 22 that are initially displayed on the monitor 3 are configured to be displayed on the subject B in the center of the monitor 3 by default or menu screen operation. The subject A or the right subject C may be positioned. Alternatively, the positions of the inner frame 21 and the outer frame 22 that are initially displayed on the subject B may be changed to different subjects A or C by the subsequent operation of the cross button 5 by the user.

図5は、デジタルカメラ1のターゲット自動追尾機能により合成画像を生成する処理の概略を示すフローチャートである。図6は、図5に示す自動追尾機能により合成画像を生成する処理において、モニタ3に表示される画面を示す図である。   FIG. 5 is a flowchart showing an outline of processing for generating a composite image by the target automatic tracking function of the digital camera 1. FIG. 6 is a diagram showing a screen displayed on the monitor 3 in the process of generating a composite image by the automatic tracking function shown in FIG.

CPU11は、S21において、メニュー画面の設定などで、デジタルカメラ1にターゲット自動追尾機能が設定されたか否かを判別する。自動追尾機能が設定されず、S21の判別が“NO”の場合、CPU11は、自動追尾機能が設定されるまで待機する。一方、自動追尾機能が図6(a)に示すようなターゲット31に設定されて、S21の判別が“YES”の場合、CPU11は、S22において、ターゲット31を認識したか否かを判別する。ここで、ターゲット31の例としては、運動会などで走る子供等が挙げられる。ターゲット31を認識せず、S22の判別が“NO”の場合、CPU11は、ターゲット31を認識するまで待機する。一方、ターゲット31を認識し、S22の判別が“YES”の場合、CPU11は、S23において、ターゲット31の大きさ、動き量に合わせて、第2画像24を規定する内枠21、第2画像24が拡大される領域を規定する外枠22のそれぞれの大きさ、位置を決定する。次に、CPU11は、S24において、図6(a)に示すように、モニタ3に、内枠21、外枠22をS23で決定した大きさ、位置に表示する。   In S21, the CPU 11 determines whether or not the target automatic tracking function is set in the digital camera 1 by setting the menu screen or the like. If the automatic tracking function is not set and the determination in S21 is “NO”, the CPU 11 waits until the automatic tracking function is set. On the other hand, when the automatic tracking function is set to the target 31 as shown in FIG. 6A and the determination in S21 is “YES”, the CPU 11 determines whether or not the target 31 is recognized in S22. Here, as an example of the target 31, a child or the like running at an athletic meet or the like can be cited. If the target 31 is not recognized and the determination in S22 is “NO”, the CPU 11 waits until the target 31 is recognized. On the other hand, if the target 31 is recognized and the determination in S22 is “YES”, the CPU 11 determines in S23 the inner frame 21 that defines the second image 24 in accordance with the size and the amount of movement of the target 31, the second image. The size and position of each of the outer frames 22 that define the area where 24 is enlarged are determined. Next, in S24, as shown in FIG. 6A, the CPU 11 displays the inner frame 21 and the outer frame 22 on the monitor 3 at the size and position determined in S23.

次に、CPU11は、S25において、ターゲット31が移動したか否かを判別する。ターゲット31が移動してS25の判別が“YES”の場合、CPU11は、S26において、自動追尾機能に連動し、ターゲット31の新たな動きに合わせて内枠21、外枠22の大きさ、位置を決定する。次に、CPU11は、S27において、図6(b)、(c)に示すように、内枠21、外枠22をターゲット31の動きに合わせて表示する。この際、内枠21と外枠22の各中心が一致するように各枠21、22を表示する。S27の処理の後、または、ターゲット31が移動せず、S25の判別が“NO”の場合、CPU11は、S28において、レリーズボタン2が押されたか否かを判別する。レリーズボタン2が押されず、S28の判別が“NO”の場合、CPU11は、S25の処理に戻る。一方、レリーズボタン2が押されてS28の判別が“YES”の場合、CPU11は、S29において、内枠21で規定された第2画像24を外枠22まで拡大して、新たな第2画像24aを生成する。そして、新たな第2画像24aを第1画像23に貼り付けて、図6(d)に示すように新たな第2画像24aを第1画像23に含む合成画像26を生成し、メモリカード20に記録する。   Next, in S25, the CPU 11 determines whether or not the target 31 has moved. When the target 31 moves and the determination in S25 is “YES”, the CPU 11 is linked to the automatic tracking function in S26, and the size and position of the inner frame 21 and the outer frame 22 in accordance with the new movement of the target 31. To decide. Next, in S <b> 27, the CPU 11 displays the inner frame 21 and the outer frame 22 in accordance with the movement of the target 31 as shown in FIGS. 6B and 6C. At this time, the frames 21 and 22 are displayed so that the centers of the inner frame 21 and the outer frame 22 coincide. After the process of S27 or when the target 31 does not move and the determination of S25 is “NO”, the CPU 11 determines whether or not the release button 2 has been pressed in S28. If the release button 2 is not pressed and the determination in S28 is “NO”, the CPU 11 returns to the process of S25. On the other hand, when the release button 2 is pressed and the determination in S28 is “YES”, the CPU 11 enlarges the second image 24 defined by the inner frame 21 to the outer frame 22 in S29, and creates a new second image. 24a is generated. Then, the new second image 24a is pasted on the first image 23 to generate a composite image 26 including the new second image 24a in the first image 23 as shown in FIG. To record.

図7は、デジタルカメラ1の顔認識機能により合成画像を生成する処理の概略を示すフローチャートである。図8は、図7に示す顔認識機能により合成画像を生成する処理において、モニタ3に表示される画面を示す図である。   FIG. 7 is a flowchart showing an outline of processing for generating a composite image by the face recognition function of the digital camera 1. FIG. 8 is a diagram showing a screen displayed on the monitor 3 in the process of generating a composite image by the face recognition function shown in FIG.

CPU11は、S31において、メニュー画面の設定などで、デジタルカメラ1に顔認識機能が設定されたか否かを判別する。顔認識機能が設定されず、S31の判別が“NO”の場合、CPU11は、顔認識機能が設定されるまで待機する。一方、顔認識機能が設定されて、S31の判別が“YES”の場合、CPU11は、S32において、顔認識機能により顔を認識したか否かを判別する。顔認識機能により顔を認識せず、S32の判別が“NO”の場合、CPU11は、顔認識機能により顔を認識するまで待機する。一方、顔認識機能により顔を認識してS32の判別が“YES”の場合、CPU11は、S33において、図8(a)に示すように顔認識枠41をモニタ3に表示する。次に、CPU11は、S34において、図8(b)に示すようにスルー画像に、第2画像24を規定する内枠21、第2画像24が拡大される領域を規定する外枠22を、顔認識枠41の大きさ、位置に応じて表示する。ここで、CPU11は、複数の顔を認識した場合、予め決められた基準となる被写体、例えば、一番顔の大きな被写体や画面中央に最も近い被写体に、顔認識枠41、内枠21、および外枠22を表示する。次に、CPU11は、S35において、レリーズボタン2が押されたか否かを判別する。レリーズボタン2が押されず、S35の判別が“NO”の場合、CPU11は、レリーズボタン2が押されるまで待機する。一方、レリーズボタン2が押され、S35の判別が“YES”の場合、CPU11は、S36において、内枠21に規定された第2画像24を外枠22まで拡大した新たな第2画像24aを図8(e)に示すように含む合成画像27を生成し、メモリカード20に記録する。   In S31, the CPU 11 determines whether or not the face recognition function is set in the digital camera 1 by setting the menu screen or the like. If the face recognition function is not set and the determination in S31 is “NO”, the CPU 11 stands by until the face recognition function is set. On the other hand, when the face recognition function is set and the determination in S31 is “YES”, the CPU 11 determines in S32 whether or not a face has been recognized by the face recognition function. If the face is not recognized by the face recognition function and the determination in S32 is “NO”, the CPU 11 waits until the face is recognized by the face recognition function. On the other hand, if the face is recognized by the face recognition function and the determination in S32 is “YES”, the CPU 11 displays the face recognition frame 41 on the monitor 3 in S33 as shown in FIG. Next, in S34, as shown in FIG. 8B, the CPU 11 includes, in the through image, an inner frame 21 that defines the second image 24 and an outer frame 22 that defines an area where the second image 24 is enlarged. Displayed according to the size and position of the face recognition frame 41. Here, when the CPU 11 recognizes a plurality of faces, the face recognition frame 41, the inner frame 21, and the subject that is a predetermined reference, for example, the subject with the largest face or the subject closest to the center of the screen, The outer frame 22 is displayed. Next, in S35, the CPU 11 determines whether or not the release button 2 has been pressed. If the release button 2 is not pressed and the determination in S35 is “NO”, the CPU 11 waits until the release button 2 is pressed. On the other hand, if the release button 2 is pressed and the determination in S35 is "YES", the CPU 11 displays a new second image 24a obtained by enlarging the second image 24 defined in the inner frame 21 up to the outer frame 22 in S36. As shown in FIG. 8E, a composite image 27 is generated and recorded in the memory card 20.

上述した図5に示す自動追尾機能に連動する合成画像生成処理、図7に示す顔認識機能に連動する合成画像生成処理によっても、上述した実施形態と同様な作用、効果が奏される。   The same operations and effects as those of the above-described embodiment can also be achieved by the above-described composite image generation process linked to the automatic tracking function shown in FIG. 5 and the composite image generation process linked to the face recognition function shown in FIG.

また、上述した図5および図7に示す合成画像生成処理によれば、撮影対象物が動いても、枠設定手段が自動的に撮影対象物の動きに合わせて撮影対象物に対する内枠21および外枠22を設定する。このため、使用者がわざわざ手動で撮影対象物の動きに合わせて内枠21および外枠22を設定する面倒な作業も必要なく、撮影対象物を第2画像24として撮影する際の利便性が向上する。   Further, according to the composite image generation process shown in FIGS. 5 and 7 described above, even if the object to be photographed moves, the frame setting means automatically adjusts the inner frame 21 for the object to be photographed according to the movement of the object to be photographed The outer frame 22 is set. For this reason, there is no need for the user to manually set the inner frame 21 and the outer frame 22 in accordance with the movement of the object to be photographed, which is convenient for photographing the object to be photographed as the second image 24. improves.

また、上述した図5および図7に示す合成画像生成処理において、自動的に表示される外枠22の大きさは、メニュー画面で、事前に大きさ自体を設定することにより、また、第2画像24aの記録画素数を指定することにより、決定される構成であってもよい。また、記録画素数によらず、第1画像23の解像度、つまりフル解像度に対する所定の割合、例えば50%に指定することにより、決定される構成であってもよい。   In the composite image generation process shown in FIGS. 5 and 7 described above, the size of the outer frame 22 displayed automatically can be set by setting the size itself in advance on the menu screen. The configuration may be determined by designating the number of recording pixels of the image 24a. Moreover, the structure determined by designating to the resolution of the 1st image 23, ie, the predetermined ratio with respect to full resolution, for example, 50%, irrespective of the number of recording pixels.

また、第2画像24として捉える撮影対象物は、上述した図5の合成画像生成処理ではターゲット31、図7の合成画像生成処理では被写体の顔であった。しかし、撮影画像を複数の領域に分割、例えば25分割し、各分割領域の明るさを測定して、所定値以上の明るさを有する特定の分割領域、例えば、花火の撮影時における花火の広がっている領域などを、第2画像24として拡大して、第1画像23に貼り付けて合成画像を生成する構成であってもよい。   The object to be captured as the second image 24 is the target 31 in the above-described composite image generation process of FIG. 5 and the subject's face in the composite image generation process of FIG. However, the captured image is divided into a plurality of areas, for example, 25, and the brightness of each divided area is measured, and a specific divided area having brightness equal to or higher than a predetermined value, for example, the spread of fireworks at the time of shooting fireworks The area may be enlarged as the second image 24 and pasted on the first image 23 to generate a composite image.

上記実施形態においては、本発明の撮影装置をデジタルカメラに適用した場合について説明したが、ビデオカメラや、携帯電話機等に内蔵されるカメラ等のその他の撮影装置にも適用することが可能である。このような撮影装置に本発明を適用した場合においても、上記実施形態と同様な作用効果が奏される。   In the above embodiment, the case where the photographing apparatus of the present invention is applied to a digital camera has been described. However, the present invention can also be applied to other photographing apparatuses such as a video camera and a camera built in a mobile phone. . Even when the present invention is applied to such a photographing apparatus, the same effects as the above-described embodiment can be obtained.

1…デジタルカメラ
3…モニタ
11…CPU
14…レンズ
15…撮像部
20…メモリカード
21…内枠
22…外枠
23…第1画像
24…元の第2画像
24a…新たな第2画像
25、26、27…合成画像
31…ターゲット
41…顔認識枠
A、B、C…被写体
1 ... Digital camera 3 ... Monitor 11 ... CPU
DESCRIPTION OF SYMBOLS 14 ... Lens 15 ... Image pick-up part 20 ... Memory card 21 ... Inner frame 22 ... Outer frame 23 ... 1st image 24 ... Original 2nd image 24a ... New 2nd image 25, 26, 27 ... Composite image 31 ... Target 41 ... Face recognition frames A, B, C ... Subject

Claims (7)

第2画像を含む第1画像を取得する第1画像取得手段と、
前記第1画像と画角が異なる新たな前記第2画像を、元の前記第2画像を基にして、または、前記第1画像取得手段により元の前記第2画像の取得タイミングとほぼ同じタイミングで、取得する第2画像取得手段と、
前記第1画像に新たな前記第2画像を貼り付けた1枚の合成画像を生成する合成画像生成手段と、
前記合成画像生成手段によって生成された1枚の前記合成画像を記録する記録手段と
を備えた撮影装置。
First image acquisition means for acquiring a first image including a second image;
The new second image having a field angle different from that of the first image is based on the original second image or almost the same timing as the acquisition timing of the original second image by the first image acquisition unit. And second image acquisition means for acquiring,
A composite image generating means for generating one composite image in which the second image is pasted on the first image;
An imaging apparatus comprising: recording means for recording one piece of the composite image generated by the composite image generation means.
請求項1に記載の撮影装置において、
前記第2画像に枠を設定する枠設定手段を備え、
前記第2画像取得手段は、前記枠設定手段で設定された枠内の前記第2画像を所定の倍率で拡大した画像を新たな前記第2画像として取得する
ことを特徴とする撮影装置。
The imaging device according to claim 1,
Frame setting means for setting a frame on the second image;
The second image acquisition unit acquires an image obtained by enlarging the second image within the frame set by the frame setting unit at a predetermined magnification as a new second image.
請求項2に記載の撮影装置において、
前記枠設定手段は、使用者の操作に応じて枠を設定する
ことを特徴とする撮影装置。
The imaging device according to claim 2,
The frame setting means sets a frame according to a user's operation.
請求項2に記載の撮影装置において、
前記枠設定手段は、使用者の操作によらずに自動的に枠を設定する
ことを特徴とする撮影装置。
The imaging device according to claim 2,
The frame setting means automatically sets a frame regardless of a user's operation.
請求項1から請求項4のいずれか1項に記載の撮影装置において、
前記合成画像生成手段による新たな前記第2画像の貼り付け位置を選択する位置選択手段を備えた
ことを特徴とする撮影装置。
In the imaging device according to any one of claims 1 to 4,
An imaging apparatus comprising: a position selection unit that selects a new pasting position of the second image by the composite image generation unit.
請求項1から請求項4のいずれか1項に記載の撮影装置において、
前記合成画像生成手段は、新たな前記第2画像を元の前記第2画像と重なる位置に貼り付ける
ことを特徴とする撮影装置。
In the imaging device according to any one of claims 1 to 4,
The composite image generating means pastes the new second image at a position overlapping the original second image.
請求項1から請求項4のいずれか1項に記載の撮影装置において、
前記合成画像生成手段は、新たな前記第2画像を元の前記第2画像と重ならない位置に貼り付ける
ことを特徴とする撮影装置。
In the imaging device according to any one of claims 1 to 4,
The composite image generation means pastes the new second image at a position that does not overlap the original second image.
JP2009115151A 2009-05-12 2009-05-12 Photographing apparatus Pending JP2010268019A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009115151A JP2010268019A (en) 2009-05-12 2009-05-12 Photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009115151A JP2010268019A (en) 2009-05-12 2009-05-12 Photographing apparatus

Publications (1)

Publication Number Publication Date
JP2010268019A true JP2010268019A (en) 2010-11-25

Family

ID=43364678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009115151A Pending JP2010268019A (en) 2009-05-12 2009-05-12 Photographing apparatus

Country Status (1)

Country Link
JP (1) JP2010268019A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198077A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
CN103002207A (en) * 2011-09-08 2013-03-27 奥林巴斯映像株式会社 Camera shooting device
CN103248815A (en) * 2012-02-07 2013-08-14 奥林巴斯映像株式会社 Image pickup apparatus and image pickup method
US8760541B2 (en) 2011-08-31 2014-06-24 Olympus Imaging Corp. Shooting apparatus and mode setting method for controlling a shooting mode of a shooting apparatus
US8976261B2 (en) 2012-05-24 2015-03-10 Olympus Imaging Corp. Object recognition apparatus, object recognition method and object recognition program
JP2015084602A (en) * 2015-02-04 2015-04-30 オリンパスイメージング株式会社 Photographing device and control method of the same
US9137448B2 (en) 2012-12-05 2015-09-15 Olympus Corporation Multi-recording image capturing apparatus and control method for multi-recording image capturing apparatus for enabling the capture of two image areas having two different angles of view
WO2022010193A1 (en) * 2020-07-06 2022-01-13 삼성전자 주식회사 Electronic device for image improvement, and method for operating camera of electronic device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198077A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
US8760541B2 (en) 2011-08-31 2014-06-24 Olympus Imaging Corp. Shooting apparatus and mode setting method for controlling a shooting mode of a shooting apparatus
CN103002207A (en) * 2011-09-08 2013-03-27 奥林巴斯映像株式会社 Camera shooting device
CN103248815A (en) * 2012-02-07 2013-08-14 奥林巴斯映像株式会社 Image pickup apparatus and image pickup method
US8976261B2 (en) 2012-05-24 2015-03-10 Olympus Imaging Corp. Object recognition apparatus, object recognition method and object recognition program
US9137448B2 (en) 2012-12-05 2015-09-15 Olympus Corporation Multi-recording image capturing apparatus and control method for multi-recording image capturing apparatus for enabling the capture of two image areas having two different angles of view
JP2015084602A (en) * 2015-02-04 2015-04-30 オリンパスイメージング株式会社 Photographing device and control method of the same
WO2022010193A1 (en) * 2020-07-06 2022-01-13 삼성전자 주식회사 Electronic device for image improvement, and method for operating camera of electronic device

Similar Documents

Publication Publication Date Title
JP4792985B2 (en) Camera device, photographing condition setting method, and program
JP4510713B2 (en) Digital camera
JP5493789B2 (en) Imaging apparatus and imaging method
JP4135100B2 (en) Imaging device
JP4019200B2 (en) Camera with image display
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2010268019A (en) Photographing apparatus
JP5665013B2 (en) Image processing apparatus, image processing method, and program
TW200808044A (en) Imaging apparatus and computer readable recording medium
JP4509081B2 (en) Digital camera and digital camera program
JP2011217103A (en) Compound eye photographing method and apparatus
JP6389342B2 (en) Imaging apparatus and control method thereof
KR20050109190A (en) Wide image generating apparatus and method using a dual camera
JP2010141609A (en) Imaging apparatus
JP2016103666A (en) Electronic apparatus and imaging device
JP5796650B2 (en) Imaging apparatus and imaging method
JP5914829B2 (en) Imaging device
JP5021370B2 (en) Imaging apparatus, display method, and program
JP4828486B2 (en) Digital camera, photographing method and photographing program
JP5539820B2 (en) Imaging apparatus, imaging method, and imaging program
JP2007228233A (en) Photographic device
JP6645612B1 (en) Imaging device and electronic equipment
JP6645614B2 (en) Imaging device and electronic equipment
JP2012253797A (en) Camera device and through image display method
KR101423918B1 (en) Digital image processing apparatus which display a boundary image of an object and the controlling method of the same