JP5293427B2 - Imaging apparatus and imaging control program - Google Patents

Imaging apparatus and imaging control program Download PDF

Info

Publication number
JP5293427B2
JP5293427B2 JP2009138848A JP2009138848A JP5293427B2 JP 5293427 B2 JP5293427 B2 JP 5293427B2 JP 2009138848 A JP2009138848 A JP 2009138848A JP 2009138848 A JP2009138848 A JP 2009138848A JP 5293427 B2 JP5293427 B2 JP 5293427B2
Authority
JP
Japan
Prior art keywords
image
photographing
unit
setting
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009138848A
Other languages
Japanese (ja)
Other versions
JP2010287977A (en
Inventor
英里奈 市川
淳 村木
博 清水
博之 星野
浩靖 形川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009138848A priority Critical patent/JP5293427B2/en
Publication of JP2010287977A publication Critical patent/JP2010287977A/en
Application granted granted Critical
Publication of JP5293427B2 publication Critical patent/JP5293427B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像を生成する機能を備えた撮影装置、及びこの撮影装置に用いられる撮影制御プログラムに関する。   The present invention relates to a photographing apparatus having a function of generating an image obtained by combining a plurality of photographed images having different photographing ranges, and a photographing control program used in the photographing apparatus.

従来、画像中の所望の位置に被写体を配した画像を撮影可能な機能を備えた撮影装置が提案されている。この撮影装置は、セルフ撮影を行う際に、予め撮影画像中において被写体が位置すべき領域を指定しておく。しかる後に、セルフ撮影を行うと、画角内の前記領域に被写体が到来したことを条件に撮影が実行される。したがって、画像中の撮影者が意図した位置に被写体を配した所望の構図からなる画像を撮影することができるとするものである(特許文献1参照)。   2. Description of the Related Art Conventionally, there has been proposed a photographing apparatus having a function capable of photographing an image in which a subject is placed at a desired position in an image. This photographing apparatus designates a region where a subject is to be located in a photographed image in advance when performing self-photographing. Thereafter, when self-photographing is performed, the photographing is executed on the condition that the subject has arrived in the region within the angle of view. Therefore, an image having a desired composition in which a subject is arranged at a position intended by a photographer in the image can be taken (see Patent Document 1).

特開2007−6413号公報JP 2007-6413 A

ところで、互いに撮影範囲が異なる複数枚の撮影画像を合成した所謂パノラマ合成は周知の技術であり、このパノラマ合成を用いることにより、当該撮影装置の最大画角以上の画角からなる画像を得ることができる。しかるに、前述した従来技術にあっては、当該撮影装置の撮影可能な画角内において被写体を所望の位置に配した所望の構図からなる画像を撮影できるにすぎず、パノラマ合成画像において所望の構図からなる画像を得ることはできない。   By the way, so-called panoramic composition in which a plurality of photographed images with different photographing ranges are combined is a well-known technique, and an image having an angle of view larger than the maximum angle of view of the photographing apparatus can be obtained by using this panorama composition. Can do. However, in the above-described prior art, it is only possible to shoot an image having a desired composition in which the subject is placed at a desired position within an angle of view that can be taken by the photographing apparatus, and the desired composition in the panorama composite image. An image consisting of cannot be obtained.

本発明は、かかる従来の課題に鑑みなされたものであり、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像において、ユーザ所望の構図を実現することのできる撮影装置、及び撮影制御プログラムを提供することを目的とする。   The present invention has been made in view of such a conventional problem, and provides a photographing apparatus and a photographing control program capable of realizing a composition desired by a user in an image obtained by combining a plurality of photographed images having different photographing ranges. The purpose is to provide.

前記課題を解決するために、本発明に係る撮像装置にあっては、画像を撮影する撮影手段と、操作に応じて、複数の画像を合成した規定の合成画像における主要被写体像の位置を設定する第1の設定手段と、前記撮影手段により撮影されている画像上で前記主要被写体像を認識する認識手段と、前記規定の合成画像上で、前記第1の設定手段により設定された位置に前記認識手段により認識される主要被写体が位置するように、前記撮影手段により撮影される画像毎の撮影範囲を設定する第2の設定手段と、前記撮影手段により撮影されている画像の撮影範囲が、前記第2の設定手段により設定された撮影範囲になったときに、前記撮影手段により撮影された画像を自律的又は他律的に取得する取得手段と、前記取得手段により取得された複数の画像を合成することにより前記規定の合成画像を生成する合成手段とを備えることを特徴とする。   In order to solve the above-described problem, the imaging apparatus according to the present invention sets the position of the main subject image in a specified composite image obtained by combining a plurality of images according to an imaging unit that captures an image. First recognition means for recognizing the main subject image on the image photographed by the photographing means, and a position set by the first setting means on the prescribed composite image. A second setting unit that sets a shooting range for each image shot by the shooting unit so that a main subject recognized by the recognition unit is located; and a shooting range of an image shot by the shooting unit. An acquisition means for autonomously or otherwise acquiring an image shot by the shooting means when the shooting range set by the second setting means is reached, and a copy acquired by the acquisition means. Characterized in that it comprises a synthesizing means for generating a composite image of said defined by synthesizing the images.

また、発明に係る撮影制御プログラムにあっては、画像を撮影する撮影手段を備える撮像装置が有するコンピュータを、操作に応じて、複数の画像を合成した規定の合成画像における主要被写体像の位置を設定する第1の設定手段と、前記撮影手段により撮影されている画像上で前記主要被写体像を認識する認識手段と、前記規定の合成画像上で、前記第1の設定手段により設定された位置に前記認識手段により認識される主要被写体が位置するように、前記撮影手段により撮影される画像毎の撮影範囲を設定する第2の設定手段と、前記撮影手段により撮影されている画像の撮影範囲が、前記第2の設定手段により設定された撮影範囲になったときに、前記撮影手段により撮影された画像を自律的又は他律的に取得する取得手段と、前記取得手段により取得された複数の画像を合成することにより前記規定の合成画像を生成する合成手段として機能させることを特徴とする。   Further, in the shooting control program according to the invention, the position of the main subject image in the prescribed synthesized image obtained by synthesizing a plurality of images in accordance with the operation of the computer included in the imaging apparatus having the imaging means for taking an image is determined. A first setting means for setting, a recognition means for recognizing the main subject image on the image photographed by the photographing means, and a position set by the first setting means on the prescribed composite image A second setting means for setting a photographing range for each image photographed by the photographing means so that a main subject recognized by the recognizing means is located, and a photographing range of an image photographed by the photographing means Acquisition means for autonomously or otherwise acquiring an image photographed by the photographing means when the photographing range set by the second setting means has been reached. Characterized in that to function as a combining means for generating a composite image of said defined by synthesizing a plurality of images acquired by means.

本発明によれば、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像であって、かつユーザの所望の部位に所望の被写体を配した合成画像を生成することができる。したがって、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像において、ユーザ所望の構図を実現することができる。   According to the present invention, it is possible to generate a composite image in which a plurality of photographed images having different photographing ranges are combined and a desired subject is arranged at a user's desired part. Therefore, a user-desired composition can be realized in an image obtained by combining a plurality of photographed images having different photographing ranges.

本発明の一実施の形態に係る電子カメラのブロック図である。It is a block diagram of the electronic camera which concerns on one embodiment of this invention. 記憶されているパノラマ構図パターンの例を示す図である。It is a figure which shows the example of the memorize | stored panorama composition pattern. 本発明の第1の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the 1st Embodiment of this invention. 同実施の形態における顔画像の位置設定手順を示す説明図である。It is explanatory drawing which shows the position setting procedure of the face image in the embodiment. 選択されたパノラマ構図パターンとフラグテーブルの対応関係を示す図である。It is a figure which shows the corresponding relationship of the selected panorama composition pattern and a flag table. (A)は、パノラマ構図パターンにおける撮影が完了した画像と他の画像との関係を示す説明図、(B)は撮影完了時におけるフラグテーブルの状態を示す図である。(A) is explanatory drawing which shows the relationship between the image which completed the imaging | photography in a panoramic composition pattern, and another image, (B) is a figure which shows the state of the flag table at the time of imaging completion. 本発明の第1の実施の形態の変形例におけるデジタルカメラの外観図である。It is an external view of the digital camera in the modification of the 1st Embodiment of this invention. 同変形例における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the modification. 同変形例における表示遷移図である。It is a display transition diagram in the modification. 本発明の第2の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the 2nd Embodiment of this invention.

以下、本発明の一実施の形態を図に従って説明する。
(第1の実施の形態)
図1は、本発明の各実施の形態に共通するデジタルカメラ1の概略構成を示すブロック図である。このデジタルカメラ1は、本体の前面に配置された光学レンズ2、この光学レンズ2により結像されるCCD等の撮像素子3と、撮像素子3を駆動するためのTG4と、撮像素子3から出力された撮像信号を保持するCDS、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅後の撮像信号をデジタル信号に変換するA/D変換器(AD)からなるユニット回路5を有している。そして、被写体の像が光学レンズ2を介して撮像素子3上に結像され、撮像素子3は信号を出力する。この撮像素子3から出力された信号は、ユニット回路5にて、サンプリング、増幅、デジタル化され、CPU6に送られて、このCPU6内で輝度に変換され、輝度の積分やヒストグラム処理が行われる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of a digital camera 1 common to each embodiment of the present invention. The digital camera 1 includes an optical lens 2 disposed on the front surface of the main body, an image sensor 3 such as a CCD imaged by the optical lens 2, a TG 4 for driving the image sensor 3, and an output from the image sensor 3. A unit circuit 5 including a CDS that holds the captured image signal, a gain adjustment amplifier (AGC) that amplifies the image signal, and an A / D converter (AD) that converts the amplified image signal into a digital signal. Yes. Then, an image of the subject is formed on the image sensor 3 via the optical lens 2, and the image sensor 3 outputs a signal. The signal output from the image pickup device 3 is sampled, amplified, and digitized by the unit circuit 5, sent to the CPU 6, converted into luminance within the CPU 6, and luminance integration and histogram processing are performed.

前記光学レンズ2は、AFモータ等を備えるレンズ駆動回路7に保持されており、レンズ駆動回路7がCPU6の制御により駆動されることにより光軸方向に移動し、撮像素子3に結像される被写体像のフォーカスを調整する。また、AE制御時には、撮像素子3が、CPU6から送られるシャッタパルスに基づきTG4によって駆動され、その電荷蓄積時間を制御される。これにより電子シャッタが実現される。   The optical lens 2 is held by a lens driving circuit 7 having an AF motor or the like. The lens driving circuit 7 is driven by the control of the CPU 6 to move in the optical axis direction and form an image on the image sensor 3. Adjust the focus of the subject image. Further, during the AE control, the image sensor 3 is driven by the TG 4 based on the shutter pulse sent from the CPU 6 and the charge accumulation time is controlled. Thereby, an electronic shutter is realized.

CPU6は各部を制御するものであって、各種の信号処理、及び画像処理機能を備えたものであり、ユニット回路5を経てデジタル信号に変換された撮像信号からビデオ信号を生成し、撮像素子3によって撮像した被写体像をスルー画像としてTFT液晶モニター等からなる液晶表示部8に表示させる。また、撮像時には、撮像信号を圧縮してJPEGフォーマットの画像ファイルを生成し、それをフラッシュメモリ等からなる画像記憶媒体9に記憶させ、再生時には圧縮した画像ファイルを伸張して液晶表示部8に表示させる。   The CPU 6 controls each unit and has various signal processing and image processing functions. The CPU 6 generates a video signal from an imaging signal converted into a digital signal through the unit circuit 5, and the imaging device 3. The subject image picked up by the above is displayed as a through image on the liquid crystal display unit 8 including a TFT liquid crystal monitor or the like. Further, at the time of image pickup, the image pickup signal is compressed to generate a JPEG format image file, which is stored in an image storage medium 9 such as a flash memory, and at the time of reproduction, the compressed image file is expanded and displayed on the liquid crystal display unit 8. Display.

なお、本実施の形態において液晶表示部8は、前記光学レンズ2が配置された本体の前面に対向する背面に配置されている。また、CPU6は、現在日時を計時する時計部10を備えており、画像記憶媒体9は着脱自在である。   In the present embodiment, the liquid crystal display unit 8 is disposed on the back surface facing the front surface of the main body on which the optical lens 2 is disposed. Further, the CPU 6 includes a clock unit 10 that measures the current date and time, and the image storage medium 9 is detachable.

さらに、CPU6には、十字カーソルキー、シャッタボタン、メニューキー等からなる操作キー部11、ROM12、GPS(Global Positioning System)モジュール13、ジャイロ部14、RAM15及び報知部16が接続されている。ROM12には、CPU6による各部の制御及び各種データ処理に必要な動作プログラム等が記録されている。   Further, an operation key unit 11 including a cross cursor key, a shutter button, a menu key, a ROM 12, a GPS (Global Positioning System) module 13, a gyro unit 14, a RAM 15, and a notification unit 16 are connected to the CPU 6. The ROM 12 stores operation programs and the like necessary for control of each unit and various data processing by the CPU 6.

なお、シャッタボタンは1段目と2段目とに分けて2段階押下する「2段全押し」と、1段目と2段目とに分けて押下することなく一気に押下する「一気押し」とが可能な有段操作タイプのボタンである。   It should be noted that the shutter button is divided into the first step and the second step and is pressed in two steps, “two-step full press”, and the first and second steps are pressed in one step without being pressed at once. This is a stepped operation type button.

GPSモジュール13は、測地衛星からのL1帯のC/Aコードを受信して復調・解読し現在位置の緯度・経度を割り出すものであり、GPSモジュール13により割り出された緯度・経度の情報(絶対位置情報)はCPU6に取り込まれる。ジャイロ部14には、このデジタルカメラ1をユーザが手に持って水平方向や垂直方向へ移動させた際の角速度あるいは角加速度を検出する2軸ジャイロセンサを備え、この2軸ジャイロセンサの検出出力をCPU6へ出力する。したがって、CPU6は、GPSモジュール13からの絶対位置情報の変化と、ジャイロ部14からの角速度あるいは角加速度とに基づいて、デジタルカメラ1の移動量を算出することが可能である。   The GPS module 13 receives the L / B C / A code from the geodetic satellite, demodulates and decodes it, and determines the latitude / longitude of the current position. Information on the latitude / longitude determined by the GPS module 13 ( (Absolute position information) is taken into the CPU 6. The gyro unit 14 includes a two-axis gyro sensor that detects an angular velocity or an angular acceleration when the user moves the digital camera 1 in the horizontal direction or the vertical direction with the hand held by the user, and the detection output of the two-axis gyro sensor. Is output to the CPU 6. Therefore, the CPU 6 can calculate the movement amount of the digital camera 1 based on the change in the absolute position information from the GPS module 13 and the angular velocity or angular acceleration from the gyro unit 14.

RAM15は、各種データを一時的に格納したり、CPU6のワーク用として使用される。報知部16は、発光部と報音部とを備え、光及び/又は音による報知を行う。   The RAM 15 temporarily stores various data and is used for work of the CPU 6. The notification unit 16 includes a light emitting unit and a sound report unit, and performs notification using light and / or sound.

前記ROM12には、前記プログラムとともに、図2に示す複数(N個)のパノラマ構図パターン(1)(2)(3)・・・(N)が記憶されている。これらパノラマ構図パターンは、当該デジタルカメラ1で1回に撮影される1枚の撮影画像をそれぞれ部分画像として、これら部分画像を異なる数の行列パターンで組み合わせたものである。つまり、パノラマ構図パターン(1)は3行3列で構成され、パノラマ構図パターン(2)は3行2列で構成され、パノラマ構図パターン(3)は1行6列で構成されている。したがって、後述する処理により、ユーザがこれら複数の異なるパノラマ構図パターン(1)(2)(3)・・・(N)から任意のパターンを選択することにより、パノラマ合成を種々の構図で行うことができる。   The ROM 12 stores a plurality (N pieces) of panoramic composition patterns (1), (2), (3),... (N) shown in FIG. These panoramic composition patterns are obtained by combining a single captured image captured at a time with the digital camera 1 as a partial image and combining these partial images with different numbers of matrix patterns. That is, the panorama composition pattern (1) is composed of 3 rows and 3 columns, the panorama composition pattern (2) is composed of 3 rows and 2 columns, and the panorama composition pattern (3) is composed of 1 row and 6 columns. Therefore, the panorama composition is performed in various compositions by the user selecting an arbitrary pattern from the plurality of different panorama composition patterns (1), (2), (3),. Can do.

また、各パターンを構成する部分画像のいずれかには、当該構図パターンにおける被写体の顔の位置を合致させる際に用いられる顔マークFMがデフォルト設定位置に書き込まれている。本例においては、パノラマ構図パターン(1)は「部分画像5」に、パノラマ構図パターン(2)は「部分画像3」に、パノラマ構図パターン(1)は「部分画像5」に各々顔マークFMが書き込まれている。この顔マークFMは、後述する処理により他の部分画像内に移動させることが可能であるとともに、当該部分画像において中央、左右、上下の任意位置に移動させることも可能である。   Further, in any of the partial images constituting each pattern, a face mark FM used for matching the position of the subject's face in the composition pattern is written at the default setting position. In this example, the panorama composition pattern (1) is the “partial image 5”, the panorama composition pattern (2) is the “partial image 3”, and the panorama composition pattern (1) is the “partial image 5”. Has been written. The face mark FM can be moved into another partial image by processing to be described later, and can also be moved to an arbitrary position in the center, left and right, and up and down in the partial image.

次に、以上の構成にかかるデジタルカメラ1の動作を説明する。図3は、本実施の形態におけるパノラマ撮影モードの処理手順を示すフローチャートである。ユーザによる操作キー部11での操作により、パノラマ撮影モードが設定されるとCPU6は前記プログラムに従って、このフローチャートに示す処理を実行する。   Next, the operation of the digital camera 1 according to the above configuration will be described. FIG. 3 is a flowchart showing the processing procedure of the panoramic shooting mode in the present embodiment. When the panorama shooting mode is set by the operation of the operation key unit 11 by the user, the CPU 6 executes the processing shown in this flowchart according to the program.

すなわち、CPU6は、ROM12に記憶されているN個のパノラマ構図パターン(1)(2)(3)・・・(N)を液晶表示部8に一覧表示させる(ステップS101)。次にCPU6は、ユーザによりこの一覧表示されたパノラマ構図パターン(1)(2)(3)・・・(N)のいずれかに対する選択操作がなされたか否かを判断する(ステップS102)。ユーザによる操作キー部11での操作により、いずれかのパノラマ構図パターンに対する選択がなされると、CPU6は、選択されたパノラマ構図パターンを設定して、RAM15に記憶するとともに、液晶表示部8に表示する(ステップS103)。   That is, the CPU 6 displays a list of N panoramic composition patterns (1), (2), (3),... (N) stored in the ROM 12 on the liquid crystal display unit 8 (step S101). Next, the CPU 6 determines whether or not a selection operation has been performed on any of the panorama composition patterns (1), (2), (3),... (N) displayed in a list (step S102). When one of the panorama composition patterns is selected by the user's operation on the operation key unit 11, the CPU 6 sets the selected panorama composition pattern, stores it in the RAM 15, and displays it on the liquid crystal display unit 8. (Step S103).

したがって、ユーザによりパノラマ構図パターン(1)が選択されたとすると、図4(A)に示すように、液晶表示部8には当該パノラマ構図パターン(1)が表示される。また、顔マークFMはデフォルト設定位置である「部分画像5」内の中央に位置している。   Therefore, if the panorama composition pattern (1) is selected by the user, the panorama composition pattern (1) is displayed on the liquid crystal display unit 8 as shown in FIG. The face mark FM is positioned at the center in the “partial image 5” which is the default setting position.

次に、ユーザによる操作キー部11での操作に応じて、CPU6は、顔マークFMを他の部分画像領域内に移動させる(ステップS104)。したがって、ユーザはデフォルト設定位置では「部分画像5」内に位置していた顔マークFMを、任意の部分画像領域内に移動させることができる。よって、デフォルト設定では「部分画像5」内に位置していた顔マークFMを、図4(B)に示すように、「部分画像4」に移動させることができる。   Next, the CPU 6 moves the face mark FM into another partial image area in response to an operation on the operation key unit 11 by the user (step S104). Therefore, the user can move the face mark FM located in the “partial image 5” at the default setting position into an arbitrary partial image region. Therefore, the face mark FM located in the “partial image 5” in the default setting can be moved to the “partial image 4” as shown in FIG. 4B.

ここで、この顔マークFMは、後述するように被写体の顔を合致させる領域であり、当該パノラマ構図パターンでの合成画像において被写体の顔が位置すべき領域である。したがって、このステップS104での処理により、ユーザは当該パノラマ構図パターンを構成する複数の部分画像において所望の部分画像に被写体の顔を配する構図を決定することができる。   Here, the face mark FM is an area for matching the face of the subject as will be described later, and is an area where the face of the subject should be located in the composite image in the panorama composition pattern. Therefore, by the processing in step S104, the user can determine the composition in which the face of the subject is arranged on the desired partial image in the plurality of partial images constituting the panoramic composition pattern.

そして、ユーザによる操作キー部11での操作により顔マークFMの移動決定操作がなされたならば(ステップS105;YES)、引き続き操作に応じて、CPU6は、顔マークFMを決定された当該画像領域内にて移動させる(ステップS106)。すなわち、顔マークFMはデフォルト設定では、図4(C)に示すように、部分画像内の中央に位置しているが、ユーザは操作キー部11での操作により、同図(D)に示すように、顔マークFMを当該部分画像における右下等の任意の位置に移動させることができる。そして、顔マークFMを当該部分画像における任意の位置に移動させた後、ユーザがユーザによる操作キー部11での操作により位置決定操作を行うと、ステップS107の判断がYESとなる。したがって、ステップS107からステップS108に進んで、当該部分画像領域内における顔マーク位置を設定して、当該部分画像領域における顔マークFMの位置情報をRAM15に記憶する。   If the movement determination operation of the face mark FM is performed by the operation of the operation key unit 11 by the user (step S105; YES), the CPU 6 continues the image region in which the face mark FM is determined according to the operation. (Step S106). That is, in the default setting, the face mark FM is located at the center in the partial image as shown in FIG. 4C. However, the user operates the operation key unit 11 as shown in FIG. As described above, the face mark FM can be moved to an arbitrary position such as the lower right in the partial image. Then, after the face mark FM is moved to an arbitrary position in the partial image, if the user performs a position determination operation by the operation of the operation key unit 11 by the user, the determination in step S107 becomes YES. Accordingly, the process proceeds from step S107 to step S108, the face mark position in the partial image area is set, and the position information of the face mark FM in the partial image area is stored in the RAM 15.

次に、選択されたパノラマ構図パターンに対応するフラグテーブルを作成して、RAM15に記憶する(ステップS109)。つまり、本例においては、図5(A)に示すように、パノラマ構図パターン(1)が選択されたが、このパノラマ構図パターン(1)は3行3列で構成されている。したがって、CPU6は、図5(B)に示すように、このパノラマ構図パターン(1)に対応する3行3列からなるフラグテーブルFTを作成してRAM15に記憶させる。このとき、3行3列からなるフラグテーブルFT内の各フラグFは全てリセット(「0」)しておくとともに、顔マークFMが存在する部分画像領域であることを示す顔マークフラグFFもリセット(「0」)しておく。   Next, a flag table corresponding to the selected panoramic composition pattern is created and stored in the RAM 15 (step S109). That is, in this example, as shown in FIG. 5A, the panorama composition pattern (1) is selected, but this panorama composition pattern (1) is composed of 3 rows and 3 columns. Therefore, as shown in FIG. 5B, the CPU 6 creates a flag table FT having 3 rows and 3 columns corresponding to the panorama composition pattern (1) and stores it in the RAM 15. At this time, all the flags F in the flag table FT consisting of 3 rows and 3 columns are reset (“0”), and the face mark flag FF indicating that the face mark FM is a partial image area is also reset. ("0").

しかる後に、CPU6は、顔マーク表示処理を実行する(ステップS110)。このステップS110での顔マーク表示処理に際しては、液晶表示部8の表示領域を顔マークFMが存在する部分画像領域(部分画像4)と見なして、液晶表示部8の前記ステップS108で記憶した位置情報が示す位置に顔マークを表示させる。したがって、本例のように顔マークFMが部分画像4領域の右下に決定されている場合には、ステップS110の処理で顔マークが液晶表示部8の右下に表示される。   Thereafter, the CPU 6 executes a face mark display process (step S110). In the face mark display process in step S110, the display area of the liquid crystal display unit 8 is regarded as a partial image area (partial image 4) where the face mark FM exists, and the position stored in the step S108 of the liquid crystal display unit 8 is stored. A face mark is displayed at the position indicated by the information. Therefore, when the face mark FM is determined at the lower right of the partial image 4 area as in this example, the face mark is displayed at the lower right of the liquid crystal display unit 8 in the process of step S110.

引き続き、撮像素子3によって撮像された被写体像の取り込みを開始して、ライブビュー画像を液晶表示部8に表示させる(ステップS111)。このとき、前記ステップS110での処理により、液晶表示部8には前記位置に顔マークが表示されていることから、顔マークとライブビュー画像とが重畳表示されることとなる。したがって、ユーザは液晶表示部8を視認しつつデジタルカメラ1の向き等を調整することにより、容易にライブビュー画像内の被写体人物の顔を顔マークに合致させることができる。   Subsequently, the capturing of the subject image captured by the image sensor 3 is started, and the live view image is displayed on the liquid crystal display unit 8 (step S111). At this time, since the face mark is displayed at the position on the liquid crystal display unit 8 by the processing in step S110, the face mark and the live view image are superimposed and displayed. Therefore, the user can easily match the face of the subject person in the live view image with the face mark by adjusting the orientation of the digital camera 1 while viewing the liquid crystal display unit 8.

一方、CPU6は、ライブビュー画像中における人物被写体の顔の位置を検出する(ステップS112)。このステップS112での顔の位置検出処理に際しては、公知の顔の検出方法を用いればよい。例えば、特開2003−274271号公報に記載の技術や特開2000―30033号公報に記載の技術のように1フレーム中から人物の顔領域を検出する技術等を適宜採用することができる。また、この顔検出処理のために専用の回路を設けてもよいしCPU6で顔検出用プログラムを実行させるようにしてもよい。   On the other hand, the CPU 6 detects the position of the face of the human subject in the live view image (step S112). In the face position detection process in step S112, a known face detection method may be used. For example, a technique for detecting a human face area from one frame, such as a technique described in Japanese Patent Application Laid-Open No. 2003-274271 or a technique described in Japanese Patent Application Laid-Open No. 2000-30033, can be appropriately employed. Further, a dedicated circuit may be provided for the face detection process, or the face detection program may be executed by the CPU 6.

次に、前記液晶表示部8に表示した顔マークとこのライブビュー画像内で検出した顔位置とが一致したか否かを判断する(ステップS113)。より具体的には、液晶表示部8を複数の領域に均等分割して、前記顔マークがいずれの領域に賊するかをRAM15に記憶しておく。そして、ライブビュー画像内で検出した顔が前記均等分割したいずれの領域に存在するかを判定し、この判定した顔が属する領域と、顔マークが属する領域とが一致するか否かを判断する。   Next, it is determined whether or not the face mark displayed on the liquid crystal display unit 8 matches the face position detected in the live view image (step S113). More specifically, the liquid crystal display unit 8 is equally divided into a plurality of regions, and the RAM 15 stores in which region the face mark belongs. Then, it is determined whether the face detected in the live view image exists in the equally divided region, and it is determined whether the region to which the determined face belongs and the region to which the face mark belongs are matched. .

この間ユーザは、前記液晶表示部8に表示された顔マークとライブビュー画像内の人物被写体の顔の位置とが一致するようにデジタルカメラ1の向き等を調整する。これにより両者の位置が一致すると、CPU6は、報知部16を制御して光又は/及び音により、両者が一致したことを報知する(ステップS114)。したがって、ユーザはこの報知により、ライブビュー画像内の人物被写体の顔の位置が所望の部分画像内における所望の位置となったことを認識することができる。   During this time, the user adjusts the orientation of the digital camera 1 so that the face mark displayed on the liquid crystal display unit 8 and the position of the face of the human subject in the live view image coincide. When the two positions coincide with each other, the CPU 6 controls the notifying unit 16 to notify that both coincide with each other by light or / and sound (step S114). Therefore, the user can recognize that the position of the face of the person subject in the live view image has become a desired position in the desired partial image by this notification.

なお、前述のように本実施の形態にかかるデジタルカメラ1は、本体の前面に光学レンズ2が配置され、背面に液晶表示部8が配置されている。したがって、撮影者がセルフタイマーを用いることなくセルフ撮影する際に、デジタルカメラ1を手に持って光学レンズ2を自身に向けると、液晶表示部8を視認することができない。よって、撮影者は、液晶表示部8で顔マークと被写体人物の顔(自身の顔)とが一致したか否かを確認することはできない。しかし、前記ステップS114での処理により、両者が一致したことが光や音で報知されることから、撮影者がセルフタイマーを用いることなくセルフ撮影した場合であっても、撮影者はライブビュー画像内における自身の顔の位置が所望の部分画像内における所望の位置となったことを認識することができる。   As described above, in the digital camera 1 according to the present embodiment, the optical lens 2 is disposed on the front surface of the main body, and the liquid crystal display unit 8 is disposed on the rear surface. Therefore, when the photographer performs self-photographing without using a self-timer, the liquid crystal display unit 8 cannot be visually recognized if the digital lens 1 is held in his / her hand and the optical lens 2 is directed toward the self. Therefore, the photographer cannot confirm whether or not the face mark and the face of the subject person (its own face) match on the liquid crystal display unit 8. However, since it is notified by light or sound that the two coincide with each other in the process in step S114, the photographer can view the live view image even when the photographer performs self-photographing without using the self-timer. It can be recognized that the position of its own face in the inside becomes a desired position in the desired partial image.

そして、これを認識したユーザが操作キー部11にてシャッタボタンを「2段全押し」すると、ステップS115の判断がYESとなる。したがって、ステップS115からステップS116に進んで部分画像撮影処理を実行し、撮像素子3からの画像データを取得してRAM15に保存する。これにより、図6(A)に示すように、3行3列のパノラマ構図パターン(1)において、人物被写体の顔Fを有する「部分画像4」の撮影が完了したこととなる。   Then, when the user who recognizes this presses the shutter button “two steps fully” on the operation key unit 11, the determination in step S115 becomes YES. Accordingly, the process proceeds from step S115 to step S116 to execute the partial image photographing process, and the image data from the image sensor 3 is acquired and stored in the RAM 15. As a result, as shown in FIG. 6A, in the panoramic composition pattern (1) of 3 rows and 3 columns, photographing of “partial image 4” having the face F of the person subject is completed.

さらに、撮影した部分画像に対応するフラグをセットする(ステップS117)。つまり、現時点では図5(A)に示すパノラマ構図パターン(1)において、顔マークFMが存在する「部分画像4」の画像を撮影したのであるから、同図(B)に示すフラグテーブルFTにおいて、「部分画像4」に対応するフラグF4をセットして、フラグF4=1にするとともに、顔マークフラグFFもセットして、フラグFF=1にする。   Further, a flag corresponding to the captured partial image is set (step S117). That is, at present, since the image of “partial image 4” having the face mark FM is taken in the panorama composition pattern (1) shown in FIG. 5A, the flag table FT shown in FIG. , The flag F4 corresponding to “partial image 4” is set to set the flag F4 = 1, and the face mark flag FF is also set to set the flag FF = 1.

以上により、ユーザは顔マークFMが存在する「部分画像4」の撮影を終了したことから、次に撮影すべき部分画像は、図6(A)に示すように、「部分画像4」の上辺に連なる「部分画像1」、下辺に連なる「部分画像7」、右辺に連なる「部分画像5」のいずれかである。したがって、ユーザは次に「部分画像1」を撮影しようとする場合には光学レンズ2が上向きとなるようにデジタルカメラ1を移動操作し、「部分画像7」を撮影しようとする場合には光学レンズ2が下向きとなるようにデジタルカメラ1を移動操作し、「部分画像5」を撮影しようとする場合には光学レンズ2が右向きとなるようにデジタルカメラ1を移動操作する。   As described above, since the user has finished shooting the “partial image 4” where the face mark FM exists, the partial image to be shot next is the upper side of the “partial image 4” as shown in FIG. Are “partial image 1”, “partial image 7” connected to the lower side, and “partial image 5” continuous to the right side. Therefore, the user moves the digital camera 1 so that the optical lens 2 faces upward when the user wants to photograph “partial image 1” next time, and optical when the user wants to photograph “partial image 7”. The digital camera 1 is moved so that the lens 2 faces downward, and when the “partial image 5” is to be taken, the digital camera 1 is moved so that the optical lens 2 faces right.

すると、CPU6は、特開2006−217478号公報にも開示されているように、前記GPSモジュール13からの絶対位置情報の変化と、ジャイロ部14からの角速度あるいは角加速度情報とに基づいて、デジタルカメラ1の移動量を算出することにより取得する(ステップS118)。さらに、CPU6は、この取得した移動量情報と、撮像素子3とレンズ駆動回路7とから得られる画角情報や画素数情報とに基づいて、前記ステップS116で撮影された部分画像と次に撮影すべき部分画像、つまり撮影された部分画像と四辺にて隣接する次の部分画像の重なりを計算する(ステップS119)。   Then, as disclosed in Japanese Patent Application Laid-Open No. 2006-217478, the CPU 6 performs digital processing based on the change in the absolute position information from the GPS module 13 and the angular velocity or angular acceleration information from the gyro 14. Obtained by calculating the movement amount of the camera 1 (step S118). Further, the CPU 6 captures the partial image captured in step S116 and the next image based on the acquired movement amount information and the angle-of-view information and the pixel number information obtained from the image sensor 3 and the lens driving circuit 7. The overlap of the partial image to be processed, that is, the next partial image adjacent on the four sides with the captured partial image is calculated (step S119).

つまり、効率よくパノラマ画像を作成するためには、隣接する部分画像間の重なり部分が余り大きくなりすぎないことがことが必要である。このため、ステップS119では、先ず隣接する部分画像であるステップS116で撮影された部分画像と次に撮影すべき部分画像の重なりを計算する。そして、次のステップS120で、以下の2つ条件を満たすか否かを判断する。
条件1:前記重なりが適正範囲である。
条件2:移動量情報に基づき今回撮影しようとしている部分画像が、フラグF=0であるフラグ未セットの部分画像領域である。
なお、前記条件1を満たすか否かの判断に際しては、例えば隣接する部分画像であるステップS116で撮影された部分画像と次に撮影すべき部分画像の重なりが、例えば5%以上15%未満である場合に「前記重なりが適正範囲である。」とする。
That is, in order to efficiently create a panoramic image, it is necessary that an overlapping portion between adjacent partial images does not become too large. For this reason, in step S119, first, the overlap between the partial image photographed in step S116, which is an adjacent partial image, and the partial image to be photographed next is calculated. Then, in the next step S120, it is determined whether or not the following two conditions are satisfied.
Condition 1: The overlap is in an appropriate range.
Condition 2: The partial image to be photographed this time based on the movement amount information is a partial image area in which the flag F = 0 and the flag is not set.
When determining whether or not the condition 1 is satisfied, for example, the overlap between the partial image captured in step S116 which is an adjacent partial image and the partial image to be captured next is, for example, 5% or more and less than 15%. In some cases, “the overlap is in an appropriate range”.

この判断の結果、条件1及び2を満たす場合、つまり重なりが適正範囲であり、かつ移動量情報に基づき今回撮影しようとしている部分画像が、フラグF=0であるフラグ未セットの部分画像領域である場合には、CPU6は、報知部16を制御して光又は/及び音により、これを報知する(ステップS121)。したがって、デジタルカメラ1の向き等を調整しながら次の部分画像を撮影しようとしているユーザは、この報知により前回撮影した部分画像に隣接する次の部分画像を撮影可能となったことを認識することができる。   As a result of this determination, when the conditions 1 and 2 are satisfied, that is, the partial image that is overlapped is in an appropriate range and is to be photographed this time based on the movement amount information is a partial image area in which the flag F = 0 and the flag is not set. If there is, the CPU 6 controls the notification unit 16 to notify this by light or / and sound (step S121). Therefore, the user who is taking the next partial image while adjusting the orientation of the digital camera 1 recognizes that the next partial image adjacent to the previously taken partial image can be taken by this notification. Can do.

この認識に基づきユーザがシャッタボタンを2段全しすると、ステップS122の判断がYESとなる。したがって、CPU6は、ステップS122からステップS123に進んで部分画像撮影処理を実行し、撮像素子3からの画像データを取得してRAM15に保存する。さらに、撮影した部分画像に対応するフラグをセットする(ステップS124)。   When the user completes two shutter buttons based on this recognition, the determination in step S122 is YES. Therefore, the CPU 6 proceeds from step S122 to step S123, executes the partial image photographing process, acquires the image data from the image sensor 3, and stores it in the RAM 15. Further, a flag corresponding to the captured partial image is set (step S124).

引き続き、シャッタボタンが一気押しされたか否かを判断し(ステップS125)、シャッタボタンが一気押しされるまでステップS118〜S125のループを繰り返す。したがって、3行3列のパノラマ構図パターン(1)が選択された本例においては、ステップS118〜S125のループが8回繰り返されることにより、図6(B)に示すように、フラグテーブルFTの全てのフラグがセット(=1)された状態となる。   Subsequently, it is determined whether or not the shutter button is pressed at once (step S125), and the loop of steps S118 to S125 is repeated until the shutter button is pressed at once. Therefore, in the present example in which the 3 × 3 panoramic composition pattern (1) is selected, the loop of steps S118 to S125 is repeated eight times, so that the flag table FT is updated as shown in FIG. All the flags are set (= 1).

そして、ユーザがシャッタボタンを一気押しするとステップS125からステップS126に進み、CPU6はRAM15内にてパノラマ合成画像を生成する。すなわち、ステップS116で撮影された被写体人物の顔が存在する「部分画像4」を基準にし、ステップS123で撮影された他の「部分画像」を前記隣接する部分画像間の重なり部分を削除して順次接合することにより、パノラマ合成画像を生成する。   When the user presses the shutter button all at once, the process proceeds from step S125 to step S126, and the CPU 6 generates a panorama composite image in the RAM 15. That is, with reference to the “partial image 4” in which the face of the subject person photographed in step S116 is present, the overlapping part between the adjacent partial images is deleted from the other “partial image” photographed in step S123. A panorama composite image is generated by sequentially joining.

次に、CPU6は、フラグテーブルFTの全てのフラグがセット(=1)されているか否かを判断する(ステップS127)。このとき、ユーザが予め選択したパノラマ構図パターンに応じた適正枚数の部分画像を撮影せず、ステップS126で当該選択したパノラマ構図パターンの合成画像が適正に生成されていない場合には、フラグテーブルFTの全てのフラグがセットされておらず、ステップS127の判断はNOとなる。   Next, the CPU 6 determines whether or not all the flags in the flag table FT are set (= 1) (step S127). At this time, if the appropriate number of partial images corresponding to the panorama composition pattern selected in advance by the user is not captured, and the composite image of the selected panorama composition pattern is not properly generated in step S126, the flag table FT Are not set, and the determination in step S127 is NO.

したがって、CPU6は、ステップS127からステップS128に進んで、RAM15にて生成した合成画像を削除するとともに、報知部16を動作させて合成画像を削除した旨を報知する。しかる後に、ステップS112に戻って前述した処理を再実行する。よって、ユーザは、ステップS128での報知により、今回のパノラマ撮影が失敗でありパノラマ合成画像の記録がなされなったことを知ることができる。   Therefore, the CPU 6 proceeds from step S127 to step S128, deletes the composite image generated in the RAM 15, and operates the notification unit 16 to notify that the composite image has been deleted. Thereafter, the process returns to step S112 to re-execute the processing described above. Therefore, the user can know from the notification in step S128 that the current panorama shooting has failed and the panorama composite image has not been recorded.

他方、ユーザが予め選択したパノラマ構図パターンに応じた適正枚数の部分画像を撮影し、ステップS126で当該選択したパノラマ構図パターンの合成画像が適正に生成されている場合には、図6(B)にも示したように、フラグテーブルFTの全てのフラグがセットされており、ステップS127の判断はYESとなる。したがって、CPU6は、ステップS127からステップS129に進んで、RAM15にて生成したパノラマ合成画像を画像記憶媒体9に記憶する。   On the other hand, when a proper number of partial images corresponding to the panorama composition pattern selected in advance by the user are photographed and a composite image of the selected panorama composition pattern is properly generated in step S126, FIG. As also indicated, all the flags in the flag table FT are set, and the determination in step S127 is YES. Therefore, the CPU 6 proceeds from step S127 to step S129, and stores the panorama composite image generated by the RAM 15 in the image storage medium 9.

この画像記憶媒体9に記憶される合成画像にあっては、ステップS102でのユーザの選択操作によって、図2に示す複数(N個)のパノラマ構図パターン(1)(2)(3)・・・(N)から任意に選択されたパノラマ構図パターンからなる。したがって、例えば、1行6列で構成されているパノラマ構図パターン(3)をユーザが選択した場合、横方向に長尺でその端部に人物被写体が存在するような、通常の撮影画像では得ることができない構図、つまりパノラマ画像ならではの構図を実現できる。   In the composite image stored in the image storage medium 9, a plurality of (N) panoramic composition patterns (1), (2), (3),... Shown in FIG. A panoramic composition pattern arbitrarily selected from (N). Therefore, for example, when the user selects a panoramic composition pattern (3) composed of one row and six columns, it is obtained in a normal photographed image that is long in the horizontal direction and has a human subject at the end thereof. A composition that cannot be achieved, that is, a composition unique to a panoramic image can be realized.

また、画像記憶媒体9に記憶される合成画像にあっては、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像であって、かつユーザの所望の部位に人物被写体の顔(撮影者自身の顔を含む)を配した画像である。したがって、本実施の形態によれば、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像において、ユーザ所望の構図を実現することができる。   In addition, the composite image stored in the image storage medium 9 is an image obtained by combining a plurality of photographed images with different photographing ranges, and the face of the person subject (the photographer himself / herself) at a user's desired part. Is included). Therefore, according to the present embodiment, it is possible to realize a user-desired composition in an image obtained by combining a plurality of photographed images having different photographing ranges.

なお、本実施の形態においては、ステップS126で合成画像を生成した後、ステップS127の判断を行い、この判断がNOである場合には生成した合成画像を削除するようにした。しかし、合成画像の生成を行う前にステップS127の判断を行い、ステップS127の判断がYESであった場合に合成画像の生成を行うようにしてもよい。このようにすると、ステップS127の判断がNOであった場合には、ステップS128で合成画像の削除を行うことなく報知のみを行えばよく、処理を簡単化することができる。   In the present embodiment, after the composite image is generated in step S126, the determination in step S127 is performed. If this determination is NO, the generated composite image is deleted. However, the determination in step S127 may be performed before the composite image is generated, and the composite image may be generated when the determination in step S127 is YES. In this way, if the determination in step S127 is NO, it is only necessary to perform notification without deleting the composite image in step S128, and the processing can be simplified.

また、本実施の形態においては、認識する主要被写体を人物被写体の顔としたが、認識する主要被写体はこれに限ることなく、他の被写体であってもよく、また認識する主要被写体を可変設定できるようにしてもよい。   In this embodiment, the main subject to be recognized is the face of a human subject. However, the main subject to be recognized is not limited to this, and may be another subject, and the main subject to be recognized is variably set. You may be able to do it.

(第1の実施の形態の変形例)
図7は、本発明の第1の実施の形態の変形例に係るデジタルカメラ1の外観構成を示す図である。このデジタルカメラ1は、本体20とこの本体20の側部に枢着されたフラップ21とで構成されている。フラップ21は、図示するように本体20の側部に延出した展開状態と、本体20の背面に折り重ねられた格納状態(図示せず)とに回動可能である。そして、本体20の前面に前記光学レンズ2が配置され、フラップ21の表面部に前記液晶表示部8が配置されている。
なお、回路構成は図1に示した第1の実施の形態と同様である。
(Modification of the first embodiment)
FIG. 7 is a diagram showing an external configuration of the digital camera 1 according to a modification of the first embodiment of the present invention. The digital camera 1 includes a main body 20 and a flap 21 pivotally attached to a side portion of the main body 20. As illustrated, the flap 21 can be rotated between an unfolded state extending to the side of the main body 20 and a retracted state (not shown) folded on the back surface of the main body 20. The optical lens 2 is disposed on the front surface of the main body 20, and the liquid crystal display unit 8 is disposed on the surface portion of the flap 21.
The circuit configuration is the same as that of the first embodiment shown in FIG.

次に、以上の構成にかかるデジタルカメラ1の動作を説明する。図8は、本変形例におけるパノラマ撮影モードの処理手順を示すフローチャートである。このフローチャートにおいて、ステップS201〜S208の処理は、図3に示したフローチャートにおけるステップS101〜S108の処理と同一である。   Next, the operation of the digital camera 1 according to the above configuration will be described. FIG. 8 is a flowchart showing a processing procedure of the panorama shooting mode in the present modification. In this flowchart, the processes in steps S201 to S208 are the same as the processes in steps S101 to S108 in the flowchart shown in FIG.

そして、ステップS208に続くステップS209において、CPU6は、顔マーク表示処理を実行する。このステップS209での顔マーク表示処理に際しては、液晶表示部8の表示領域を顔マークFMが存在する部分画像領域(部分画像4)と見なして、液晶表示部8の前記ステップS208で記憶した位置情報が示す位置に顔マークを表示させる。したがって、本例のように顔マークFMが部分画像4領域の右下に決定されている場合には、ステップS209の処理で顔マークが液晶表示部8の右下に表示される。   In step S209 following step S208, the CPU 6 executes a face mark display process. In the face mark display process in step S209, the display area of the liquid crystal display unit 8 is regarded as a partial image area (partial image 4) where the face mark FM exists, and the position stored in the step S208 of the liquid crystal display unit 8 is stored. A face mark is displayed at the position indicated by the information. Therefore, when the face mark FM is determined at the lower right of the partial image 4 area as in this example, the face mark is displayed at the lower right of the liquid crystal display unit 8 in the process of step S209.

引き続き、撮像素子3によって撮像された被写体像の取り込みを開始して、ライブビュー画像を液晶表示部8に表示させる(ステップS210)。このとき、前記ステップS209での処理により、液晶表示部8には前記位置に顔マークが表示されていることから、顔マークとライブビュー画像とが重畳表示されることとなる。また、ユーザが図7に示すように、フラップ21を展開状態にし、かつ光学レンズ2を自身に向けてデジタルカメラ1を構えていると、当該ユーザは自身を撮影しつつ液晶表示部8を視認することが可能となる。したがって、ユーザは液晶表示部8を視認しつつデジタルカメラ1の向き等を調整することにより、容易にライブビュー画像内の自身の顔を顔マークに合致させることができる。   Subsequently, the capturing of the subject image captured by the image sensor 3 is started, and the live view image is displayed on the liquid crystal display unit 8 (step S210). At this time, since the face mark is displayed at the position on the liquid crystal display unit 8 by the processing in step S209, the face mark and the live view image are displayed in a superimposed manner. In addition, as shown in FIG. 7, when the user holds the digital camera 1 with the flap 21 in the unfolded state and the optical lens 2 facing the user, the user visually recognizes the liquid crystal display unit 8 while photographing himself / herself. It becomes possible to do. Therefore, the user can easily match his / her face in the live view image with the face mark by adjusting the orientation of the digital camera 1 while visually checking the liquid crystal display unit 8.

一方、CPU6は、ライブビュー画像中における人物被写体の顔の位置を検出する(ステップS211)。このステップS211での顔の位置検出処理に際しては、前述のように公知の顔の検出方法を用いればよい。次に、前記液晶表示部8に表示した顔マークとこのライブビュー画像内で検出した顔位置とが一致したか否かを判断する(ステップS212)。この間ユーザは、前記液晶表示部8に表示した顔マークとこのライブビュー画像内における自身の顔の位置とが一致するようにデジタルカメラ1の向き等を調整する。これにより両者の位置が一致すると、CPU6は、報知部16を制御して光又は/及び音により、両者が一致したことを報知する(ステップS213)。   On the other hand, the CPU 6 detects the position of the face of the human subject in the live view image (step S211). In the face position detection process in step S211, a known face detection method may be used as described above. Next, it is determined whether or not the face mark displayed on the liquid crystal display unit 8 matches the face position detected in the live view image (step S212). During this time, the user adjusts the orientation of the digital camera 1 so that the face mark displayed on the liquid crystal display unit 8 and the position of his / her face in the live view image coincide. When the positions of the two match, the CPU 6 controls the notification unit 16 to notify that the two match using light or / and sound (step S213).

この報知に応答してユーザが操作キー部11にてシャッタボタンを「2段全押し」すると、ステップS214の判断がYESとなる。したがって、ステップS214からステップS215に進んで部分画像撮影処理を実行し、撮像素子3からの画像データを取得してRAM15に保存する。これにより、図6(A)に示すように、3行3列のパノラマ構図パターン(1)において、人物被写体の顔Fを有する「部分画像4」の撮影が完了したこととなる。   When the user responds to this notification and presses the shutter button “two steps fully” on the operation key unit 11, the determination in step S214 is YES. Accordingly, the process proceeds from step S214 to step S215 to execute the partial image photographing process, and the image data from the image sensor 3 is acquired and stored in the RAM 15. As a result, as shown in FIG. 6A, in the panoramic composition pattern (1) of 3 rows and 3 columns, photographing of “partial image 4” having the face F of the person subject is completed.

次に、撮影済み部分画像の識別表示を開始する(ステップS216)。このステップS216の処理は、図9(A)に示すように、液晶表示部8に前記ステップS203で選択されたパノラマ構図パターンに対応するマトリックス状のパターン枠80を全画面表示させる。無論、このとき表示されていたライブビュー画像は消去する。そして、このパターン枠80において、前記ステップS215で撮影した部分画像に対応する矩形領域を他の領域と異なる色に着色表示する。   Next, identification display of the captured partial image is started (step S216). In the process of step S216, as shown in FIG. 9A, a matrix-like pattern frame 80 corresponding to the panorama composition pattern selected in step S203 is displayed on the full screen on the liquid crystal display unit 8. Of course, the live view image displayed at this time is deleted. In the pattern frame 80, the rectangular area corresponding to the partial image captured in step S215 is displayed in a different color from the other areas.

したがって、本例のようにパノラマ構図パターン(1)が選択されていたとすると、図9(A)に示すように、3行3列からなるパターン枠80が表示されるとともに、前記ステップS215で撮影した「部分画像4」に対応する2行1列目の矩形領域84が着色表示されることとなる。   Accordingly, if the panorama composition pattern (1) is selected as in this example, a pattern frame 80 consisting of 3 rows and 3 columns is displayed as shown in FIG. 9A, and the image is captured in step S215. The rectangular area 84 in the second row and first column corresponding to the “partial image 4” is displayed in color.

なお、図示のように当該矩形領域84が顔画像が存在する部分画像に対応する領域であるある場合には、顔マークFMも表示する。   As shown in the figure, when the rectangular area 84 is an area corresponding to a partial image where a face image exists, a face mark FM is also displayed.

この表示を視認することにより、ユーザは顔マークFMが存在する「部分画像4」の撮影を終了したことを知ることができる。その結果、次に撮影すべき部分画像は、図6(A)に示すように、「部分画像4」の上辺に連なる「部分画像1」、下辺に連なる「部分画像7」、右辺に連なる「部分画像5」のいずれかであることを認識することができる。したがって、ユーザは例えば次に「部分画像1」を撮影しようとする場合には、光学レンズ2が上向きとなるようにデジタルカメラ1を移動操作する。   By visually recognizing this display, the user can know that the photographing of “partial image 4” in which the face mark FM exists has been completed. As a result, as shown in FIG. 6A, the partial image to be photographed next is “partial image 1” connected to the upper side of “partial image 4”, “partial image 7” connected to the lower side, “ It can be recognized that it is one of the partial images 5 ”. Therefore, for example, when the user intends to take “partial image 1” next time, the user moves the digital camera 1 so that the optical lens 2 faces upward.

すると、前述のようにデジタルカメラ1の移動量を算出することにより取得するとともに(ステップS217)、撮影された部分画像と四辺にて隣接する次の部分画像の重なりを計算する(ステップS219)。そして、次のステップS220で、以下の2つ条件を満たすか否かを判断する。
条件1:前記重なりが適正範囲である。
条件2:移動量情報に基づき今回撮影しようとしている部分画像が、未撮影の部分画像である。
Then, as described above, it is obtained by calculating the movement amount of the digital camera 1 (step S217), and the overlap between the captured partial image and the next partial image adjacent on the four sides is calculated (step S219). Then, in the next step S220, it is determined whether or not the following two conditions are satisfied.
Condition 1: The overlap is in an appropriate range.
Condition 2: The partial image to be captured this time based on the movement amount information is an uncaptured partial image.

この判断の結果、条件1及び2を満たす場合、つまり重なりが適正範囲であり、かつ移動量情報に基づき今回撮影しようとしている部分画像が、未撮影の部分画像である場合には、CPU6は、報知部16を制御して光又は/及び音により、これを報知する(ステップS220)。したがって、デジタルカメラ1の向き等を調整しながら次の部分画像を撮影しようとしているユーザは、この報知により前回撮影した部分画像に隣接する次の部分画像を撮影可能となったことを認識することができる。   As a result of this determination, if the conditions 1 and 2 are satisfied, that is, if the overlap is in an appropriate range and the partial image to be captured this time based on the movement amount information is an uncaptured partial image, the CPU 6 The notification unit 16 is controlled to notify this by light or / and sound (step S220). Therefore, the user who is taking the next partial image while adjusting the orientation of the digital camera 1 recognizes that the next partial image adjacent to the previously taken partial image can be taken by this notification. Can do.

この認識に基づきユーザがシャッタボタンを2段全しすると、ステップS221の判断がYESとなる。したがって、CPU6は、ステップS221からステップS222に進んで部分画像撮影処理を実行し、撮像素子3からの画像データを取得してRAM15に保存する。さらに、撮影済み部分画像の識別表示を更新する(ステップS223)。つまり、今回撮影した部分画像が前記「部分画像4」の上辺に隣接する「部分画像1」であった場合には、図9(B)に示すように、「部分画像1」に対応する1行1列目の矩形領域81を着色表示することにより、液晶表示部8の表示状態を更新する。   When the user completes the two shutter buttons based on this recognition, the determination in step S221 is YES. Therefore, the CPU 6 proceeds from step S221 to step S222, executes partial image shooting processing, acquires image data from the image sensor 3, and stores it in the RAM 15. Further, the identification display of the captured partial image is updated (step S223). That is, when the partial image captured this time is “partial image 1” adjacent to the upper side of the “partial image 4”, as shown in FIG. 9B, 1 corresponding to “partial image 1”. The display state of the liquid crystal display unit 8 is updated by color-displaying the rectangular region 81 in the first row.

したがって、ユーザが予め選択したパノラマ構図パターンを構成する部分画像を撮影する毎に、パターン枠80の対応する矩形領域84、81・・・が順次着色表示されることとなる。これによりユーザは、予め選択したパノラマ構図パターンを構成するいずれの部分画像が撮影済みとなったかを認識することができ、適正枚数の部分画像を確実に撮影することができる。   Therefore, each time a partial image constituting a panoramic composition pattern selected in advance by the user is photographed, the corresponding rectangular regions 84, 81,... Of the pattern frame 80 are sequentially colored and displayed. Thus, the user can recognize which partial images constituting the pre-selected panoramic composition pattern have been captured, and can reliably capture an appropriate number of partial images.

なお、本実施の形態においては液晶表示部8にパターン枠80を全画面表示させるようにしたが、液晶表示部8を画面分割し、その一方側にライブビュー画像を表示させ続け、他方側にパターン枠80を表示させるようにしてもよい。このような表示形態にすれば、ライブビュー画像で撮影画像を視認して撮影を行いつつ、撮影済み部分画像も確認することができる。   In the present embodiment, the pattern frame 80 is displayed on the entire screen on the liquid crystal display unit 8. However, the liquid crystal display unit 8 is divided into screens, and the live view image is continuously displayed on one side, and the other side is displayed. The pattern frame 80 may be displayed. With such a display form, the captured partial image can be confirmed while the captured image is visually recognized in the live view image.

このようにして、液晶表示部8に表示されたパターン枠80内の全領域が着色表示され、適正枚数の部分画像の撮影を完了したならば、ユーザはシャッタボタンを一気押しする。すると、ステップS224の判断がYESとなり、CPU6はステップS226に進んで、RAM15内にてパノラマ合成画像を生成する。すなわち、ステップS215で撮影された被写体人物の顔が存在する「部分画像4」を基準にし、ステップS222で撮影された他の「部分画像」を前記隣接する部分画像間の重なり部分を削除して順次接合することにより、パノラマ合成画像を生成する。さらに、CPU6は、ステップS225からステップS226に進んで、RAM15にて生成したパノラマ合成画像を画像記憶媒体9に記憶する。   In this way, when the entire area in the pattern frame 80 displayed on the liquid crystal display unit 8 is displayed in color, and shooting of an appropriate number of partial images is completed, the user presses the shutter button all at once. Then, the determination in step S224 is YES, and the CPU 6 proceeds to step S226 and generates a panorama composite image in the RAM 15. That is, with reference to “partial image 4” in which the face of the subject person photographed in step S215 is present, the overlapping portion between the adjacent partial images is deleted from the other “partial image” photographed in step S222. A panorama composite image is generated by sequentially joining. Further, the CPU 6 proceeds from step S225 to step S226, and stores the panorama composite image generated by the RAM 15 in the image storage medium 9.

この画像記憶媒体9に記憶された合成画像にあっては、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像であって、かつユーザの所望の部位に人物被写体の顔(撮影者自身の顔を含む)を配した画像である。したがって、本実施の形態によれば、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像において、ユーザ所望の構図を実現することができる。   The composite image stored in the image storage medium 9 is an image obtained by combining a plurality of photographed images having different photographing ranges, and the face of the person subject (the photographer's own image) is placed on a desired part of the user. (Including face). Therefore, according to the present embodiment, it is possible to realize a user-desired composition in an image obtained by combining a plurality of photographed images having different photographing ranges.

しかも、本実施の形態においては、前述のように適正枚数の部分画像を確実に撮影することができることから、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像において、ユーザ所望の構図をより確実に実現することができる。   In addition, in the present embodiment, since an appropriate number of partial images can be reliably shot as described above, the composition desired by the user can be further improved in an image obtained by combining a plurality of shot images having different shooting ranges. It can be realized reliably.

(第2の実施の形態)
図10は、本発明の第2の実施の形態におけるパノラマ撮影モードの処理手順を示すフローチャートである。ユーザによる操作キー部11での操作により、パノラマ撮影モードが設定されるとCPU6は前記プログラムに従って、このフローチャートに示す処理を実行する。このフローチャートにおいて、ステップS301〜S309の処理は、図3に示したフローチャートにおけるステップS101〜S109の処理と同一である。したがって、ユーザによりパノラマ構図パターン(1)が選択された場合には、図5(B)に示したように、CPU6はパノラマ構図パターン(1)に対応する3行3列からなるフラグテーブルFTを作成してRAM15に記憶させる。
(Second Embodiment)
FIG. 10 is a flowchart showing a processing procedure in the panorama shooting mode according to the second embodiment of the present invention. When the panorama shooting mode is set by the operation of the operation key unit 11 by the user, the CPU 6 executes the processing shown in this flowchart according to the program. In this flowchart, the processes in steps S301 to S309 are the same as the processes in steps S101 to S109 in the flowchart shown in FIG. Therefore, when the panorama composition pattern (1) is selected by the user, as shown in FIG. 5B, the CPU 6 creates a flag table FT consisting of 3 rows and 3 columns corresponding to the panorama composition pattern (1). Created and stored in RAM 15.

引き続き、撮像素子3によって撮像された被写体像の取り込みを開始して、ライブビュー画像を液晶表示部8に表示させる(ステップS310)。また、CPU6は、ライブビュー画像中における人物被写体の顔の位置を検出する(ステップS311)。このステップS311での顔の位置検出処理に際しても、前述のように公知の顔の検出方法を用いればよい。   Subsequently, the capturing of the subject image captured by the image sensor 3 is started, and the live view image is displayed on the liquid crystal display unit 8 (step S310). Further, the CPU 6 detects the position of the face of the human subject in the live view image (step S311). Also in the face position detection process in step S311, a known face detection method may be used as described above.

次に、ステップS308で設定された部分画像領域内における顔マークの位置と、このライブビュー画像内で検出した顔位置とが一致したか否かを判断する(ステップS312)。この間ユーザは、ライブビュー画像内の人物被写体の顔の位置が設定した顔マークの位置と一致するようにデジタルカメラ1の向き等を調整する。これにより両者の位置が一致すると、CPU6は、ステップS312からステップS313に進んで自動的に部分画像撮影処理を実行し、撮像素子3からの画像データを取得してRAM15に保存する。これにより、図6(A)に示すように、3行3列のパノラマ構図パターン(1)において、人物被写体の顔Fを有する「部分画像4」の撮影が完了したこととなる。   Next, it is determined whether or not the face mark position in the partial image region set in step S308 matches the face position detected in the live view image (step S312). During this time, the user adjusts the orientation of the digital camera 1 so that the position of the face of the human subject in the live view image matches the position of the set face mark. When the two positions coincide with each other, the CPU 6 proceeds from step S312 to step S313 to automatically execute a partial image photographing process, acquires image data from the image pickup device 3, and stores it in the RAM 15. As a result, as shown in FIG. 6A, in the panoramic composition pattern (1) of 3 rows and 3 columns, photographing of “partial image 4” having the face F of the person subject is completed.

さらに、撮影した部分画像に対応するフラグをセットする(ステップS317)。つまり、現時点では図5(A)に示すパノラマ構図パターン(1)において、顔マークFMが存在する「部分画像4」の画像を撮影したのであるから、同図(B)に示すフラグテーブルFTにおいて、「部分画像4」に対応するフラグF4をセットして、フラグF4=1にするとともに、顔マークフラグFFもセットして、フラグFF=1にする。   Further, a flag corresponding to the captured partial image is set (step S317). That is, at present, since the image of “partial image 4” having the face mark FM is taken in the panorama composition pattern (1) shown in FIG. 5A, the flag table FT shown in FIG. , The flag F4 corresponding to “partial image 4” is set to set the flag F4 = 1, and the face mark flag FF is also set to set the flag FF = 1.

以上により、CPU6は、顔マークFMが存在する「部分画像4」の撮影を終了したことから、次に撮影すべき部分画像は、図6(A)に示すように、「部分画像4」の上辺に連なる「部分画像1」、下辺に連なる「部分画像7」、右辺に連なる「部分画像5」のいずれかである。したがって、ユーザは光学レンズ2が上向き、下向き、あるいは右向きとなるようにデジタルカメラ1を移動操作する。すると、CPU6は、前述と同様にしてデジタルカメラ1の移動量を算出して取得し(ステップS315)、前記ステップS313で撮影した部分画像と次に撮影すべき部分画像との重なりを計算する(ステップS316)。さらに、次のステップS317で、前記条件1及び2を満たすか否かを判断する。   As described above, since the CPU 6 has finished capturing the “partial image 4” where the face mark FM exists, the partial image to be photographed next is “partial image 4” as shown in FIG. One of “partial image 1” connected to the upper side, “partial image 7” connected to the lower side, and “partial image 5” connected to the right side. Therefore, the user moves the digital camera 1 so that the optical lens 2 is directed upward, downward, or rightward. Then, the CPU 6 calculates and acquires the movement amount of the digital camera 1 in the same manner as described above (step S315), and calculates the overlap between the partial image captured in step S313 and the partial image to be captured next (step S315). Step S316). Further, in the next step S317, it is determined whether or not the conditions 1 and 2 are satisfied.

この判断の結果、第1の実施の形態で説明した条件1及び2を満たす場合、つまり重なりが適正範囲であり、かつ移動量情報に基づき今回撮影しようとしている部分画像が、フラグF=0であるフラグ未セットの部分画像領域である場合には、CPU6は、ステップS317からステップS318に進む。そして、自動的に部分画像撮影処理を実行し、撮像素子3からの画像データを取得してRAM15に保存する。さらに、撮影した部分画像に対応するフラグをセットする(ステップS319)。   As a result of the determination, when the conditions 1 and 2 described in the first embodiment are satisfied, that is, the partial image that is overlapped is in an appropriate range and is to be photographed this time based on the movement amount information is flag F = 0. If it is a partial image area where a flag has not been set, the CPU 6 proceeds from step S317 to step S318. Then, the partial image photographing process is automatically executed, and the image data from the image sensor 3 is acquired and stored in the RAM 15. Further, a flag corresponding to the captured partial image is set (step S319).

引き続き、フラグテーブルFTの全てのフラグがセット(=1)されているか否かを判断する(ステップS320)。このとき、ユーザが予め選択したパノラマ構図パターンに応じた適正枚数の部分画像を撮影が未だ完了していない場合には、フラグテーブルFTの全てのフラグがセットされておらず、ステップS327の判断はNOとなる。したがって、ステップS315に戻り、フラグテーブルFTの全てのフラグがセットされるまで、ステップS315〜S320のループを繰り返す。   Subsequently, it is determined whether or not all the flags in the flag table FT are set (= 1) (step S320). At this time, if shooting of an appropriate number of partial images corresponding to the panorama composition pattern selected in advance by the user has not been completed, all the flags in the flag table FT have not been set, and the determination in step S327 is performed. No. Accordingly, the process returns to step S315, and the loop of steps S315 to S320 is repeated until all the flags in the flag table FT are set.

したがって、3行3列のパノラマ構図パターン(1)が選択された本例においては、ステップS315〜S320のループが8回繰り返される。これにより、選択されたパノラマ構図パターンを構成する各部分画像が順次自動撮影されていく。そして、3行3列のパノラマ構図パターン(1)を構成する9枚の部分画像の自動撮影が完了すると、図6(B)に示すように、フラグテーブルFTの全てのフラグがセット(=1)された状態となる。すると、CPU6は、ステップS320からステップS321に進み、前述のようにRAM15内にてパノラマ合成画像を生成する。さらに、このRAM15にて生成したパノラマ合成画像を画像記憶媒体9に記憶する(ステップS322)。   Accordingly, in this example in which the 3 × 3 panoramic composition pattern (1) is selected, the loop of steps S315 to S320 is repeated eight times. As a result, each partial image constituting the selected panoramic composition pattern is automatically photographed sequentially. When the nine partial images constituting the 3 × 3 panoramic composition pattern (1) are automatically captured, all the flags in the flag table FT are set (= 1 as shown in FIG. 6B). ). Then, the CPU 6 proceeds from step S320 to step S321, and generates a panoramic composite image in the RAM 15 as described above. Further, the panorama composite image generated by the RAM 15 is stored in the image storage medium 9 (step S322).

したがって、本実施の形態によれば、ユーザがシャッタボタンの操作を行わずとも、予め選択したパノラマ構図パターンに応じて、被写体人物の顔を有する画像や、当該パノラマ構図パターンを構成する複数の部分画像が自動撮影されて合成される。よって、本実施の形態によれば、互いに撮影範囲が異なる複数枚の撮影画像を合成した画像において、ユーザ所望の構図を容易かつ迅速に実現することができる。   Therefore, according to the present embodiment, an image having the face of a subject person and a plurality of parts constituting the panorama composition pattern according to the panorama composition pattern selected in advance without the user operating the shutter button. Images are automatically captured and combined. Therefore, according to the present embodiment, it is possible to easily and quickly realize a user-desired composition in an image obtained by combining a plurality of photographed images having different photographing ranges.

なお、本実施の形態においては、第1の実施の形態において実行したステップS110の処理を行わず、液晶表示部8に顔マークを表示させる処理を省略したが、同処理を行うようにしてもよい。これにより、ユーザは液晶表示部8を視認しつつデジタルカメラ1の向き等を調整することができ、容易にライブビュー画像内の被写体人物の顔を顔マークに合致させることができる。その結果、ステップS313の部分画像撮影処理が迅速に行われることとなり、各部分画像が自動撮影されることとも相俟って、合成画像を記録するまでに要する時間を短縮することができる。   In the present embodiment, the process of displaying the face mark on the liquid crystal display unit 8 is omitted without performing the process of step S110 executed in the first embodiment, but the same process may be performed. Good. Accordingly, the user can adjust the orientation of the digital camera 1 while visually recognizing the liquid crystal display unit 8, and can easily match the face of the subject person in the live view image with the face mark. As a result, the partial image capturing process in step S313 is performed quickly, and the time required to record the composite image can be shortened in combination with the automatic capturing of each partial image.

1 デジタルカメラ
2 光学レンズ
3 撮像素子
4 TG
5 ユニット回路
6 画像処理回路/CPU
8 液晶表示部
9 画像記憶媒体
11 操作キー部
12 ROM
13 GPSモジュール
14 ジャイロ部
15 RAM
16 報知部
20 本体
21 フラップ
22 制御部
80 パターン枠
FF 顔マークフラグ
FM 顔マーク
FT フラグテーブル
1 Digital Camera 2 Optical Lens 3 Image Sensor 4 TG
5 Unit circuit 6 Image processing circuit / CPU
8 Liquid crystal display unit 9 Image storage medium 11 Operation key unit 12 ROM
13 GPS module 14 Gyro section 15 RAM
16 Notification unit 20 Main body 21 Flap 22 Control unit 80 Pattern frame FF Face mark flag FM Face mark FT flag table

Claims (10)

画像を撮影する撮影手段と、
操作に応じて、複数の画像を合成した規定の合成画像における主要被写体像の位置を設定する第1の設定手段と、
前記撮影手段により撮影されている画像上で前記主要被写体像を認識する認識手段と、
前記規定の合成画像上で、前記第1の設定手段により設定された位置に前記認識手段により認識される主要被写体が位置するように、前記撮影手段により撮影される画像毎の撮影範囲を設定する第2の設定手段と、
前記撮影手段により撮影されている画像の撮影範囲が、前記第2の設定手段により設定された撮影範囲になったときに、前記撮影手段により撮影された画像を自律的又は他律的に取得する取得手段と、
前記取得手段により取得された複数の画像を合成することにより前記規定の合成画像を生成する合成手段と、
を備えることを特徴とする撮影装置。
Photographing means for photographing an image;
A first setting means for setting a position of a main subject image in a prescribed composite image obtained by combining a plurality of images according to an operation;
Recognizing means for recognizing the main subject image on the image photographed by the photographing means;
A photographing range for each image photographed by the photographing unit is set so that the main subject recognized by the recognizing unit is positioned at the position set by the first setting unit on the prescribed composite image. A second setting means;
When the photographing range of the image photographed by the photographing means becomes the photographing range set by the second setting means, the image photographed by the photographing means is acquired autonomously or otherwise. Acquisition means;
Synthesizing means for generating the prescribed synthesized image by synthesizing a plurality of images obtained by the obtaining means;
An imaging apparatus comprising:
前記第1の設定手段は、
前記規定の合成画像を構成する複数の画像から前記主要被写体の位置を設定する画像を選択する選択手段と、
前記選択手段により選択された画像内における任意の位置に前記主要被写体を設定する位置設定手段と、
を備えることを特徴とする請求項1記載の撮影装置。
The first setting means includes
Selecting means for selecting an image for setting the position of the main subject from a plurality of images constituting the prescribed composite image;
Position setting means for setting the main subject at an arbitrary position in the image selected by the selection means;
The imaging apparatus according to claim 1, further comprising:
前記撮影手段により撮影されている撮影画像の撮影範囲が前記第2の設定手段により設定された撮影範囲になったときに、その旨を報知する第1の報知手段を備え、
前記取得手段は、前記第1報知手段の報知後における操作に応答して他律的に、前記撮影手段により撮影された画像を取得する
ことを特徴とする請求項1記載の撮影装置。
When the shooting range of the shot image shot by the shooting means becomes the shooting range set by the second setting means, the first notification means for notifying that effect,
The imaging device according to claim 1, wherein the acquisition unit acquires an image captured by the imaging unit in response to an operation after the notification by the first notification unit.
前記取得手段は、
前記撮影手段により撮影されている撮影画像の撮影範囲が、前記第2の設定手段により設定された撮影範囲になったときに、前記撮影手段により撮影された画像を自律的に取得する
ことを特徴とする請求項1記載の撮影装置。
The acquisition means includes
When the shooting range of the shot image shot by the shooting unit is the shooting range set by the second setting unit, the image shot by the shooting unit is autonomously acquired. The imaging apparatus according to claim 1.
前記規定の合成画像の撮影範囲を設定する第3の設定手段を、
さらに備えることを特徴とする請求項1から4にいずれか記載の撮影装置。
A third setting means for setting a photographing range of the prescribed composite image;
The imaging apparatus according to claim 1, further comprising:
前記第3の設定手段は、
前記合成画像の合成パターンを複数種記憶した記憶手段を備え、
この記憶手段に記憶された複数種の合成パターンから、操作に応じて任意の合成パターンを選択して前記合成画像の撮影範囲を設定する
ことを特徴とする請求項5記載の撮影装置。
The third setting means includes
Comprising storage means for storing a plurality of composite patterns of the composite image;
6. The photographing apparatus according to claim 5, wherein an arbitrary composite pattern is selected from a plurality of types of composite patterns stored in the storage means according to an operation, and a photographing range of the composite image is set.
前記合成手段により生成された合成画像の撮影範囲が、前記規定の合成画像の撮影範囲を含んでいない場合、その旨を報知する第2の報知手段を
さらに備えることを特徴とする請求項1から6にいずれか記載の撮影装置。
2. The apparatus according to claim 1, further comprising: a second notifying unit for notifying that the shooting range of the synthesized image generated by the synthesizing unit does not include the shooting range of the specified synthesized image. 6. The photographing apparatus according to any one of 6.
前記取得手段により取得された画像と、前記規定の合成画像を構成する画像との対応関係を表示する表示手段を備えることを特徴とする請求項1から6にいずれか記載の撮影装置。   7. The photographing apparatus according to claim 1, further comprising a display unit that displays a correspondence relationship between the image acquired by the acquisition unit and an image constituting the prescribed composite image. 前記規定の合成画像を構成する画像に対応する画像が、前記取得手段により全て取得されたか否かを判断する判断手段を備え、
前記合成手段は、前記判断手段により前記規定の合成画像を構成する画像に対応する画像が取得されたと判断されたとき、前記合成画像を生成する
ことを特徴とする請求項1から6にいずれか記載の撮影装置。
Determining means for determining whether or not all the images corresponding to the images constituting the prescribed composite image have been acquired by the acquiring means;
7. The composite image according to claim 1, wherein the composition unit generates the composite image when it is determined by the determination unit that an image corresponding to an image constituting the prescribed composite image has been acquired. The imaging device described.
画像を撮影する撮影手段を備える撮像装置が有するコンピュータを、
操作に応じて、複数の画像を合成した規定の合成画像における主要被写体像の位置を設定する第1の設定手段と、
前記撮影手段により撮影されている画像上で前記主要被写体像を認識する認識手段と、
前記規定の合成画像上で、前記第1の設定手段により設定された位置に前記認識手段により認識される主要被写体が位置するように、前記撮影手段により撮影される画像毎の撮影範囲を設定する第2の設定手段と、
前記撮影手段により撮影されている画像の撮影範囲が、前記第2の設定手段により設定された撮影範囲になったときに、前記撮影手段により撮影された画像を自律的又は他律的に取得する取得手段と、
前記取得手段により取得された複数の画像を合成することにより前記規定の合成画像を生成する合成手段と、
して機能させることを特徴とする撮影制御プログラム。
A computer included in an imaging apparatus including an imaging unit that captures an image,
A first setting means for setting a position of a main subject image in a prescribed composite image obtained by combining a plurality of images according to an operation;
Recognizing means for recognizing the main subject image on the image photographed by the photographing means;
A photographing range for each image photographed by the photographing unit is set so that the main subject recognized by the recognizing unit is positioned at the position set by the first setting unit on the prescribed composite image. A second setting means;
When the photographing range of the image photographed by the photographing means becomes the photographing range set by the second setting means, the image photographed by the photographing means is acquired autonomously or otherwise. Acquisition means;
Synthesizing means for generating the prescribed synthesized image by synthesizing a plurality of images obtained by the obtaining means;
A shooting control program characterized by causing the function to function.
JP2009138848A 2009-06-10 2009-06-10 Imaging apparatus and imaging control program Expired - Fee Related JP5293427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009138848A JP5293427B2 (en) 2009-06-10 2009-06-10 Imaging apparatus and imaging control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009138848A JP5293427B2 (en) 2009-06-10 2009-06-10 Imaging apparatus and imaging control program

Publications (2)

Publication Number Publication Date
JP2010287977A JP2010287977A (en) 2010-12-24
JP5293427B2 true JP5293427B2 (en) 2013-09-18

Family

ID=43543376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009138848A Expired - Fee Related JP5293427B2 (en) 2009-06-10 2009-06-10 Imaging apparatus and imaging control program

Country Status (1)

Country Link
JP (1) JP5293427B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4957825B2 (en) * 2010-03-25 2012-06-20 カシオ計算機株式会社 Imaging apparatus and program
JP5620871B2 (en) * 2011-04-11 2014-11-05 大成建設株式会社 Panorama image data generation device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224767A (en) * 2002-01-29 2003-08-08 Fuji Photo Film Co Ltd Imaging apparatus, method for determining main subject position and program
JP2007006413A (en) * 2005-06-27 2007-01-11 Sony Corp Imaging device
JP4888192B2 (en) * 2007-03-30 2012-02-29 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2010287977A (en) 2010-12-24

Similar Documents

Publication Publication Date Title
TWI386056B (en) A composition determination means, a composition determination method, and a composition determination program
JP4510713B2 (en) Digital camera
JP4442330B2 (en) Electronic camera and electronic camera system
JP4135100B2 (en) Imaging device
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
JP4945722B2 (en) Imaging device
JP2007281760A (en) Electronic camera
JP2005159856A (en) Digital camera
JP2007201539A (en) Digital camera
WO2016002355A1 (en) Image capturing device and image capturing method
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP3971240B2 (en) Camera with advice function
JP2010117663A (en) Autofocus system
JP5233727B2 (en) Electronic camera
JP2010114599A (en) Digital camera
JP5092961B2 (en) Imaging apparatus, imaging method, and program
JP5293427B2 (en) Imaging apparatus and imaging control program
JP2010141609A (en) Imaging apparatus
JP2010200084A (en) Imaging apparatus
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2006128793A (en) Image pickup device and control method thereof
JP2010239532A (en) Image capturing apparatus and method
JP4336186B2 (en) Image correction apparatus and imaging apparatus
KR101630295B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP5156565B2 (en) Information recording / reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

R150 Certificate of patent or registration of utility model

Ref document number: 5293427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees