JP2010034838A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2010034838A
JP2010034838A JP2008194779A JP2008194779A JP2010034838A JP 2010034838 A JP2010034838 A JP 2010034838A JP 2008194779 A JP2008194779 A JP 2008194779A JP 2008194779 A JP2008194779 A JP 2008194779A JP 2010034838 A JP2010034838 A JP 2010034838A
Authority
JP
Japan
Prior art keywords
frame
image
shooting
person
electronic camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008194779A
Other languages
Japanese (ja)
Inventor
Kenichi Kawaguchi
健一 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008194779A priority Critical patent/JP2010034838A/en
Publication of JP2010034838A publication Critical patent/JP2010034838A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To take a group photograph including a photographer himself or herself without using a tripod or the like. <P>SOLUTION: The electronic camera includes: an imaging means 12; photography assisting mean 21 (24) and 17 of, after photography of each frame for photographing N subject persons, prompting framing of next-frame photography such that an unphotographed person next to a main subject person of previous-frame photography is a main subject of the next-frame photography and photographic ranges of the previous-frame photography and next-frame photography overlap with each other and, after (N-1)-frame photography, prompting framing of Nth-frame photography such that a first photographer who performed the (N-1)-frame photography changes to a photographed person other than a main subject person of the (N-1)-frame photography and moves to a position on the opposite side from the changing person and next to the main subject person of the (N-1)-frame photography to be a main subject of N-fame photography, and photographic ranges of the (N-1)-frame photography and Nth-frame photography overlap with each other; and recording means 21, 15 and 16 of recording a plurality of image data of the multiple photography while relating them to one another. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、電子カメラに関する。   The present invention relates to an electronic camera.

人物などの集合写真の撮影をアシストするカメラが知られている(特許文献1参照)。従来技術では、プレビュー画像から検出した顔部分を表示部に拡大表示し、選択操作によって拡大表示する顔を切替えることにより、撮影者がそれぞれの顔の画像を確認できるようにしている。   A camera that assists in taking a group photo of a person or the like is known (see Patent Document 1). In the prior art, a face portion detected from a preview image is enlarged and displayed on a display unit, and a face to be enlarged is displayed by a selection operation, so that a photographer can check each face image.

特開2005−102175号公報JP-A-2005-102175

従来の集合写真の撮影では、三脚などを使わないと撮影者自身が集合写真に加わることができないという問題があった。   In conventional group photography, there was a problem that the photographer himself could not join the group photograph without using a tripod.

本発明による電子カメラは、被写体像を撮像して画像データを出力する撮像手段と、N人の被写体人物をそれぞれ撮影する各コマの撮影後に、前コマ撮影時の主要被写体人物の隣の未撮影人物を次コマ撮影の主要被写体とし、前コマ撮影と次コマ撮影とで撮影範囲の一部が重複するように次コマ撮影のフレーミングをすること、を促すとともに、(N−1)コマ撮影後は、(N−1)コマ撮影時の撮影操作をした第1撮影者と(N−1)コマ撮影時の主要被写体人物以外の撮影済み人物が交代し、交代人物と反対側の位置であって(N−1)コマ撮影時の主要被写体人物の隣へ第1撮影者が移動し、第1撮影者を第Nコマ撮影時の主要被写体とし、(N−1)コマ撮影と第Nコマ撮影とで撮影範囲の一部が重複するように第Nコマ撮影のフレーミングをすること、を促す撮影アシスト手段と、複数の撮影による複数の画像データを関連づけてそれぞれ記録する記録手段とを備えることを特徴とする。   The electronic camera according to the present invention includes an imaging unit that captures a subject image and outputs image data, and an unphotographed image next to the main subject person at the time of the previous frame photographing after each frame for photographing N subject persons. The person is assumed to be the main subject of the next frame shooting, and framing of the next frame shooting is performed so that a part of the shooting range overlaps between the previous frame shooting and the next frame shooting, and (N-1) after the frame shooting (N-1) The first photographer who performed the shooting operation at the time of frame shooting and (N-1) the photographed person other than the main subject person at the time of frame shooting were changed, and the position was on the opposite side of the replacement person. (N-1) The first photographer moves next to the main subject person at the time of frame shooting, and the first photographer is set as the main subject at the time of N-th frame shooting. Frame the Nth frame so that part of the shooting range overlaps with the shooting And a recording unit for recording a plurality of image data associated with a plurality of images in association with each other.

本発明による電子カメラでは、撮影者自身を含む高品位の集合写真を撮影できる。   The electronic camera according to the present invention can take a high-quality group photo including the photographer himself.

以下、図面を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態による電子カメラの構成を示すブロック図である。図1において、電子カメラは、撮像光学系11と、撮像素子12と、AFE(Analog front end)回路13と、画像処理部14と、バッファメモリ15と、記録インターフェース(I/F)16と、モニタ17と、操作部材18と、半押しスイッチ19aと、全押しスイッチ19bと、CPU21と、縦/横センサ50とを備える。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an electronic camera according to an embodiment of the present invention. In FIG. 1, an electronic camera includes an imaging optical system 11, an imaging device 12, an AFE (Analog front end) circuit 13, an image processing unit 14, a buffer memory 15, a recording interface (I / F) 16, A monitor 17, an operation member 18, a half-push switch 19 a, a full-push switch 19 b, a CPU 21, and a vertical / horizontal sensor 50 are provided.

CPU21、記録インターフェース16、画像処理部14、バッファメモリ15、およびモニタ17は、それぞれがバス22を介して接続されている。   The CPU 21, the recording interface 16, the image processing unit 14, the buffer memory 15, and the monitor 17 are connected via a bus 22.

撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図1を簡単にするため、撮像光学系11を単レンズとして図示している。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the imaging element 12. In order to simplify FIG. 1, the imaging optical system 11 is shown as a single lens.

撮像素子12は、受光面に受光素子が二次元配列されたCCDイメージセンサやCMOSイメージセンサなどによって構成される。撮像素子12は、撮像光学系11を通過した光束による被写体像を光電変換してアナログ画像信号を生成する。アナログ画像信号は、AFE回路13に入力される。   The image sensor 12 is configured by a CCD image sensor, a CMOS image sensor, or the like in which light receiving elements are two-dimensionally arranged on a light receiving surface. The image sensor 12 photoelectrically converts a subject image generated by a light beam that has passed through the imaging optical system 11 to generate an analog image signal. The analog image signal is input to the AFE circuit 13.

AFE回路13は、アナログ画像信号に対して相関二重サンプリングやゲイン調整を行うとともに、アナログ処理後の画像信号をデジタルデータに変換する。デジタル画像データは、画像処理部14に入力される。画像処理部14は、デジタル画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理など)を施す。   The AFE circuit 13 performs correlated double sampling and gain adjustment on the analog image signal, and converts the analog-processed image signal into digital data. The digital image data is input to the image processing unit 14. The image processing unit 14 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, etc.) on the digital image data.

バッファメモリ15は、画像処理部14による画像処理の前工程や後工程での画像データを一時的に記憶する。記録インターフェース16はコネクタ(不図示)を有し、該コネクタに記録媒体23が接続される。記録インターフェース16は、接続された記録媒体23に対するデータの書き込みや、記録媒体23からのデータの読み込みを行う。記録媒体23は、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。   The buffer memory 15 temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 14. The recording interface 16 has a connector (not shown), and the recording medium 23 is connected to the connector. The recording interface 16 writes data to the connected recording medium 23 and reads data from the recording medium 23. The recording medium 23 includes a memory card with a built-in semiconductor memory, a hard disk drive, or the like.

モニタ17は液晶パネルによって構成され、CPU21からの指示に応じて画像や操作メニューなどを再生表示する。操作部材18は、コマンドダイヤル、十字キー、決定ボタンなどを含む。操作部材18は、モード切替え操作やメニュー選択操作など、各操作に応じた操作信号をCPU21へ送出する。   The monitor 17 is composed of a liquid crystal panel, and reproduces and displays images, operation menus, and the like in accordance with instructions from the CPU 21. The operation member 18 includes a command dial, a cross key, an enter button, and the like. The operation member 18 sends an operation signal corresponding to each operation such as a mode switching operation and a menu selection operation to the CPU 21.

半押しスイッチ19aおよび全押しスイッチ19bは、レリーズボタン(不図示)の押下操作に連動して、それぞれがオン信号をCPU21へ出力する。スイッチ19aからのオン信号(半押し操作信号)は、レリーズボタンが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。スイッチ19bからのオン信号(全押し操作信号)は、レリーズボタンが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。半押し操作信号は、CPU21に対して撮影準備の開始を指示する。全押し操作信号は、CPU21に対して撮影開始を指示する。   The half-push switch 19a and the full-push switch 19b each output an ON signal to the CPU 21 in conjunction with a pressing operation of a release button (not shown). The ON signal (half-press operation signal) from the switch 19a is output when the release button is pressed down to about half of the normal stroke, and the output is canceled when the half-stroke press-down operation is released. The ON signal (full pressing operation signal) from the switch 19b is output when the release button is pressed down to the normal stroke, and the output is canceled when the normal stroke pressing operation is released. The half-press operation signal instructs the CPU 21 to start shooting preparation. The full-press operation signal instructs the CPU 21 to start photographing.

CPU21は、ROM(不図示)に格納されたプログラムを実行することによって電子カメラが行う動作を統括的に制御する。CPU21は、AF(オートフォーカス)動作制御や、自動露出(AE)演算、オートホワイトバランス演算の他、後述する集合写真撮影のために必要な演算も行う。AF動作は、たとえば、スルー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。スルー画像は、撮影指示前に撮像素子12が取得するモニタ用画像のことをいう。   The CPU 21 comprehensively controls operations performed by the electronic camera by executing a program stored in a ROM (not shown). The CPU 21 performs not only AF (autofocus) operation control, automatic exposure (AE) calculation, and auto white balance calculation, but also calculations necessary for group photo shooting described later. The AF operation uses, for example, a contrast detection method for obtaining a focus position of a focusing lens (not shown) based on contrast information of a through image. The through image refers to a monitor image acquired by the image sensor 12 before a shooting instruction.

CPU21は、顔検出部24としても機能する。顔検出部24は、スルー画像に含まれる顔領域を検出する。顔検出処理は、公知の特徴点抽出処理によって眉、目、鼻、唇の各端点などの特徴点を抽出し、抽出した特徴点に基づいて顔領域か否かを判定する。なお、スルー画像とあらかじめ用意した参照データ(顔画像など)との相関関数を求め、この関数が所定の判定閾値を超えた場合に顔領域と判定するように構成してもよい。   The CPU 21 also functions as the face detection unit 24. The face detection unit 24 detects a face area included in the through image. In the face detection process, feature points such as eyebrow, eye, nose, and lip end points are extracted by a known feature point extraction process, and it is determined whether or not the face region is based on the extracted feature points. Note that a correlation function between a through image and reference data (face image or the like) prepared in advance may be obtained, and the face area may be determined when this function exceeds a predetermined determination threshold.

縦/横センサ50は、電子カメラが縦位置姿勢に構えられたこと、または横位置姿勢に構えられたことを検出し、検出信号をCPU21へ送出する。   The vertical / horizontal sensor 50 detects that the electronic camera is held in a vertical position or posture, or sends a detection signal to the CPU 21.

本実施形態の電子カメラは、撮影者自身を含めて集合写真を撮影する場合の動作に特徴を有するので、この撮影動作を中心に説明する。電子カメラのCPU21は、たとえば、撮影モード時にメニュー選択操作によって撮影アシスト機能がオン設定されると、全員撮影アシストモードの処理を起動させる。全員撮影アシストモードは、人物を一人ずつ撮影し、最後に撮影者を交代して当初の撮影者を他の人物が撮影するようにアシストするモードである。   The electronic camera according to the present embodiment is characterized by the operation when taking a group photo including the photographer itself, and will be described with a focus on this shooting operation. For example, when the shooting assist function is turned on by a menu selection operation in the shooting mode, the CPU 21 of the electronic camera activates the process of the shooting assist mode for all members. The all-photographing assist mode is a mode in which a person is photographed one by one and finally the photographer is changed to assist another person to photograph the original photographer.

また、CPU21は、メニュー選択操作によって撮影アシスト機能がオフ設定された場合には、全員撮影アシストモードを起動しないように構成されている。全員撮影アシストモードを起動しない場合は後述する通常撮影処理を行う。   Further, the CPU 21 is configured not to activate the all-photographing assist mode when the photographing assist function is set to OFF by a menu selection operation. When the full-photographing assist mode is not activated, normal photographing processing described later is performed.

<全員撮影アシスト>
「全員撮影アシスト」モード時にCPU21が行う処理の流れについて、図2および図3に例示するフローチャートを参照して説明する。CPU21は、メニュー選択操作によって「全員撮影アシスト」の機能がオン設定されると、図2の処理を行うプログラムを起動してユーザーによる集合写真撮影を手助けする。
<All shooting assistance>
A flow of processing performed by the CPU 21 in the “all-photographing assist” mode will be described with reference to flowcharts illustrated in FIGS. 2 and 3. When the “all shooting assistance” function is turned on by the menu selection operation, the CPU 21 activates a program for performing the process of FIG. 2 and assists the user in taking a group photo.

図2のステップS101において、CPU21は、操作部材18からの操作信号に応じてモニタ17に設定画面を表示させる。CPU21は、操作部材18からの操作信号に応じた設定を行うとステップS102へ進む。なお、設定変更の必要がない場合にはステップS101を省略してステップS102へ進んでもよい。   In step S <b> 101 of FIG. 2, the CPU 21 displays a setting screen on the monitor 17 in accordance with an operation signal from the operation member 18. When the CPU 21 performs the setting according to the operation signal from the operation member 18, the process proceeds to step S102. If there is no need to change the setting, step S101 may be omitted and the process may proceed to step S102.

ステップS102において、CPU21は、撮像素子12にスルー画用の撮像を開始させてステップS103へ進む。スルー画像の取得は、たとえば30フレーム/毎秒のフレームレートで繰り返し行う。CPU21は、スルー画像を用いて顔検出やオートフォーカス調節を行うとともに、スルー画像をモニタ17に逐次表示させながら撮影指示(レリーズ操作)を待つ。   In step S102, the CPU 21 causes the image sensor 12 to start imaging for a through image, and proceeds to step S103. The through image is repeatedly acquired at a frame rate of 30 frames / second, for example. The CPU 21 performs face detection and autofocus adjustment using the through image, and waits for a shooting instruction (release operation) while sequentially displaying the through image on the monitor 17.

ステップS103において、CPU21は顔検出処理を行う。CPU21は、検出した顔領域の位置を示す情報を不図示のワークメモリに一時記録させるとともに、検出した顔領域を示す顔マークをモニタ17に表示中のスルー画像に重ね表示させてステップS104へ進む。図4は、モニタ17による表示画面を例示する図である。図4において、フレーム枠100の内側に2つの顔が検出され、検出された顔領域を示す顔マーク(枠101、枠102)がそれぞれ重ね表示されている。フレーム枠100は、スルー画像の撮像範囲に対応する。なお、被写体人物をA、Bとする。   In step S103, the CPU 21 performs face detection processing. The CPU 21 temporarily records information indicating the position of the detected face area in a work memory (not shown), and superimposes the face mark indicating the detected face area on the through image being displayed on the monitor 17, and then proceeds to step S104. . FIG. 4 is a diagram illustrating a display screen by the monitor 17. In FIG. 4, two faces are detected inside the frame 100, and face marks (frame 101 and frame 102) indicating the detected face area are displayed in an overlapping manner. The frame frame 100 corresponds to the imaging range of the through image. The subject person is A and B.

ステップS104において、CPU21は、検出した顔の数をZとし、Zの値をワークメモリ(不図示)に一時記録させてステップS105へ進む。ステップS105において、CPU21はZ≧2が成立するか否かを判定する。CPU21は、Z≧2が成立する場合にステップS105を肯定判定してステップS106へ進み、Z≧2が成立しない場合にはステップS105を否定判定してステップS500へ進む。   In step S104, the CPU 21 sets the number of detected faces to Z, temporarily stores the value of Z in a work memory (not shown), and proceeds to step S105. In step S105, the CPU 21 determines whether Z ≧ 2 is satisfied. If Z ≧ 2 is satisfied, the CPU 21 makes an affirmative determination in step S105 and proceeds to step S106. If Z ≧ 2 is not satisfied, the CPU 21 makes a negative determination in step S105 and proceeds to step S500.

ステップS106において、CPU21は、全員撮影アシストを行うか否かを判定する。CPU21は、モニタ17に、たとえば「全員撮影アシストを行いますか?」というメッセージをモニタ17に表示中のスルー画像に重ね表示させて操作部材18からの操作信号を待つ。CPU21は、操作部材18から肯定操作を示す操作信号が入力された場合にステップS106を肯定判定してステップS107へ進む。CPU21は、操作部材18から否定操作を示す操作信号が入力された場合にはステップS106を否定判定し、ステップS500へ進む。ステップS500へ進む場合はユーザーが撮影時のアシストを望まない場合である。   In step S106, the CPU 21 determines whether or not to perform shooting assistance for all members. The CPU 21 waits for an operation signal from the operation member 18 by causing the monitor 17 to display, for example, a message “Would you like to assist shooting for all?” Superimposed on the through image being displayed on the monitor 17. If an operation signal indicating an affirmative operation is input from the operation member 18, the CPU 21 makes an affirmative decision in step S106 and proceeds to step S107. When an operation signal indicating a negative operation is input from the operation member 18, the CPU 21 makes a negative determination in step S106 and proceeds to step S500. The process proceeds to step S500 when the user does not want to assist in shooting.

(全員撮影)
ステップS107へ進む場合はユーザーが全員撮影アシストを望む場合である。ステップS107においてCPU21は、たとえば「撮影者分を含めて(Z+1)枚を撮影します」というメッセージをモニタ17に表示中のスルー画像に重ね表示させてステップS108へ進む。
(All members take pictures)
The process proceeds to step S107 when the user desires photographing assistance. In step S107, the CPU 21 displays, for example, a message “I will shoot (Z + 1) images including those for the photographer” on the through image being displayed on the monitor 17, and proceeds to step S108.

ステップS108において、CPU21は、カメラが縦位置か否かを判定する。CPU21は、縦/横センサ50から縦位置を示す信号が入力された場合にステップS108を肯定判定してステップS109へ進み、縦/横センサ50から縦位置を示す信号が入力されない場合にはステップS108を否定判定し、ステップS107へ戻る。   In step S108, the CPU 21 determines whether or not the camera is in the vertical position. When a signal indicating the vertical position is input from the vertical / horizontal sensor 50, the CPU 21 makes an affirmative determination in step S108 and proceeds to step S109. When a signal indicating the vertical position is not input from the vertical / horizontal sensor 50, the CPU 21 performs a step. A negative determination is made in S108, and the process returns to Step S107.

ステップS109において、CPU21は、モニタ17に顔マークおよびフレーム中心マークを表示させて人物撮影のアシストを行う。具体的には、スルー画像を表示するとともに、ステップS103で検出した顔領域を示す枠(顔マーク)、フレーム枠100の中央を示すための十字ライン(縦ライン110Vおよび横ライン110H)で構成されるフレーム中心マークを、表示中のスルー画像に重ね表示させてステップS110へ進む。   In step S <b> 109, the CPU 21 displays a face mark and a frame center mark on the monitor 17 and assists in photographing a person. Specifically, a through image is displayed, and a frame (face mark) indicating the face area detected in step S103 and a cross line (vertical line 110V and horizontal line 110H) for indicating the center of the frame 100 are configured. The frame center mark to be displayed is superimposed on the through image being displayed, and the process proceeds to step S110.

ユーザーは、図4に例示した表示画面の中で検出されているZ個の顔、さらにもう1つの顔を、縦位置に構えたカメラでそれぞれ個別に撮影する。本例ではZ=2なので、枠101が示す顔の人物A、枠102が示す顔の人物B、および当初の撮影者である人物(人物C)の3画像を撮影するようにアシストする。   The user individually captures the Z faces detected on the display screen illustrated in FIG. 4 and the other face with a camera held in the vertical position. In this example, since Z = 2, the assist is performed to shoot three images of the person A of the face indicated by the frame 101, the person B of the face indicated by the frame 102, and the person (person C) who is the original photographer.

ステップS110において、CPU21は、フレーム枠100の中央部に「顔」領域を含めてカメラを構えるようにユーザーへ促す表示制御を行ってステップS111へ進む。   In step S110, the CPU 21 performs display control that prompts the user to hold the camera including the “face” area in the center of the frame 100, and proceeds to step S111.

図5は、モニタ17による表示画面を例示する図である。図5において、フレーム枠100の内側に、スルー画像およびフレーム中心マーク(110V、110H)、顔マーク(枠101)が重ね表示されている。このうち顔マークは、フレーム枠100内のスルー画像から顔領域を検出している場合にのみ表示される。顔マークの表示色は、顔マークがフレーム枠100の略中央に位置する場合(たとえば、縦ライン110Vおよび横ライン110Hの交点であるフレーム中心110aが顔マーク内に位置する)に緑色とし、顔マークがフレーム枠100の略中央でない場合(上記フレーム中心110aが顔マークの外に位置する)に赤色とする。撮影者は、フレーム中心110aが顔マーク内に含まれるようにカメラを構えればよい。   FIG. 5 is a diagram illustrating a display screen by the monitor 17. In FIG. 5, the through image, the frame center mark (110V, 110H), and the face mark (frame 101) are superimposed and displayed inside the frame frame 100. Among these, the face mark is displayed only when a face area is detected from the through image in the frame 100. The display color of the face mark is green when the face mark is located at substantially the center of the frame 100 (for example, the frame center 110a that is the intersection of the vertical line 110V and the horizontal line 110H is located within the face mark). When the mark is not substantially at the center of the frame 100 (the frame center 110a is located outside the face mark), the mark is red. The photographer may hold the camera so that the frame center 110a is included in the face mark.

ステップS111において、CPU21は、レリーズボタン(不図示)の半押し操作を受付け、半押しスイッチ19aから半押し操作信号を受けた場合にステップS112へ進む。ステップS112において、CPU21は、スルー画像データによる顔マーク内のコントラスト情報に基づいてオートフォーカス調節、および同顔マーク内の輝度情報に基づいて自動露出演算を行う。   In step S111, the CPU 21 accepts a half-press operation of a release button (not shown), and proceeds to step S112 when a half-press operation signal is received from the half-press switch 19a. In step S112, the CPU 21 performs autofocus adjustment based on the contrast information in the face mark based on the through image data, and automatic exposure calculation based on the luminance information in the face mark.

たとえば、顔マーク101が示す顔の人物の撮影(第1画像撮影)をアシストする場合のCPU21は、顔マーク101内のスルー画像データを用いてオートフォーカス調節、および自動露出演算を行う。同様に、顔マーク102が示す顔の人物の撮影(第2画像撮影)をアシストする場合のCPU21は、顔マーク102内のスルー画像データを用いてオートフォーカス調節、および自動露出演算を行う。図6は、この場合にステップS110において表示されるモニタ17による表示画面を例示する図である。   For example, the CPU 21 when assisting the photographing of the person of the face indicated by the face mark 101 (first image photographing) performs autofocus adjustment and automatic exposure calculation using the through image data in the face mark 101. Similarly, the CPU 21 when assisting the photographing of the person of the face indicated by the face mark 102 (second image photographing) performs autofocus adjustment and automatic exposure calculation using the through image data in the face mark 102. FIG. 6 is a diagram illustrating a display screen by the monitor 17 displayed in step S110 in this case.

ステップS113において、CPU21は、レリーズボタン(不図示)が全押し操作されたか否かを判定する。CPU21は、全押しスイッチ19bから全押し操作信号を受けた場合にステップS113を肯定判定してステップS114へ進み、全押しスイッチ19bから全押し操作信号を受けない場合にはステップS113を否定判定してステップS107へ戻る。   In step S113, the CPU 21 determines whether or not a release button (not shown) has been fully pressed. When the CPU 21 receives a full-press operation signal from the full-press switch 19b, the CPU 21 makes a positive determination in step S113 and proceeds to step S114. When the CPU 21 does not receive the full-press operation signal from the full-press switch 19b, the CPU 21 makes a negative determination. The process returns to step S107.

ステップS114において、CPU21は、撮像素子12に第N画像を撮像させてステップS115へ進む。ステップS115において、CPU21は、AFE回路13を介して画像処理部14へ送られた第N画像データをバッファメモリ15に記録してステップS116へ進む。ステップS116において、CPU21は、第N画像データによる確認用画像をモニタ17に表示させてステップS117へ進む。   In step S114, the CPU 21 causes the image sensor 12 to capture the Nth image, and proceeds to step S115. In step S115, the CPU 21 records the Nth image data sent to the image processing unit 14 via the AFE circuit 13 in the buffer memory 15, and proceeds to step S116. In step S116, the CPU 21 displays a confirmation image based on the Nth image data on the monitor 17, and proceeds to step S117.

ステップS117において、CPU21は確認操作を受付ける。ユーザーは、モニタ17に表示された確認画像を見てOKを指示する場合に肯定操作を行い、モニタ17に表示された確認画像を見て撮り直しを指示する場合には否定操作を行う。CPU21は、操作部材18から肯定操作を示す操作信号が入力された場合にステップS117を肯定判定してステップS118へ進む。CPU21は、操作部材18から否定操作を示す操作信号が入力された場合にはステップS117を否定判定し、ステップS107へ戻って第N画像の撮影アシストを繰り返す。   In step S117, the CPU 21 accepts a confirmation operation. The user performs an affirmative operation when viewing the confirmation image displayed on the monitor 17 and instructing OK, and performs a negative operation when viewing the confirmation image displayed on the monitor 17 and instructing reshooting. When an operation signal indicating an affirmative operation is input from the operation member 18, the CPU 21 makes an affirmative decision in step S117 and proceeds to step S118. When an operation signal indicating a negative operation is input from the operation member 18, the CPU 21 makes a negative determination in step S117, returns to step S107, and repeats the imaging assistance for the Nth image.

ステップS118において、CPU21はN=Zが成立するか否かを判定する。CPU21は、N=Zが成立する場合にステップS118を肯定判定して図3のステップS300へ進み、N=Zが成立しない場合にはステップS118を否定判定してステップS119へ進む。ステップS119において、CPU21は、Nに1を加算してステップS107へ戻り、次の画像の撮影をアシストする。以上の処理を繰り返すことにより、バッファメモリ15内に第1画像〜第Z画像までZ個の画像データが関連づけて記録される。   In step S118, the CPU 21 determines whether N = Z is satisfied. When N = Z is established, the CPU 21 makes an affirmative decision in step S118 and proceeds to step S300 in FIG. 3, and when N = Z is not established, the CPU 21 makes a negative decision and proceeds to step S119. In step S119, the CPU 21 adds 1 to N, returns to step S107, and assists in photographing the next image. By repeating the above processing, Z image data from the first image to the Zth image are recorded in the buffer memory 15 in association with each other.

図3のステップS300において、CPU21は、たとえば「撮影者を左からZ番目の人(本例の場合は人物B)と異なる人と交代してください。カメラを次の撮影者に渡すまで撮影位置を動かないでください」というメッセージをモニタ17に表示させる。CPU21はさらに、「左からZ番目の人の右隣へ移動してください」というメッセージをモニタ17に表示させてステップS320へ進む。これにより、第Z画像の撮影者(人物Cとする)は、Z番目の人(本例の場合は人物B)と異なる人(本例の場合は人物A)に電子カメラを渡してZ番目の人(人物B)の右隣へ移動する。一方、人物Aは、次の撮影者として人物Cが第1画像〜第Z画像を撮影した撮影位置に立って電子カメラを構える。   In step S300 in FIG. 3, the CPU 21 changes, for example, “change the photographer with a person different from the Zth person (person B in this example) from the left. The shooting position until the camera is passed to the next photographer. "Please do not move" is displayed on the monitor 17. Further, the CPU 21 displays a message “Please move to the right next to the Zth person from the left” on the monitor 17 and proceeds to step S320. As a result, the photographer of the Zth image (referred to as person C) passes the electronic camera to a different person (person A in this example) from the Zth person (in this example, person B). Move to the right next to the person (person B). On the other hand, the person A holds the electronic camera at the shooting position where the person C as the next photographer took the first image to the Zth image.

ステップS320において、CPU21は、モニタ17に顔マーク103およびフレーム中心マーク110aを表示させて人物撮影のアシストを行う。具体的には、スルー画像を表示するとともに、ステップS103の場合と同様に検出した顔領域を示す枠(顔マーク103)、フレーム枠100の中央を示すための十字ライン(縦ライン110Vおよび横ライン110H)で構成されるフレーム中心マーク110aを、表示中のスルー画像に重ね表示させる。図7は、モニタ17による表示画面を例示する図である。   In step S320, the CPU 21 displays the face mark 103 and the frame center mark 110a on the monitor 17 and assists in photographing a person. Specifically, a through image is displayed, and a frame (face mark 103) indicating the detected face area and a cross line (vertical line 110V and horizontal line) indicating the center of the frame 100 are displayed in the same manner as in step S103. 110H), the frame center mark 110a is displayed on the through image being displayed. FIG. 7 is a diagram illustrating a display screen by the monitor 17.

撮影者は、図7に例示した表示画面の中で検出されている人物Cの顔を、縦位置に構えたカメラで以下のように撮影する。ここで、Z番目の人物(人物B)の少なくとも一部がフレーム内に含まれている。CPU21は、ステップS110の場合と同様に、フレーム枠100の中央部に「顔」領域を含めてカメラを構えるように撮影者へ促す表示制御を行う。   The photographer photographs the face of the person C detected on the display screen illustrated in FIG. 7 with a camera held in the vertical position as follows. Here, at least a part of the Zth person (person B) is included in the frame. As in step S110, the CPU 21 performs display control that prompts the photographer to hold the camera including the “face” region in the center of the frame 100.

顔マーク103が示す顔の人物の撮影(第(Z+1)画像撮影)をアシストする場合のCPU21は、顔マーク103内のスルー画像データを用いてオートフォーカス調節、および自動露出演算を行う。   When assisting shooting of the person of the face indicated by the face mark 103 ((Z + 1) image shooting), the CPU 21 performs autofocus adjustment and automatic exposure calculation using the through image data in the face mark 103.

CPU21は、レリーズボタン(不図示)が全押し操作された場合に撮像素子12に第(Z+1)画像を撮像させてステップS321へ進む。ステップS321において、CPU21は、AFE回路13を介して画像処理部14へ送られた第(Z+1)画像データを第1画像データ〜第Z画像データと関連づけてバッファメモリ15に記録してステップS322へ進む。ステップS322において、CPU21は、第(Z+1)画像データによる確認用画像をモニタ17に表示させてステップS323へ進む。   When the release button (not shown) is fully pressed, the CPU 21 causes the image sensor 12 to capture the (Z + 1) th image and proceeds to step S321. In step S321, the CPU 21 records the (Z + 1) th image data sent to the image processing unit 14 via the AFE circuit 13 in the buffer memory 15 in association with the first image data to the Zth image data, and then proceeds to step S322. move on. In step S322, the CPU 21 displays a confirmation image based on the (Z + 1) th image data on the monitor 17, and the process proceeds to step S323.

ステップS323において、CPU21は確認操作を受付ける。撮影者は、モニタ17に表示された確認画像を見てOKを指示する場合に肯定操作を行い、モニタ17に表示された確認画像を見て撮り直しを指示する場合には否定操作を行う。CPU21は、操作部材18から肯定操作を示す操作信号が入力された場合にステップS323を肯定判定してステップS200へ進む。CPU21は、操作部材18から否定操作を示す操作信号が入力された場合にはステップS323を否定判定し、ステップS320へ戻って第(Z+1)画像の撮影アシストを繰り返す。   In step S323, the CPU 21 accepts a confirmation operation. The photographer performs an affirmative operation when viewing the confirmation image displayed on the monitor 17 and instructing OK, and performs a negative operation when viewing the confirmation image displayed on the monitor 17 and instructing reshooting. When an operation signal indicating an affirmative operation is input from the operation member 18, the CPU 21 makes a positive determination in step S323 and proceeds to step S200. When an operation signal indicating a negative operation is input from the operation member 18, the CPU 21 makes a negative determination in step S323, returns to step S320, and repeats the photographing assistance for the (Z + 1) image.

ステップS200において、CPU21は、合成処理を行う旨のメッセージをモニタ17に表示させてステップS201へ進む。ステップS201において、CPU21は、関連づけられている第1画像〜第(Z+1)画像をつなぎ合わせる合成処理を行う。図8は、合成処理を説明する図である。CPU21は、第1画像81、第2(Z)画像82、および第3(Z+1)画像をそれぞれつなぎ合わせる。各画像81〜83は、互いにフレームの一部が重複部分を有するため、重複する画像情報を合致させるようにつなぐ。枠301は、後述するトリミング後のフレーム枠に対応する枠を便宜上図示したものであり、実際の画像には含まれていない。CPU21はさらに、合成後の画像にトリミング処理を施してステップS202へ進む。   In step S200, the CPU 21 causes the monitor 17 to display a message indicating that the composition process is to be performed, and then proceeds to step S201. In step S <b> 201, the CPU 21 performs a combining process for connecting the associated first image to (Z + 1) th image. FIG. 8 is a diagram for explaining the synthesis process. The CPU 21 stitches the first image 81, the second (Z) image 82, and the third (Z + 1) image. Since each of the images 81 to 83 has an overlapping part of the frame, the overlapping image information is connected to match each other. The frame 301 is a frame corresponding to a frame frame after trimming described later for convenience, and is not included in the actual image. The CPU 21 further performs a trimming process on the combined image and proceeds to step S202.

ステップS202において、CPU21は記録インターフェース16に指示を送り、トリミング後の画像データを記録媒体23へ記録させて図3による処理を終了する。図9はトリミング後の画像を例示する図である。本実施形態では、図4におけるフレーム枠100に相当する枠100'(すなわち、後述する通常撮影時の撮影範囲)より広い範囲の合成画像を得る例を説明したが、通常撮影時の撮影範囲と同範囲の合成画像を得るように構成してもよい。   In step S202, the CPU 21 sends an instruction to the recording interface 16, records the trimmed image data on the recording medium 23, and terminates the processing in FIG. FIG. 9 is a diagram illustrating an image after trimming. In the present embodiment, an example in which a composite image having a wider range than the frame 100 ′ corresponding to the frame 100 in FIG. 4 (that is, a shooting range during normal shooting described later) is obtained has been described. You may comprise so that the synthesized image of the same range may be obtained.

(通常撮影)
ステップS105またはS106を否定判定して進むステップS500において、CPU21は、レリーズボタン(不図示)の半押し操作を受付け、半押しスイッチ19aから半押し操作信号を受けた場合にステップS501へ進む。
(Normal shooting)
In step S500, which proceeds after making a negative determination in step S105 or S106, the CPU 21 accepts a half-press operation of a release button (not shown), and proceeds to step S501 when a half-press operation signal is received from the half-press switch 19a.

ステップS501において、CPU21は、顔領域を示す複数の顔マーク内のスルー画像データによるコントラスト情報に基づいて、平均的にオートフォーカス調節を行い、同顔マーク内のスルー画像データによる輝度情報に基づいて、平均的に自動露出演算を行ってステップS502へ進む。   In step S501, the CPU 21 performs auto focus adjustment on the average based on the contrast information based on the through image data in the plurality of face marks indicating the face area, and based on the luminance information based on the through image data in the face mark. Then, an average automatic exposure calculation is performed, and the process proceeds to step S502.

ステップS502において、CPU21は、レリーズボタン(不図示)が全押し操作されたか否かを判定する。CPU21は、全押しスイッチ19bから全押し操作信号を受けた場合にステップS502を肯定判定してステップS503へ進み、全押しスイッチ19bから全押し操作信号を受けない場合にはステップS502を否定判定してステップS500へ戻る。   In step S502, the CPU 21 determines whether or not a release button (not shown) has been fully pressed. When the CPU 21 receives a full-press operation signal from the full-press switch 19b, the CPU 21 makes a positive determination in step S502 and proceeds to step S503. When the CPU 21 does not receive a full-press operation signal from the full-press switch 19b, the CPU 21 makes a negative determination. To return to step S500.

ステップS503において、CPU21は、撮像素子12に撮像させてステップS504へ進む。ステップS504において、CPU21は、AFE回路13を介して画像処理部14へ送られた画像データをバッファメモリ15に記録させる。CPU21はさらに、当該画像データによる確認画像をモニタ17に表示させるとともに、記録インターフェース16に指示を送り、当該画像データを記録媒体23へ記録させて図2による処理を終了する。   In step S503, the CPU 21 causes the image sensor 12 to capture an image and proceeds to step S504. In step S <b> 504, the CPU 21 records the image data transmitted to the image processing unit 14 via the AFE circuit 13 in the buffer memory 15. Further, the CPU 21 displays a confirmation image based on the image data on the monitor 17, and sends an instruction to the recording interface 16 to record the image data on the recording medium 23 and ends the processing shown in FIG. 2.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)N人の被写体人物A、Bをそれぞれ撮影する各コマの撮影後に、前コマ撮影時の主要被写体人物の隣の未撮影人物を次コマ撮影の主要被写体とすること、前コマ撮影と次コマ撮影とで撮影範囲の一部が重複するように次コマ撮影のフレーミングをすること、を促すとともに、(N−1)コマ撮影後は、(N−1)コマ撮影時の撮影操作をした第1撮影者Cと(N−1)コマ撮影時の主要被写体人物以外の撮影済み人物Aが交代すること、交代人物Aと反対側の位置であって(N−1)コマ撮影時の主要被写体人物Bの隣へ第1撮影者Cが移動すること、第1撮影者Cを第Nコマ撮影時の主要被写体とすること、(N−1)コマ撮影と第Nコマ撮影とで撮影範囲の一部が重複するように第Nコマ撮影のフレーミングをすること、を促すCPU21、モニタ17と、複数の撮影による複数の画像データを関連づけて記録するCPU21、バッファメモリ15および記録インターフェース(I/F)16とを備えるので、三脚などを使わずに撮影者自身を含む撮影処理へ導くことができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) After shooting each frame for shooting N subject persons A and B, setting the unphotographed person next to the main subject person at the time of previous frame shooting as the main subject for the next frame shooting, Encourage framing of the next frame shooting so that a part of the shooting range overlaps with the next frame shooting, and after (N-1) frame shooting, the shooting operation at (N-1) frame shooting is performed. The photographed person A other than the main subject person at the time of (N-1) frame shooting changes and the position opposite to the substitute person A at the (N-1) frame shooting time. The first photographer C moves next to the main subject person B, the first photographer C is set as the main subject at the N-th frame shooting, and (N-1) frame shooting and N-frame shooting are performed. CPU 21 that prompts to frame the Nth frame so that a part of the range overlaps, A CPU 21, a buffer memory 15 and a recording interface (I / F) 16 that associate and record a plurality of image data obtained by a plurality of photographings, so that the photographing process including the photographer itself can be performed without using a tripod. Can lead.

(2)スルー画像から所定人数(本例では2人)以上の顔を検出した場合に集合写真の撮影アシストへ進めるようにしたので(ステップS105)、集合写真撮影の場合に自動的に撮影アシスト処理へ導くことができる。 (2) Since a predetermined number of faces (two people in this example) are detected from the through image, the process proceeds to the group photo shooting assist (step S105). Can lead to processing.

(3)検出した顔を示す顔マークをフレーム中心に寄せてフレーミングするように促す表示をモニタ17に行ったので(ステップS110、S320)、集合写真に含める各人の顔について、それぞれを撮影フレームの中央で撮影するようにアシストできる。なお、各撮影フレームは、互いにフレームの一部が他の撮影フレームと重複する。フレーム中央はフレーム端部に比べて撮影レンズの光学収差の影響を受けにくいため、高品位の画像が得られる。 (3) Since the monitor 17 is displayed on the monitor 17 so as to bring the face mark indicating the detected face to the center of the frame and perform framing (steps S110 and S320), each person's face to be included in the group photo is captured in the shooting frame. Assist you to shoot at the center of the. In addition, each imaging | photography frame mutually overlaps with another imaging | photography frame. Since the center of the frame is less susceptible to the optical aberration of the photographic lens than the end of the frame, a high-quality image can be obtained.

(4)集合写真に含める各人の顔を撮影フレームの中央でそれぞれ撮影した所定人数分の第1画像〜第(Z+1)画像について、各画像をつなぎ合わせるように合成した(図8)。これにより、各人の顔を高品位に撮影した(Z+1)人の集合写真を1画像で構成できる。一般に、広角レンズを用いて撮影する場合にはフレーム両端に位置する被写体の像が歪みやすいが、本実施形態の電子カメラによればこのような影響を抑えることができる。 (4) The first image to the (Z + 1) th image for a predetermined number of people who photographed each person's face included in the group photo at the center of the photographing frame were synthesized so as to be joined together (FIG. 8). As a result, a group photo of (Z + 1) people who photographed each person's face with high quality can be composed of one image. In general, when photographing using a wide-angle lens, the images of the subject located at both ends of the frame are easily distorted. However, according to the electronic camera of this embodiment, such an influence can be suppressed.

(5)上記第1画像〜第(Z+1)画像を合成した画像について、通常撮影の場合の撮影フレームより広範囲の画像が得られるようにトリミングしたので、パノラマ画像のようなワイド画像を得ることができる(図9)。 (5) The image obtained by synthesizing the first image to the (Z + 1) th image is trimmed so that a wider range of image can be obtained than the shooting frame in the case of normal shooting, so that a wide image such as a panoramic image can be obtained. (Fig. 9)

(6)第(Z+1)撮影の前に交代を促すようにしたので(ステップS300)、確実に撮影者自身を含む撮影処理へ導くことができる。 (6) Since the change is urged before the (Z + 1) -th shooting (step S300), it is possible to reliably lead to a shooting process including the photographer himself.

(7)第1画像〜第(Z+1)画像を撮影する際、それぞれ撮影した確認用画像をモニタ17に表示させ(ステップS116、S322)、操作部材18が肯定操作された場合に次の人を対象とする撮影へ進めるようにしたので(ステップS117、S323)、撮影者がそれぞれの人物の画像を確認して次の撮影処理へ導くことができる。 (7) When the first image to the (Z + 1) th image are captured, the captured confirmation images are displayed on the monitor 17 (steps S116 and S322), and the next person is displayed when the operation member 18 is affirmed. Since the process proceeds to target shooting (steps S117 and S323), the photographer can check each person's image and lead to the next shooting process.

(8)第1画像〜第(Z+1)画像を撮影する際、それぞれカメラを縦位置に構えて撮影するように導いたので、隣り合う画像間で背景の高さが異なる場合でも、2つの画像をつなぎ合わせ合成する場合の合成代が確保しやすくなる。さらに、被写体の垂直方向についても撮影レンズの光学収差の影響を受けにくくなり、高品位の画像を得ることができる。 (8) When shooting the first image to the (Z + 1) th image, the camera is guided to hold the camera in the vertical position, so that even if the background height differs between the adjacent images, the two images It is easy to secure a synthesis allowance when connecting and combining. Furthermore, the vertical direction of the subject is also hardly affected by the optical aberration of the photographing lens, and a high-quality image can be obtained.

(9)上記第1画像〜第(Z+1)画像を合成した画像について、通常撮影の場合の撮影フレームより広範囲の画像が得られるようにトリミングしたので、パノラマ画像のようなワイド画像を得ることができる(図9)。 (9) Since the image obtained by combining the first image to the (Z + 1) th image is trimmed so that a wider range of image can be obtained than the shooting frame in the case of normal shooting, a wide image such as a panoramic image can be obtained. (Fig. 9)

(変形例1)
合成処理を電子カメラ内で行う例を説明したが、パソコンなどの外部機器に合成処理を行わせてもよい。この場合の電子カメラは、バッファメモリ15に一時記録している第1画像および第2画像のデータを関連づけて、それぞれ記録媒体23へ記録させる。外部機器は、記録媒体23に記録した一連の画像データを接合し、さらにトリミングすることによって合成後の画像データを生成する。
(Modification 1)
Although an example in which the combining process is performed in the electronic camera has been described, the combining process may be performed by an external device such as a personal computer. In this case, the electronic camera associates the data of the first image and the second image temporarily recorded in the buffer memory 15 and records them on the recording medium 23, respectively. The external device generates a combined image data by joining a series of image data recorded on the recording medium 23 and further trimming.

(変形例2)
第1画像〜第(Z+1)画像を撮影する際、それぞれ撮影した確認用画像をモニタ17に表示させ、操作部材18が肯定操作された場合に次の人を対象とする撮影へ進めるようにした。この代わりに、あるいはこれに加えて、それぞれ撮影した画像データを用いてCPU21が当該画像の適否を自動判定してもよい。CPU21は、たとえば画像から「目つぶり」を検出した場合には次の人を対象にする撮影へ進まず、「目つぶり」判定した人物について撮影をやり直す。CPU21はさらに、画像から「笑顔」を検出した場合は次の人を対象とする撮影へ進めるようにする。
(Modification 2)
When photographing the first image to the (Z + 1) th image, the photographed confirmation images are displayed on the monitor 17, and when the operation member 18 is affirmed, the process proceeds to photographing for the next person. . Instead of this, or in addition to this, the CPU 21 may automatically determine the suitability of the image by using each captured image data. For example, if the CPU 21 detects “eye blink” from the image, the CPU 21 does not proceed to shooting for the next person, and redo the image of the person determined to be “eye blink”. Further, when the CPU 21 detects “smile” from the image, the CPU 21 proceeds to shooting for the next person.

(変形例3)
ステップS110、S320において行う顔マークの表示色は、顔マークがフレーム枠100の略中央に位置するか否かで異ならせる例を説明した。この代わりに、顔マークがフレーム枠100の略中央に位置するか否かで顔マークの表示輝度を異ならせたり、点灯/点滅を切替えたりするようにしてもよい。また、不図示のスピーカから電子音を発することにより、顔マークがフレーム枠100の略中央に位置するか否かを音で知らせるようにしてもよい。さらにまた、Z番目の人物(人物B)の少なくとも一部がフレーム内に含まれるように、人物の立ち位置を示す人型マークを表示中のスルー画像に重ね表示してもよい。
(Modification 3)
The example in which the display color of the face mark performed in steps S110 and S320 varies depending on whether or not the face mark is positioned at the approximate center of the frame 100 has been described. Instead of this, the display brightness of the face mark may be varied or the lighting / flashing may be switched depending on whether or not the face mark is positioned at substantially the center of the frame 100. Further, by emitting an electronic sound from a speaker (not shown), it may be notified by sound whether or not the face mark is positioned at the approximate center of the frame 100. Furthermore, a humanoid mark indicating the standing position of the person may be displayed over the displayed through image so that at least a part of the Zth person (person B) is included in the frame.

(変形例4)
以上の説明では、撮影者を交代する場合に撮影者側から見て右側へ移動する場合を例に説明したが、撮影者側から見て左側へ移動するようにしてもよい。この場合には、「撮影者を右からZ番目の人と異なる人と交代してください。カメラを次の撮影者に渡すまで撮影位置を動かないでください」というメッセージ、および「右からZ番目の人の左隣へ移動してください」というメッセージをモニタ17に表示させればよい。
(Modification 4)
In the above description, when the photographer is changed, the case of moving to the right side as viewed from the photographer side has been described as an example. However, the photographer may move to the left side as viewed from the photographer side. In this case, the message "Please change the photographer to a person different from the Zth person from the right. Do not move the shooting position until the camera is passed to the next photographer" and "Zth from the right" Please move to the left next to the other person ”message on the monitor 17.

(変形例5)
撮影者の交代を促したり、カメラを縦に構えることを促したりするメッセージをモニタ17に表示させる例を説明したが、不図示のスピーカから再生する音声ガイドによって促すようにしてもよい。
(Modification 5)
Although an example has been described in which the monitor 17 displays a message prompting the change of the photographer or prompting the camera to be held vertically, the message may be prompted by a voice guide reproduced from a speaker (not shown).

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。    The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の一実施の形態による電子カメラの構成を示すブロック図である。It is a block diagram which shows the structure of the electronic camera by one embodiment of this invention. 全員撮影アシストモード時にCPUが行う処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which CPU performs at the whole person photography assist mode. 全員撮影アシストモード時にCPUが行う処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which CPU performs at the whole person photography assist mode. モニタによる表示画面を例示する図である。It is a figure which illustrates the display screen by a monitor. モニタによる表示画面を例示する図である。It is a figure which illustrates the display screen by a monitor. モニタによる表示画面を例示する図である。It is a figure which illustrates the display screen by a monitor. モニタによる表示画面を例示する図である。It is a figure which illustrates the display screen by a monitor. 合成処理を説明する図である。It is a figure explaining a synthetic | combination process. トリミング後の画像を例示する図である。It is a figure which illustrates the image after trimming.

符号の説明Explanation of symbols

11…撮像光学系
12…撮像素子
15…バッファメモリ
16…記録インターフェース
17…モニタ
18…操作部材
21…CPU
24…顔検出部
50…縦/横センサ
DESCRIPTION OF SYMBOLS 11 ... Imaging optical system 12 ... Imaging element 15 ... Buffer memory 16 ... Recording interface 17 ... Monitor 18 ... Operation member 21 ... CPU
24 ... Face detection unit 50 ... Vertical / horizontal sensor

Claims (7)

被写体像を撮像して画像データを出力する撮像手段と、
N人の被写体人物をそれぞれ撮影する各コマの撮影後に、前コマ撮影時の主要被写体人物の隣の未撮影人物を次コマ撮影の主要被写体とし、前コマ撮影と次コマ撮影とで撮影範囲の一部が重複するように次コマ撮影のフレーミングをすること、を促すとともに、(N−1)コマ撮影後は、前記(N−1)コマ撮影時の撮影操作をした第1撮影者と前記(N−1)コマ撮影時の主要被写体人物以外の撮影済み人物が交代し、前記交代人物と反対側の位置であって前記(N−1)コマ撮影時の主要被写体人物の隣へ前記第1撮影者が移動し、前記第1撮影者を第Nコマ撮影時の主要被写体とし、前記(N−1)コマ撮影と前記第Nコマ撮影とで撮影範囲の一部が重複するように前記第Nコマ撮影のフレーミングをすること、を促す撮影アシスト手段と、
前記複数の撮影による複数の画像データを関連づけてそれぞれ記録する記録手段とを備えることを特徴とする電子カメラ。
Imaging means for capturing a subject image and outputting image data;
After shooting each frame that captures N subject persons, the unphotographed person next to the main subject person at the time of the previous frame shooting is set as the main subject for the next frame shooting, and the shooting range of the previous frame shooting and the next frame shooting is determined. Encourage the framing of the next frame shooting so that some of the frames overlap, and after the (N-1) frame shooting, the first photographer who has performed the shooting operation during the (N-1) frame shooting and the (N-1) A photographed person other than the main subject person at the time of frame shooting changes, and is located at a position opposite to the substitute person and next to the main subject person at the time of (N-1) frame shooting. The one photographer moves, the first photographer is set as a main subject at the time of N-th frame shooting, and the (N-1) frame shooting and the N-th frame shooting have a part of the shooting range overlapping. Shooting assist means for urging framing of the Nth frame shooting;
An electronic camera comprising: a recording unit that records a plurality of image data obtained by the plurality of shootings in association with each other.
請求項1に記載の電子カメラにおいて、
前記画像データに基づいてモニタ用画像を再生表示する表示装置と、
前記モニタ用画像に含まれる顔領域を検出する検出手段とをさらに備え、
前記撮影アシスト手段は、前記モニタ用画像から前記顔領域が複数検出された場合に前記アシスト処理を行うことを特徴とする電子カメラ。
The electronic camera according to claim 1,
A display device for reproducing and displaying a monitor image based on the image data;
Detecting means for detecting a face area included in the monitor image;
The electronic camera is characterized in that the photographing assisting unit performs the assisting process when a plurality of the face regions are detected from the monitor image.
請求項2に記載の電子カメラにおいて、
前記撮影アシスト手段は、前記各コマ撮影のフレーミング時に、前記顔領域が前記撮影範囲の中央に位置するか否かに応じて、前記表示装置に再生表示されているモニタ用画像の中で前記顔領域を示す表示の態様を異ならせる表示制御手段を含むことを特徴とする電子カメラ。
The electronic camera according to claim 2,
The photographing assisting unit is configured to display the face in the monitor image reproduced and displayed on the display device according to whether or not the face region is positioned at the center of the photographing range at the time of framing each frame. An electronic camera comprising display control means for changing a display mode indicating an area.
請求項2に記載の電子カメラにおいて、
前記撮影アシスト手段は、前記各コマ撮影のフレーミング時に、前コマ撮影時の主要被写体人物の一部を撮影範囲に含むように前記各コマ撮影時のフレーミングを促すことを特徴とする電子カメラ。
The electronic camera according to claim 2,
The electronic camera is characterized in that, during the framing of each frame shooting, the framing during each frame shooting is urged so that a part of the main subject person at the time of the previous frame shooting is included in the shooting range.
請求項2〜4のいずれか一項に記載の電子カメラにおいて、
カメラが縦位置姿勢か否かを検出する姿勢検出手段と、
前記姿勢検出手段によって前記縦位置姿勢が検出された場合に撮影操作を受け付ける制御手段とをさらに備えることを特徴とする電子カメラ。
In the electronic camera as described in any one of Claims 2-4,
Attitude detection means for detecting whether the camera is in a vertical position; and
An electronic camera, further comprising: a control unit that receives a photographing operation when the vertical position / posture is detected by the posture detection unit.
請求項2〜5のいずれか一項に記載の電子カメラにおいて、
前記各コマの撮影後、当該画像の適否を指示する信号を入力する操作部材を備え、
前記アシスト手段は、前記操作部材から適信号が入力された場合に次コマ撮影のためのアシストを始めることを特徴とする電子カメラ。
The electronic camera according to any one of claims 2 to 5,
An operation member for inputting a signal for instructing the suitability of the image after photographing each frame;
The electronic camera according to claim 1, wherein the assist means starts assist for next frame shooting when an appropriate signal is input from the operation member.
請求項1〜6のいずれか一項に記載の電子カメラにおいて、
前記撮影範囲の一部が重複する第1画像〜前記第N画像から1つの人物集合写真を合成する画像合成手段をさらに備えることを特徴とする電子カメラ。
In the electronic camera as described in any one of Claims 1-6,
An electronic camera, further comprising image composition means for synthesizing one person group photo from the first image to the Nth image in which a part of the photographing range overlaps.
JP2008194779A 2008-07-29 2008-07-29 Electronic camera Pending JP2010034838A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008194779A JP2010034838A (en) 2008-07-29 2008-07-29 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008194779A JP2010034838A (en) 2008-07-29 2008-07-29 Electronic camera

Publications (1)

Publication Number Publication Date
JP2010034838A true JP2010034838A (en) 2010-02-12

Family

ID=41738828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008194779A Pending JP2010034838A (en) 2008-07-29 2008-07-29 Electronic camera

Country Status (1)

Country Link
JP (1) JP2010034838A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470442B1 (en) * 2014-10-21 2014-12-08 주식회사 모리아타운 Wide angle image of a mobile terminal call mathod and apparatus
US9288386B2 (en) 2010-11-16 2016-03-15 Casio Computer Co., Ltd. Imaging apparatus and image synthesizing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9288386B2 (en) 2010-11-16 2016-03-15 Casio Computer Co., Ltd. Imaging apparatus and image synthesizing method
KR101470442B1 (en) * 2014-10-21 2014-12-08 주식회사 모리아타운 Wide angle image of a mobile terminal call mathod and apparatus

Similar Documents

Publication Publication Date Title
JP4135100B2 (en) Imaging device
JP4787180B2 (en) Imaging apparatus and imaging method
US8284264B2 (en) Imaging apparatus, method, and program
TW200808044A (en) Imaging apparatus and computer readable recording medium
JP2007279601A (en) Camera
JP5228354B2 (en) Digital camera
JP2008236645A (en) Photographing device
JP2006074368A (en) Electronic camera
JP3971240B2 (en) Camera with advice function
JP4799366B2 (en) Imaging apparatus and image reproduction apparatus
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP2010081260A (en) Imaging apparatus and program therefor
JP2007318490A (en) Image processing apparatus, camera, and image processing program
JP2009118083A (en) Digital camera
JP2007124399A (en) Image processing apparatus, electronic camera and image processing program
JP2006287735A (en) Picture voice recording apparatus and collecting voice direction adjustment method
JP4717840B2 (en) Imaging apparatus and control method thereof
JP2010034837A (en) Electronic camera
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP2010034838A (en) Electronic camera
JP2009182832A (en) Photographing device and through image displaying method
JP4336186B2 (en) Image correction apparatus and imaging apparatus
JP2006165600A (en) Photographing apparatus
JP2011066828A (en) Imaging device, imaging method and program
JP2009055448A (en) Photographic device