JP2015029178A - Imaging device, imaging method and program - Google Patents

Imaging device, imaging method and program Download PDF

Info

Publication number
JP2015029178A
JP2015029178A JP2013157510A JP2013157510A JP2015029178A JP 2015029178 A JP2015029178 A JP 2015029178A JP 2013157510 A JP2013157510 A JP 2013157510A JP 2013157510 A JP2013157510 A JP 2013157510A JP 2015029178 A JP2015029178 A JP 2015029178A
Authority
JP
Japan
Prior art keywords
image
subject image
evaluation
face area
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013157510A
Other languages
Japanese (ja)
Inventor
加奈子 中野
Kanako Nakano
加奈子 中野
筒見 勝紀
Masaki Tsutsumi
勝紀 筒見
昇平 坂本
Shohei Sakamoto
昇平 坂本
加藤 寛之
Hiroyuki Kato
寛之 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013157510A priority Critical patent/JP2015029178A/en
Publication of JP2015029178A publication Critical patent/JP2015029178A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate an image with an extended imaging area which includes a plurality of excellent subject images.SOLUTION: A CPU 11 sequentially acquires a plurality of images with changing their imaging areas as partial images. A face region evaluation processing part 54 detects subject images from each of the plurality of acquired partial images having different imaging areas. The face region evaluation processing part 54 evaluates each of the detected subject images. An image synthesis processing part 56 selects an image, having a subject image with a higher evaluation result, as an image for synthesis, within a plurality of partial images containing the same subject image. The image synthesis processing part 56 generates an image with an extended imaging area by synthesizing a plurality of acquired partial images containing different subject images and a selected partial image for synthesis within the plurality of partial images containing the same subject image.

Description

本発明は、撮像装置、撮像方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program.

撮像範囲を変化させながら複数枚の画像を撮影してつなげるように合成することで、1回の撮影では得られない広い画角のパノラマ画像を生成する技術が、特許文献1のように公知となっている。   A technique for generating a panoramic image with a wide angle of view that cannot be obtained by a single shooting by combining a plurality of images while shooting and changing the imaging range is known as Patent Document 1 It has become.

特開平11−282100号公報JP-A-11-282100

しかしながら、集合写真を特許文献1のように撮像範囲を変化させながら複数回画像を撮影してパノラマ画像を生成する際に、笑顔でない、目つぶり等があった場合には、全ての被写体像の撮影状態が良好な画像を生成するのは難しいという問題がある。   However, when a group photo is taken a plurality of times while changing the imaging range and a panoramic image is generated while changing the imaging range, if there is no smile, blinking, etc., all the subject images There is a problem that it is difficult to generate an image with a good shooting state.

本発明は、このような状況に鑑みてなされたものであり良好な複数の被写体像を含む撮影範囲の拡張された画像を生成することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to generate an image with an extended shooting range including a plurality of good subject images.

上記目的を達成するため、本発明の一態様の撮像装置は、
撮像範囲を変化させながら撮影した複数の画像を部分画像として順次取得する画像取得手段と、
前記画像取得手段により取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する検出手段と、
前記検出手段により検出された各被写体像を評価する被写体像評価手段と、
前記被写体像評価手段により、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象として選択する被写体像選択手段と、
前記画像取得手段により取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、前記被写体像選択手段により前記合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する画像生成手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging device of one embodiment of the present invention includes:
Image acquisition means for sequentially acquiring a plurality of images taken while changing the imaging range as partial images;
Detection means for detecting a subject image from each of a plurality of partial images having different shooting ranges acquired by the image acquisition means;
Subject image evaluation means for evaluating each subject image detected by the detection means;
A plurality of partial images including the same subject image by the subject image evaluation unit, a subject image selection unit that selects a partial image including the subject image that has obtained higher evaluation as a synthesis target;
A plurality of partial images including different subject images acquired by the image acquisition unit and a partial image selected as the combination target by the subject image selection unit among a plurality of partial images including the same subject image are combined. Image generating means for generating a single image with an expanded shooting range,
It is characterized by providing.

本発明によれば、良好な複数の被写体像を含む撮影範囲の拡張された画像を生成することができる。   According to the present invention, it is possible to generate an image with an extended shooting range including a plurality of good subject images.

本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 図1の撮像装置の機能的構成のうち、撮像処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing an imaging process among the functional structures of the imaging device of FIG. ズーム比の調整を説明するための模式図である。It is a schematic diagram for demonstrating adjustment of a zoom ratio. 非良好顔領域表示について説明するための模式図である。It is a schematic diagram for demonstrating a non-good face area | region display. 図2の機能的構成を有する図1の撮像装置が実行するパノラマ撮影処理の流れを説明するフローチャートである。3 is a flowchart for explaining a flow of panoramic photographing processing executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG. 2. 撮影フラグを説明するための図である。It is a figure for demonstrating a photography flag. パノラマ撮影処理のうち、ズーム比調整処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of a zoom ratio adjustment process among panoramic imaging processes. パノラマ撮影処理のうち、非良好顔領域表示処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of a non-good face area | region display process among panoramic imaging processes. パノラマ撮影処理のうち、顔領域評価処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of a face area evaluation process among panoramic imaging processes. パノラマ撮影処理のうち、画像合成処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of an image compositing process among panoramic imaging processes. パノラマ撮影処理のうち、非良好顔領域表示処理の変形例の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of the modification of an unfavorable face area | region display process among panoramic imaging processes. 変形例における非良好顔領域表示を説明するための模式図である。It is a schematic diagram for demonstrating the non-good face area | region display in a modification. 図2の機能的構成を有する図1の撮像装置が実行する他の実施形態におけるパノラマ撮影処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the panorama imaging | photography process in other embodiment which the imaging device of FIG. 1 which has the functional structure of FIG. 2 performs. 他の実施形態のパノラマ撮影処理のうち、顔領域評価処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of a face area | region evaluation process among the panorama imaging processes of other embodiment. 他の実施形態のパノラマ撮影処理のうち、画像合成処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of an image compositing process among the panorama imaging processes of other embodiment.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、加速度センサ17と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an imaging unit 16, and an acceleration sensor 17. An input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、加速度センサ17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an acceleration sensor 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体像を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit includes a lens that collects light, such as a focus lens and a zoom lens, in order to capture a subject image.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や画像処理部等に適宜供給される。
また、撮像画像のうち、ライブビュー表示中において表示画面にリアルタイムに表示される撮像画像を「ライブビュー画像」、ユーザによる撮像操作後の確認のために表示される撮像画像を「レビュー画像」と呼ぶ。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as “captured image data”. Data of the captured image is appropriately supplied to the CPU 11, the image processing unit, and the like.
Also, among the captured images, the captured image displayed in real time on the display screen during live view display is referred to as “live view image”, and the captured image displayed for confirmation after the imaging operation by the user is referred to as “review image”. Call.

加速度センサ17は、撮像装置1の速度や加速度を検出可能に構成される。加速度センサ17で検出される速度や加速度により、撮像装置1の移動を撮像装置1の位置変化から検出することができる。   The acceleration sensor 17 is configured to be able to detect the speed and acceleration of the imaging device 1. The movement of the imaging device 1 can be detected from the change in position of the imaging device 1 based on the speed and acceleration detected by the acceleration sensor 17.

入力部18は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 18 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 19 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

このような撮像装置1においては、複数の被写体像がそれぞれ主要な被写体像となるような、例えば、集合写真を撮影したい場合に、各被写体像を良好な撮影条件で撮影した状態となる1枚の撮像画像を生成することができる機能を有する。
なお、被写体像における「良好な撮影条件」とは、画像の使用目的における被写体像自体の良好な条件(例えば、笑顔の状態、目つぶりしていない状態、赤目でない状態等)や被写体像に対応する外部環境の条件(例えば、ピントあっているブレてない状態、日陰がない状態、逆光等)を含む。
また、本実施形態において、撮像装置1は、集合写真を撮影することを例として、パノラマ撮影を行い、複数枚の撮像画像から1枚のパノラマ画像を生成するように構成する。
この場合、撮像装置1では、良好な撮影条件として、被写体像である人の顔の状態を撮影条件として判断する。具体的には、良好な撮影条件としては、例えば、顔が笑顔である状態、目をつぶっていない状態とする。即ち、顔が笑顔でない状態や目をつぶっている状態は、良好でない撮影条件として判断することになる。
In such an imaging apparatus 1, for example, when it is desired to take a group photo in which a plurality of subject images become main subject images, one image is obtained in a state where each subject image is photographed under favorable photographing conditions. It has a function that can generate a picked-up image.
Note that “good shooting conditions” in the subject image correspond to good conditions of the subject image itself for the purpose of use of the image (for example, a smiling state, no blinking state, no red-eye state, etc.) and subject image. Including the conditions of the external environment (for example, a state where the focus is not blurred, a state where there is no shade, backlight, etc.)
Further, in the present embodiment, the imaging apparatus 1 is configured to perform panoramic shooting, taking a group photograph as an example, and generate one panoramic image from a plurality of captured images.
In this case, the imaging apparatus 1 determines the state of the person's face that is the subject image as the shooting condition as a favorable shooting condition. Specifically, as favorable imaging conditions, for example, a state where the face is smiling and a state where the eyes are not closed. That is, a state where the face is not smiling or a state where the eyes are closed is determined as an unfavorable shooting condition.

図2は、このような撮像装置1の機能的構成のうち、パノラマ撮影処理を実行するための機能的構成を示す機能ブロック図である。
パノラマ撮影処理とは、パノラマ画像としたい画角となる撮影を予定する領域(以下、「撮影予定領域」という)を、撮像装置1を移動させながら順次撮影し、最終的に取得した複数枚の撮像画像を合成して1枚の合成画像となるパノラマ画像を生成するまでの一連の処理をいう。また、パノラマ撮影処理では、撮像画像中の被写体像が良好な撮影条件でない場合には、再度撮影し、再度撮影した撮像画像を上書き合成してパノラマ画像を生成する。なお、本実施形態においては、目的とする撮像範囲を撮影予定領域とするパノラマ画像は、撮影予定領域を部分的に撮影した複数の撮像画像が部分画像となるように構成される。
FIG. 2 is a functional block diagram illustrating a functional configuration for executing the panoramic photographing process among the functional configurations of the imaging apparatus 1 as described above.
In the panorama shooting process, an area to be shot (hereinafter, referred to as “shooting scheduled area”) having an angle of view to be a panoramic image is sequentially shot while moving the imaging apparatus 1, and finally acquired plural images are obtained. This refers to a series of processes from combining captured images to generating a panoramic image that is a single combined image. In the panorama shooting process, if the subject image in the captured image is not in a favorable shooting condition, the image is shot again, and the captured image shot again is overwritten and combined to generate a panoramic image. In the present embodiment, the panoramic image having the target imaging range as the scheduled imaging area is configured such that a plurality of captured images obtained by partially imaging the scheduled imaging area become partial images.

パノラマ撮影処理を実行する場合には、CPU11において、ズーム比調整処理部51と、顔領域検出処理部52と、移動検出部53と、顔領域評価処理部54と、非良好顔領域表示処理部55と、画像合成処理部56と、が機能する。   When executing the panorama shooting process, the CPU 11 performs a zoom ratio adjustment processing unit 51, a face region detection processing unit 52, a movement detection unit 53, a face region evaluation processing unit 54, and an unfavorable face region display processing unit. 55 and the image composition processing unit 56 function.

記憶部20の一領域には、画像のデータや画像に関する情報を記憶する画像記憶部71が設けられる。   An area of the storage unit 20 is provided with an image storage unit 71 that stores image data and information about the image.

ズーム比調整処理部51は、ズーム比調整処理を実行する。
「ズーム比調整処理」とは、評価対象において評価値を算出可能なサイズで撮影を行うようにズーム比を調整するまでの一連の処理である。
具体的には、ズーム比調整処理では、撮影予定領域において、評価対象として被写体像となる顔の状態を評価可能な程度までズーム比を調整する。
The zoom ratio adjustment processing unit 51 performs zoom ratio adjustment processing.
The “zoom ratio adjustment process” is a series of processes until the zoom ratio is adjusted so that shooting is performed with a size that allows the evaluation value to be calculated in the evaluation target.
Specifically, in the zoom ratio adjustment process, the zoom ratio is adjusted to such an extent that the state of the face that is the subject image as the evaluation target can be evaluated in the planned shooting area.

顔領域検出処理部52は、ズーム比調整処理を実行する。詳細には、顔領域検出処理部52は、ズーム比調整処理において、画像記憶部71に記憶される画像の顔領域の検出を行う。画像における顔領域の検出は、周知の顔検出技術を用いる。   The face area detection processing unit 52 executes zoom ratio adjustment processing. Specifically, the face area detection processing unit 52 detects the face area of the image stored in the image storage unit 71 in the zoom ratio adjustment process. A well-known face detection technique is used to detect a face area in an image.

ここで、ズーム比調整処理で実行されるズーム比の調整について説明する。
図3は、ズーム比の調整を説明するための模式図である。
ズーム比調整処理では、まず、図3(a)に示すように、撮影予定領域R1を撮影した画像を取得する。そして、全ての評価対象である顔Fを検出して、各顔Fの顔領域R2のサイズを取得する。
また、取得した全ての顔領域R2のサイズに基づいて、全ての顔領域R2において評価値を算出するのに必要なサイズとなるズーム比、即ち、全ての顔領域R2において評価値を算出可能なサイズとなるズーム比を算出して、当該算出したズーム比で調整を行う。図3(a)の例では、各顔領域R2のサイズから、図3(b)に示す撮影領域R3のサイズで撮像を行うと各顔Fの評価値が算出可能となる。
その結果、ユーザは、図3(c)に示すように、撮影領域R3のサイズとなるズーム比で撮影予定領域R1を所定のルートを辿るように撮像装置1を移動させて、順次撮影を行う。撮像装置1においては、移動と共に撮影予定領域R1を包含した複数枚の撮像画像を取得して、当該取得した撮像画像を合成して、撮影予定領域R1を画角とする1枚のパノラマ画像を生成する。
Here, the zoom ratio adjustment executed in the zoom ratio adjustment process will be described.
FIG. 3 is a schematic diagram for explaining the adjustment of the zoom ratio.
In the zoom ratio adjustment process, first, as shown in FIG. 3A, an image obtained by photographing the scheduled photographing region R1 is acquired. Then, all the faces F to be evaluated are detected, and the size of the face region R2 of each face F is acquired.
Further, based on the acquired sizes of all the face regions R2, it is possible to calculate a zoom ratio that is a size necessary for calculating evaluation values in all the face regions R2, that is, evaluation values in all the face regions R2. A zoom ratio to be a size is calculated, and adjustment is performed with the calculated zoom ratio. In the example of FIG. 3A, the evaluation value of each face F can be calculated from the size of each face region R2 when imaging is performed with the size of the photographing region R3 shown in FIG.
As a result, as shown in FIG. 3C, the user moves the imaging apparatus 1 so as to follow a predetermined route in the planned shooting area R1 with a zoom ratio that is the size of the shooting area R3, and sequentially performs shooting. . In the imaging apparatus 1, a plurality of captured images including the scheduled shooting area R1 are acquired along with the movement, and the acquired captured images are combined to form a single panoramic image with the scheduled shooting area R1 as an angle of view. Generate.

図2に戻り、移動検出部53は、撮像装置1が移動したか否かを加速度センサ17から出力される値から検出する。   Returning to FIG. 2, the movement detection unit 53 detects whether the imaging apparatus 1 has moved from the value output from the acceleration sensor 17.

顔領域評価処理部54は、顔領域評価処理を実行する。
「顔領域評価処理」とは、取得した画像の顔領域を評価する一連の処理である。顔領域評価処理で行われる評価により、良好でない顔領域が決定される。
本実施形態においては、評価値が所定値未満である場合には、良好でない顔領域として、評価値と、当該良好でない顔領域の位置を記憶する。
なお、顔領域評価処理部54において行われる顔領域の評価値の算出は、周知の顔領域判定の技術を用いる。
The face area evaluation processing unit 54 executes face area evaluation processing.
The “face area evaluation process” is a series of processes for evaluating the face area of the acquired image. An unfavorable face area is determined by the evaluation performed in the face area evaluation process.
In the present embodiment, when the evaluation value is less than the predetermined value, the evaluation value and the position of the unfavorable face area are stored as an unfavorable face area.
Note that the face area evaluation value calculation performed in the face area evaluation processing unit 54 uses a known face area determination technique.

非良好顔領域表示処理部55は、非良好顔領域表示処理を実行する。「非良好顔領域表示処理」とは、顔領域評価処理において評価された良好でない顔領域を含む画像を取得した場合に、良好でない顔領域を示す指標をライブビュー画像中に表示(以下、「非良好顔領域表示」という)するまでの一連の処理である。この非良好顔領域表示処理部55では、ライブビュー画像内に良好でない顔領域がある場合には、当該良好でない顔領域を囲い、良好でない原因により色分けした色枠を指標して表示する。また、非良好顔領域表示処理部55では、ライブビュー画像外に良好でない顔領域がある場合には、当該画像が現在表示しているライブビュー画像に対してどの方向にあるかを示す矢印のアイコンを指標として表示する。
なお、「良好でない顔領域」とは、検出された顔の領域の顔の表情が、例えば、目つぶりや笑顔でないような顔等の撮影者の意図にそぐわない顔を含む領域である。逆に言えば、撮影者の意図がポジティブなものでない場合には、目が開いている状態や笑顔が良好でない顔領域であると判断される場合も含む。
The non-good face area display processing unit 55 executes non-good face area display processing. The “non-favorable face area display process” is a display of an index indicating an unfavorable face area in a live view image when an image including an unfavorable face area evaluated in the face area evaluation process is acquired (hereinafter, “ This is a series of processes until “unfavorable face area display”. When there is an unfavorable face area in the live view image, the unfavorable face area display processing unit 55 surrounds the unfavorable face area, and displays the color frames color-coded according to the cause of unfavorableness. In addition, when there is an unsatisfactory face area outside the live view image, the unfavorable face area display processing unit 55 displays an arrow indicating which direction the image is in relation to the currently displayed live view image. Display icons as indicators.
The “unfavorable face area” is an area including a face whose facial expression is not suitable for the photographer's intention, such as a face that does not blink or smile. In other words, when the intention of the photographer is not positive, it includes a case where it is determined that the face area is open or the face area is not good.

ここで、非良好顔領域表示処理で実行される非良好顔領域表示について説明する。
図4は、非良好顔領域表示について説明するための模式図である。なお、図4の例では、図3(a)に示す撮影予定領域R1を包含するように、ズーム比調整処理で調整されたズーム比で順次撮像を行う。
非良好顔領域表示では、順次撮影を行い、図4(a)に示すように、笑顔ではない良好でない顔を含むが撮影され、その後も撮影が行われる。そして、図4(b)に示すように、笑顔ではない良好でない顔領域R2の下方において撮影が行われた場合、ライブビュー画像には、図4(c)に示すように、現在表示しているライブビュー画像との位置から見た良好でない顔領域R2の方向が指標(上向きの矢印のアイコンd1)としてライブビュー画像と共に表示される。
このような表示が行われることで、ユーザは、再度撮り直しを行う必要がある場所があることを方向と共に知ることができる。
Here, the non-good face area display executed in the non-good face area display process will be described.
FIG. 4 is a schematic diagram for explaining the non-good face area display. In the example of FIG. 4, imaging is sequentially performed with the zoom ratio adjusted by the zoom ratio adjustment processing so as to include the scheduled imaging area R1 illustrated in FIG.
In the non-good face area display, images are taken sequentially, and as shown in FIG. 4 (a), an image including an unsatisfactory face that is not a smile is taken, and then the image is taken. Then, as shown in FIG. 4B, when shooting is performed below the unfavorable face region R2 that is not a smile, the live view image is currently displayed as shown in FIG. 4C. The direction of the unfavorable face region R2 viewed from the position with the live view image being displayed is displayed together with the live view image as an index (upward arrow icon d1).
By performing such display, the user can know that there is a place where it is necessary to perform re-shooting with the direction.

画像合成処理部56は、画像合成処理を実行する。
「画像合成処理」とは、複数の画像を合成すると共に、評価が満たない領域があった場合には再合成して、最終的に撮影予定領域の画角とする画像にする一連の処理である。
画像合成処理における複数枚の一連の画角で撮像された画像を合成する技術は、パノラマ合成等の周知の技術を用いる。
また、画像合成処理部56は、取得した画像で順次、撮影予定領域を画角とする画像を合成して行き、良好でない顔領域を含む場合には、当該顔領域に再度撮影した画像を上書き合成して、最終的に撮影予定領域の画角となるパノラマ画像を生成する。即ち、画像合成処理部56は、より高い評価を得た被写体像を含む画像を、合成対象とする画像として選択し、既に合成されている合成画像とを合成して、1枚のパノラマ画像を生成する。
The image composition processing unit 56 executes image composition processing.
“Image composition processing” is a series of processing that combines multiple images and recombines them when there is an area that does not satisfy the evaluation, resulting in an image with the angle of view of the planned shooting area. is there.
A known technique such as panorama synthesis is used as a technique for synthesizing images captured at a series of multiple angles of view in the image synthesis process.
In addition, the image composition processing unit 56 sequentially synthesizes an image with an angle of view of the planned image area in the acquired image, and if the image includes an unsatisfactory face area, the image captured again is overwritten on the face area. A panoramic image that finally becomes the angle of view of the scheduled shooting area is generated by combining the images. That is, the image composition processing unit 56 selects an image including a subject image with higher evaluation as an image to be synthesized, and synthesizes one synthesized panorama image with the synthesized image already synthesized. Generate.

次に、このような撮像装置1が実行するパノラマ撮影処理の流れについて説明する。
図5は、図2の機能的構成を有する図1の撮像装置1が実行するパノラマ撮影処理の流れを説明するフローチャートである。
Next, a flow of panorama shooting processing executed by the imaging apparatus 1 will be described.
FIG. 5 is a flowchart for explaining the flow of panorama shooting processing executed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG.

パノラマ撮影処理は、ユーザによる入力部18に対するパノラマ撮影処理開始の操作によって開始される。パノラマ撮影処理では、ズーム比の調整が行われた後に、撮像装置1の移動と共に、撮像部16における撮像が行われて、複数枚の撮像画像が画像記憶部71に記憶される。   The panorama shooting process is started by an operation for starting the panorama shooting process on the input unit 18 by the user. In the panorama shooting process, after the zoom ratio is adjusted, the image pickup unit 16 picks up images as the image pickup apparatus 1 moves, and a plurality of picked-up images are stored in the image storage unit 71.

ステップS1において、ズーム比調整処理部51は、ズーム比調整処理を実行する。これにより、撮影予定領域を画角とする画像を撮像する場合におけるズーム比を調整する。   In step S1, the zoom ratio adjustment processing unit 51 executes a zoom ratio adjustment process. As a result, the zoom ratio in the case of capturing an image with the field of view to be captured is adjusted.

ステップS2において、移動検出部53は、撮像装置1が移動したか否かを判定する。
撮像装置1が移動していない場合には、ステップS2においてNOと判定されて、撮像装置1が移動するまで待機する。
これに対して、撮像装置1が移動している場合には、ステップS2においてYESと判定されて、ステップS3に進む。
In step S2, the movement detection unit 53 determines whether or not the imaging device 1 has moved.
When the imaging device 1 is not moving, it is determined as NO in Step S2 and waits until the imaging device 1 moves.
On the other hand, when the imaging device 1 is moving, YES is determined in step S2, and the process proceeds to step S3.

ステップS3において、非良好顔領域表示処理部55は、非良好顔領域表示処理を実行する。
これにより、ライブビュー画像において、良好でない顔領域を示す非良好顔領域表示が行われる。ユーザは、非良好顔領域表示によって、再撮影の有無と、どの方向に良好でない顔領域があるかを知ることができる。
In step S3, the unfavorable face area display processing unit 55 performs an unfavorable face area display process.
Thereby, in the live view image, an unfavorable face area display indicating an unfavorable face area is performed. The user can know the presence / absence of re-photographing and in which direction there is an unfavorable face area by displaying the unfavorable face area.

ステップS4において、CPU11は、ライブビュー画像内に記憶されている顔領域があるか否かを判定する。
ライブビュー画像内に記憶されている評価値が所定値未満の顔領域がある場合には、ステップS4においてYESと判定され、処理はステップS5に進む。
In step S4, the CPU 11 determines whether or not there is a face area stored in the live view image.
If there is a face area whose evaluation value stored in the live view image is less than the predetermined value, YES is determined in step S4, and the process proceeds to step S5.

ステップS5において、CPU11は、撮影フラグを「1」に設定する。その後処理は、ステップS8に進む。ステップS8以降の処理については後述する。   In step S5, the CPU 11 sets the photographing flag to “1”. Thereafter, the process proceeds to step S8. The processing after step S8 will be described later.

ここで、撮影フラグについて説明する。
図6は、撮影フラグを説明するための図である。
本実施形態のパノラマ撮像処理においては、撮影フラグを用いて、良好でない顔領域の有無を認識する。
Here, the shooting flag will be described.
FIG. 6 is a diagram for explaining the shooting flag.
In the panoramic imaging process of the present embodiment, the presence / absence of an unfavorable face region is recognized using a shooting flag.

撮影フラグは、図6に示すように、「値:0」を設定した場合には、「記憶されている(評価値が所定値未満の)顔領域なし」として、評価値が所定値未満である顔領域、即ち、良好でない顔領域がないと認識する。
また、「値:1」を設定した場合には、「記憶されている(評価値が所定値未満の)顔領域あり」として、価値が所定値未満でない顔領域、即ち、良好でない顔領域があると認識する。
As shown in FIG. 6, when “value: 0” is set, the shooting flag is “no stored face area (evaluation value is less than a predetermined value)” and the evaluation value is less than the predetermined value. It recognizes that there is no certain face area, that is, an unfavorable face area.
Further, when “value: 1” is set, a face area whose value is not less than the predetermined value, that is, a face area that is not good is determined as “there is a stored face area (the evaluation value is less than the predetermined value)”. Recognize that there is.

これに対して、初めて撮影する範囲のように、ライブビュー画像内に記憶されている評価値が所定値未満の顔領域がない場合には、ステップS4においてNOと判定され、処理はステップS6に進む。   On the other hand, when there is no face area whose evaluation value stored in the live view image is less than the predetermined value as in the first shooting range, NO is determined in step S4, and the process proceeds to step S6. move on.

ステップS6において、移動検出部53は、撮像装置1が所定距離移動したか否かを判定する。
撮像装置1が所定距離移動していない場合には、ステップS6においてNOと判定されて、処理はステップS2に戻る。
これに対して、撮像装置1が所定距離移動している場合には、ステップS6においてYESと判定されて、処理はステップS7に進む。
In step S6, the movement detection unit 53 determines whether or not the imaging apparatus 1 has moved a predetermined distance.
If the imaging device 1 has not moved by the predetermined distance, NO is determined in step S6, and the process returns to step S2.
On the other hand, when the imaging device 1 has moved by the predetermined distance, it is determined as YES in Step S6, and the process proceeds to Step S7.

ステップS7において、CPU11は、撮影フラグを「0」に設定する。   In step S7, the CPU 11 sets the photographing flag to “0”.

ステップS8において、CPU11は、画像データを取得する。即ち、CPU11は、撮像装置1の移動に伴って撮像部16において自動的に順次撮像され、画像記憶部71に記憶される画像データを取得する。   In step S8, the CPU 11 acquires image data. That is, the CPU 11 acquires image data that is automatically and sequentially imaged by the imaging unit 16 as the imaging device 1 moves, and that is stored in the image storage unit 71.

ステップS9において、顔領域評価処理部54は、顔領域評価処理を実行する。
これにより、取得した画像の顔領域が評価されて、良好でない顔領域を含むか否か決定される。
In step S9, the face area evaluation processing unit 54 executes a face area evaluation process.
Thereby, the face area of the acquired image is evaluated and it is determined whether or not the face area is not good.

ステップS10において、画像合成処理部56は、画像合成処理を実行する。
これにより、取得した複数の撮像画像が合成されて、撮影予定領域を画角とする画像を合成する。また、合成に際して、良好でない顔領域がある場合には、再撮影で取得した画像を上書きして、撮影予定領域を画角とする画像を合成する。
In step S10, the image composition processing unit 56 executes image composition processing.
As a result, the acquired plurality of captured images are combined, and an image having an angle of view of the planned shooting area is combined. In addition, when there is an unsatisfactory face area at the time of composition, an image acquired by re-photographing is overwritten, and an image having the field of view to be photographed is synthesized.

ステップS11において、CPU11は、撮影が終了したか否かを判断する。
撮影が終了していない場合には、ステップS11においてNOと判断されて、ステップS2に戻る。
これに対して、撮影が終了した場合には、ステップS11においてYESと判断されて、パノラマ撮影処理は終了する。
In step S <b> 11, the CPU 11 determines whether shooting has ended.
If shooting has not ended, NO is determined in step S11, and the process returns to step S2.
On the other hand, when shooting is completed, YES is determined in step S11, and the panorama shooting process ends.

図7は、パノラマ撮影処理のうち、ズーム比調整処理の詳細な流れを説明するフローチャートである。   FIG. 7 is a flowchart for explaining the detailed flow of the zoom ratio adjustment process in the panorama shooting process.

ステップS31において、ズーム比調整処理部51は、画像を取得する。本ステップでは、ズーム比調整処理部51は、生成したいパノラマ画像の画角となる撮影予定領域を撮影した画像を取得する。
具体的には、ズーム比調整処理部51は、図3(a)に示すような集合写真において人物全員が含まれる画角の撮像画像を撮影してズーム比の算出に用いる画像を取得する。
In step S31, the zoom ratio adjustment processing unit 51 acquires an image. In this step, the zoom ratio adjustment processing unit 51 obtains an image obtained by photographing a planned photographing area that is an angle of view of a panoramic image to be generated.
Specifically, the zoom ratio adjustment processing unit 51 captures a captured image having an angle of view including all persons in the group photo as illustrated in FIG. 3A and acquires an image used for calculating the zoom ratio.

ステップS32において、ズーム比調整処理部51は、取得画像内に顔領域があるか否かを判定する。
取得画像内に顔領域がない場合には、ステップS32においてNOと判定されて、ズーム比調整処理は終了する。
これに対して、取得画像内に顔領域がある場合には、ステップS32においてYESと判定されて、処理はステップS33に進む。
In step S32, the zoom ratio adjustment processing unit 51 determines whether there is a face area in the acquired image.
If there is no face area in the acquired image, NO is determined in step S32, and the zoom ratio adjustment process ends.
On the other hand, if there is a face area in the acquired image, YES is determined in step S32, and the process proceeds to step S33.

ステップS33において、顔領域検出処理部52は、取得した画像から、顔領域を検出する。
具体的には、ズーム比調整処理部51は、図3(a)に示すように、撮影予定領域を撮影した画像に含まれる顔領域R2を検出する。
In step S33, the face area detection processing unit 52 detects a face area from the acquired image.
Specifically, as shown in FIG. 3A, the zoom ratio adjustment processing unit 51 detects a face region R2 included in an image obtained by photographing a planned photographing region.

ステップS34において、ズーム比調整処理部51は、検出した顔領域(以下「検出顔領域」という。)の取得画像に対するサイズを取得する。
具体的には、ズーム比調整処理部51は、図3(a)に示す顔領域R2を検出顔領域として各顔領域R2のサイズを取得する。
In step S34, the zoom ratio adjustment processing unit 51 acquires the size of the detected face area (hereinafter referred to as “detected face area”) with respect to the acquired image.
Specifically, the zoom ratio adjustment processing unit 51 acquires the size of each face area R2 using the face area R2 shown in FIG. 3A as a detected face area.

ステップS35において、ズーム比調整処理部51は、検出したサイズの平均から、評価値の算出に必要なズーム比を算出する。検出したサイズの平均とすることで、平均近傍の所定の範囲内にあるサイズは評価値を算出する評価対象とし、大きく平均から外れるようなサイズの顔領域は外すことができる。   In step S35, the zoom ratio adjustment processing unit 51 calculates a zoom ratio necessary for calculating the evaluation value from the average of the detected sizes. By setting the average of the detected sizes, a size within a predetermined range in the vicinity of the average is an evaluation target for calculating an evaluation value, and a face region having a size greatly deviating from the average can be removed.

ステップS36において、ズーム比調整処理部51は、算出したズーム比に設定して、ズーム比を調整する。
具体的には、ズーム比調整処理部51は、検出したサイズの平均から好適とされるズーム比として、図3(b)に示すような撮影領域R3となるズーム比で調整を行う。その結果、以降の処理においては、図3(c)に示すように、撮影領域R3のズーム比で撮影予定領域R1を包含するようにして順次撮影が行われる。
その後、ズーム比調整処理は終了する。
In step S36, the zoom ratio adjustment processing unit 51 sets the calculated zoom ratio to adjust the zoom ratio.
Specifically, the zoom ratio adjustment processing unit 51 performs adjustment with a zoom ratio that becomes a photographing region R3 as shown in FIG. As a result, in the subsequent processing, as shown in FIG. 3C, shooting is sequentially performed so as to include the scheduled shooting area R1 with the zoom ratio of the shooting area R3.
Thereafter, the zoom ratio adjustment process ends.

図8は、パノラマ撮影処理のうち、非良好顔領域表示処理の詳細な流れを説明するフローチャートである。   FIG. 8 is a flowchart for explaining the detailed flow of the non-good face area display process in the panorama shooting process.

ステップS51において、非良好顔領域表示処理部55は、ライブビュー画像内に記憶されている評価値が所定値未満の顔領域があるか否かを判定する。
ライブビュー画像内に記憶されている評価値が所定値未満の顔領域がない場合には、ステップS51においてNOと判定されて、処理はステップS53に進む。ステップS53以降の処理は後述する。
これに対して、ライブビュー画像内に記憶されている評価値が所定値未満の顔領域がある場合には、ステップS51においてYESと判定されて、処理はステップS52に進む。
In step S51, the unfavorable face area display processing unit 55 determines whether there is a face area whose evaluation value stored in the live view image is less than a predetermined value.
If there is no face area whose evaluation value stored in the live view image is less than the predetermined value, NO is determined in step S51, and the process proceeds to step S53. The processing after step S53 will be described later.
On the other hand, if there is a face area whose evaluation value stored in the live view image is less than the predetermined value, YES is determined in step S51, and the process proceeds to step S52.

ステップS52において、非良好顔領域表示処理部55は、当該顔領域を色枠表示するように出力部19を制御する。即ち、非良好顔領域表示処理部55は、顔領域がライブビュー画像内にあるために、表示しているライブビュー画像内の該当箇所を枠で表示するように出力部19を制御する。色枠は、例えば、笑顔でない場合は「赤色」や目つぶりの場合は、「緑色」等の良好でない原因に応じて異なる色で表示する。
このような非良好顔領域表示を見て、ユーザは、再撮影等の所定の動作が促されることとなる。
In step S52, the unfavorable face area display processing unit 55 controls the output unit 19 to display the face area in a color frame. That is, since the face area is in the live view image, the non-good face area display processing unit 55 controls the output unit 19 to display the corresponding part in the displayed live view image with a frame. For example, the color frame is displayed in different colors depending on the unfavorable cause, such as “red” when not smiling, or “green” when blinking.
The user is prompted to perform a predetermined operation such as re-photographing by looking at such an unfavorable face area display.

なお、本実施形態においては、図4(a)乃至図4(c)の例で示すように、色分けに代えて、線種を異ならせることで表現することも可能である。図4(a)乃至図4(c)では、ライブビュー画像で現在検出中である顔領域は実線で表示し、笑顔でない場合は、破線の線種で表現する、また、例えば、目つぶり等の笑顔でない以外の場合は、例えば、一点鎖線の線種で表現することができる。
また、図4(b)の下段左から2番目の目つぶりの人物は、まだ撮影されていないので、色枠表示は行っていない。
In the present embodiment, as shown in the examples of FIGS. 4A to 4C, it can be expressed by changing the line type instead of color coding. In FIGS. 4A to 4C, the face area currently being detected in the live view image is displayed as a solid line, and when it is not a smile, it is expressed by a broken line type. If it is not a smile, it can be expressed by, for example, a one-dot chain line type.
In addition, the second blinking person from the lower left of FIG. 4B has not been photographed yet, so no color frame display is performed.

ステップS53において、非良好顔領域表示処理部55は、ライブビュー画像外に記憶されている評価値が所定値未満の顔領域があるか否かを判定する。
ライブビュー画像外に記憶されている評価値が所定値未満の顔領域がない場合には、ステップS53においてNOと判定されて、非良好顔領域表示処理は終了する。
これに対して、ライブビュー画像外に記憶されている評価値が所定値未満の顔領域がある場合には、ステップS53においてYESと判定されて、処理はステップS54に進む。
In step S53, the unfavorable face area display processing unit 55 determines whether or not there is a face area whose evaluation value stored outside the live view image is less than a predetermined value.
If there is no face area whose evaluation value stored outside the live view image is less than the predetermined value, NO is determined in step S53, and the non-good face area display process ends.
On the other hand, if there is a face area whose evaluation value stored outside the live view image is less than the predetermined value, YES is determined in step S53, and the process proceeds to step S54.

ステップS54において、非良好顔領域表示処理部55は、当該顔領域の方向を示す矢印表示をするように出力部19を制御する。即ち、非良好顔領域表示処理部55は、顔領域がライブビュー画像外にあるために、表示しているライブビュー画像からどの方向にあるかを示す矢印を表示するように出力部19を制御する。矢印は、例えば、笑顔でない場合は「赤色」や目つぶりの場合は、「緑色」等の良好でない原因に応じて異なる色で表示する。   In step S54, the non-favorable face area display processing unit 55 controls the output unit 19 to display an arrow indicating the direction of the face area. That is, the non-good face area display processing unit 55 controls the output unit 19 to display an arrow indicating in which direction the live view image is displayed because the face area is outside the live view image. To do. The arrow is displayed in a different color depending on the cause, such as “red” when not smiling and “green” when blinking.

具体的には、図4(c)に示すように、ライブビュー画像外に記憶されている評価値が所定値未満の顔領域がある場合には、矢印のアイコンd1を表示する。また、良好でない原因に応じて矢印のアイコンd1のハッチングの種類を変更してもよい。当該表示を見て、ユーザは、再撮影等の所定の動作が促されることとなる。
その後、非良好顔領域表示処理は終了する。
なお、非良好表示領域が複数ある場合は、矢印のアイコンを複数表示してもよいし、一番近い方向の1つの矢印のアイコンだけを表示して、その矢印のアイコンが指し示した位置に移動すると、その位置から一番近い方向の1つ矢印のアイコンを表示するようにしてもよい。
Specifically, as shown in FIG. 4C, when there is a face area whose evaluation value stored outside the live view image is less than a predetermined value, an arrow icon d1 is displayed. Further, the type of hatching of the arrow icon d1 may be changed according to the cause that is not good. Viewing the display, the user is prompted to perform a predetermined operation such as re-photographing.
Thereafter, the non-favorable face area display process ends.
If there are multiple unsatisfactory display areas, a plurality of arrow icons may be displayed, or only one arrow icon in the nearest direction is displayed and moved to the position indicated by the arrow icon. Then, a single arrow icon in the direction closest to the position may be displayed.

このように撮像装置1においては、被写体像の評価値が所定値未満の場合のみ、その位置と評価値を記憶しておき、ライブビュー画像内に被写体像がある場合には色枠表示し、ライブビュー画像外に被写体像がある場合には方向を示す矢印を表示する。撮像装置1では、色枠表示や矢印を表示することでライブビュー画像内外に応じて、評価値が所定値未満の被写体像を識別可能に表示することができる。   As described above, in the imaging apparatus 1, only when the evaluation value of the subject image is less than the predetermined value, the position and the evaluation value are stored, and when the subject image is present in the live view image, the color frame is displayed. If the subject image is outside the live view image, an arrow indicating the direction is displayed. The imaging device 1 can display a subject image having an evaluation value less than a predetermined value in an identifiable manner according to the inside or outside of the live view image by displaying a color frame display or an arrow.

図9は、パノラマ撮影処理のうち、顔領域評価処理の詳細な流れを説明するフローチャートである。   FIG. 9 is a flowchart for explaining the detailed flow of the face area evaluation process in the panorama shooting process.

ステップS71において、顔領域評価処理部54は、取得画像内に顔領域があるか否かを判定する。
取得画像内に顔領域がない場合には、ステップS71においてNOと判定されて、顔領域評価処理は終了する。
これに対して、取得画像内に顔領域がある場合には、ステップS71においてYESと判定されて、処理はステップS72に進む。
In step S71, the face area evaluation processing unit 54 determines whether or not there is a face area in the acquired image.
If there is no face area in the acquired image, NO is determined in step S71, and the face area evaluation process ends.
On the other hand, if there is a face area in the acquired image, YES is determined in step S71, and the process proceeds to step S72.

ステップS72において、顔領域評価処理部54は、撮影フラグが「1」であるか否かを判定する。
撮影フラグが「1」でない、即ち「0」の場合には、ステップS72においてNOと判定されて、処理はステップS76に進む。ステップS76以降の処理については、後述する。
これに対して、撮影フラグが「1」の場合には、ステップS72においてYESと判定されて、処理はステップS73に進む。
In step S72, the face area evaluation processing unit 54 determines whether or not the shooting flag is “1”.
If the shooting flag is not “1”, that is, “0”, it is determined as NO in Step S72, and the process proceeds to Step S76. The processing after step S76 will be described later.
On the other hand, when the shooting flag is “1”, it is determined as YES in Step S72, and the process proceeds to Step S73.

ステップS73において、顔領域評価処理部54は、記憶されている位置の顔領域の評価値を算出する。評価値によって、笑顔でない・目つぶり等の良好でないものか否かの判定か可能となる。   In step S73, the face area evaluation processing unit 54 calculates an evaluation value of the face area at the stored position. Depending on the evaluation value, it is possible to determine whether it is not a smile, a blinking eye, or the like.

ステップS74において、顔領域評価処理部54は、評価値が所定値未満であるか否かを判定する。
評価値が所定値未満の場合には、ステップS74においてYESと判定されて、処理はステップS80に進む。
これに対して、評価値が所定値未満でない、即ち、所定値以上である場合には、ステップS74においてNOと判定されて、処理はステップS75に進む。
In step S74, the face area evaluation processing unit 54 determines whether or not the evaluation value is less than a predetermined value.
If the evaluation value is less than the predetermined value, YES is determined in step S74, and the process proceeds to step S80.
On the other hand, if the evaluation value is not less than the predetermined value, that is, not less than the predetermined value, NO is determined in step S74, and the process proceeds to step S75.

ステップS75において、顔領域評価処理部54は、当該顔領域の評価値を更新し、評価値を更新したことを示す更新フラグを立てる。   In step S75, the face area evaluation processing unit 54 updates the evaluation value of the face area and sets an update flag indicating that the evaluation value has been updated.

一方、ステップS76において、顔領域評価処理部54は、顔領域を検出する。即ち、顔領域評価処理部54は、図4(a)の例に示すように、取得した画像から顔領域R2を検出する。   On the other hand, in step S76, the face area evaluation processing unit 54 detects a face area. That is, as shown in the example of FIG. 4A, the face area evaluation processing unit 54 detects the face area R2 from the acquired image.

ステップS77において、顔領域評価処理部54は、検出顔領域の評価値を算出する。顔領域評価処理部54は、図4(a)の例に示す顔領域R2の評価値を算出する。算出された評価値が所定値未満であった場合には、良好でない顔領域(例えば、目つぶりや笑顔でない顔領域)となり、算出された評価値が所定値以上であった場合には、良好な顔領域(例えば、笑顔の顔領域)となる。   In step S77, the face area evaluation processing unit 54 calculates an evaluation value of the detected face area. The face area evaluation processing unit 54 calculates the evaluation value of the face area R2 shown in the example of FIG. If the calculated evaluation value is less than a predetermined value, the face area is not good (for example, a face area that is not blinking or a smile), and if the calculated evaluation value is greater than or equal to the predetermined value, it is good. Face area (for example, a smiling face area).

ステップS78において、顔領域評価処理部54は、評価値が所定値未満であるか否かを判定する。
評価値が所定値未満でない、即ち、所定値以上である場合には、ステップS78においてNOと判定されて、処理はステップS80に進む。
これに対して、評価値が所定値未満の場合には、ステップS78においてYESと判定されて、処理はステップS79に進む。
In step S78, the face area evaluation processing unit 54 determines whether or not the evaluation value is less than a predetermined value.
If the evaluation value is not less than the predetermined value, that is, is equal to or greater than the predetermined value, NO is determined in step S78, and the process proceeds to step S80.
On the other hand, if the evaluation value is less than the predetermined value, YES is determined in step S78, and the process proceeds to step S79.

ステップS79において、顔領域評価処理部54は、当該顔領域の位置と評価値を画像記憶部71に記憶させる。   In step S <b> 79, the face area evaluation processing unit 54 stores the position of the face area and the evaluation value in the image storage unit 71.

ステップS80において、顔領域評価処理部54は、他に顔領域がないか否かを判定する。
他に顔領域がある場合には、ステップS80においてNOと判定されて、ステップS72に戻る。
これに対して、他に顔領域がない場合には、ステップS80においてYESと判定されて、顔領域評価処理は終了する。
In step S80, the face area evaluation processing unit 54 determines whether there is any other face area.
If there is another face area, NO is determined in step S80, and the process returns to step S72.
On the other hand, if there is no other face area, it is determined YES in step S80, and the face area evaluation process ends.

図10は、パノラマ撮影処理のうち、画像合成処理の詳細な流れを説明するフローチャートである。   FIG. 10 is a flowchart for explaining the detailed flow of the image composition process in the panorama shooting process.

ステップS101において、画像合成処理部56は、取得画像内に未合成領域があるか否を判定する。
取得画像内に未合成領域がない場合には、ステップS101においてNOと判定されて、処理はステップS103に進む。ステップS103以降の処理については後述する。
これに対して、取得画像内に未合成領域がある場合には、ステップS101においてYESと判定されて、処理はステップS102に進む。
In step S101, the image composition processing unit 56 determines whether there is an uncombined area in the acquired image.
If there is no uncombined area in the acquired image, NO is determined in step S101, and the process proceeds to step S103. The processing after step S103 will be described later.
On the other hand, if there is an unsynthesized area in the acquired image, YES is determined in step S101, and the process proceeds to step S102.

ステップS102において、画像合成処理部56は、重複部分を判別してつながるように合成処理をする。   In step S <b> 102, the image composition processing unit 56 performs composition processing so that overlapping portions are identified and connected.

ステップS103において、画像合成処理部56は、撮影フラグが「1」であるか否かを判定する。
撮影フラグが「1」でない「0」の場合、即ち、記憶されている評価値が所定値未満の顔領域がない場合には、ステップS103においてNOと判定されて、画像合成処理は終了する。
これに対して、撮影フラグが「1」の場合、即ち、記憶されている評価値が所定値未満の顔領域がある場合には、ステップS103においてYESと判定されて、処理はステップS104に進む。
In step S103, the image composition processing unit 56 determines whether or not the shooting flag is “1”.
If the shooting flag is “0” instead of “1”, that is, if there is no face area whose stored evaluation value is less than the predetermined value, it is determined NO in step S103, and the image composition processing ends.
On the other hand, if the shooting flag is “1”, that is, if there is a face area whose stored evaluation value is less than the predetermined value, YES is determined in step S103, and the process proceeds to step S104. .

ステップS104において、画像合成処理部56は、更新フラグが立っている顔領域があるか否かを判定する。
更新フラグが立っている顔領域がない場合には、ステップS104においてNOと判定されて、画像合成処理は終了する。
これに対して、更新フラグが立っている顔領域がある場合には、ステップS104においてYESと判定されて、処理はステップS105に進む。
In step S104, the image composition processing unit 56 determines whether there is a face area for which an update flag is set.
If there is no face area for which an update flag is set, NO is determined in step S104, and the image composition process ends.
On the other hand, if there is a face area for which an update flag is set, YES is determined in step S104, and the process proceeds to step S105.

ステップS105において、画像合成処理部56は、今回撮像画像の当該顔領域を抽出する。   In step S105, the image composition processing unit 56 extracts the face area of the current captured image.

ステップS106において、画像合成処理部56は、合成済み画像の該当顔領域に抽出した顔領域を上書き合成する。その結果、最終的に、画像合成処理部56は、複数枚の撮像画像から、検出した顔領域が良好な状態となる1枚のパノラマ画像を生成する。   In step S106, the image composition processing unit 56 overwrites and composes the extracted face area on the corresponding face area of the synthesized image. As a result, finally, the image composition processing unit 56 generates one panoramic image in which the detected face area is in a good state from a plurality of captured images.

ステップS107において、画像合成処理部56は、上書き合成した顔領域の記憶をクリアする。   In step S107, the image composition processing unit 56 clears the memory of the face area that has been overwritten and synthesized.

ステップS108において、画像合成処理部56は、他に顔領域がないか否かを判定する。
他に顔領域がある場合には、ステップS108においてNOと判定されて、処理はステップS104に戻る。
これに対して、他に顔領域がない場合には、ステップS108においてYESと判定されて、画像合成処理は終了する。
In step S108, the image composition processing unit 56 determines whether there is any other face area.
If there is another face area, NO is determined in step S108, and the process returns to step S104.
On the other hand, if there is no other face area, it is determined as YES in step S108, and the image composition process is ended.

<変形例>
上述した実施形態では、ライブビュー画像を表示して、表示している画像に対して、評価が所定値未満となる被写体像を表示するように構成した。これに対して、本変形例では、撮影中も合成中の画像をレビュー画像として表示するように構成し、所定値未満の被写体像を識別表示する。また、本変形例を撮像装置1で実行する場合、パノラマ撮影処理のうち、非良好顔領域表示処理のみが上述した実施形態と異なる。即ち、上述した実施形態と異なる非良好顔領域表示処理のみについて説明する。
<Modification>
In the above-described embodiment, a live view image is displayed, and a subject image whose evaluation is less than a predetermined value is displayed with respect to the displayed image. On the other hand, in this modification, an image being combined is displayed as a review image even during shooting, and subject images less than a predetermined value are identified and displayed. When this modification is executed by the imaging apparatus 1, only the unfavorable face area display process in the panorama shooting process is different from the above-described embodiment. That is, only non-good face area display processing different from the above-described embodiment will be described.

図11は、パノラマ撮影処理のうち、非良好顔領域表示処理の変形例の詳細な流れを説明するフローチャートである。   FIG. 11 is a flowchart for explaining a detailed flow of a modified example of the non-good face area display process in the panorama shooting process.

ステップS121において、非良好顔領域表示処理部55は、合成画像を表示する。即ち、非良好顔領域表示処理部55は、撮影予定領域を出力部19の表示画面として、逐次合成される合成画像を表示する。   In step S121, the unfavorable face area display processing unit 55 displays a composite image. In other words, the non-favorable face area display processing unit 55 displays a combined image that is sequentially synthesized using the scheduled shooting area as a display screen of the output unit 19.

ステップS122において、非良好顔領域表示処理部55は、記憶されている評価値が所定値未満の顔領域があるか否かを判定する。
記憶されている評価値が所定値未満の顔領域がない場合には、ステップS122においてNOと判定されて、非良好顔領域表示処理は終了する。
これに対して、記憶されている評価値が所定値未満の顔領域がある場合には、ステップS122においてYESと判定されて、処理はステップS123に進む。
In step S122, the unfavorable face area display processing unit 55 determines whether there is a face area whose stored evaluation value is less than a predetermined value.
If there is no face area whose stored evaluation value is less than the predetermined value, NO is determined in step S122, and the non-good face area display process ends.
On the other hand, if there is a face area whose stored evaluation value is less than the predetermined value, YES is determined in step S122, and the process proceeds to step S123.

ステップS123においては、非良好顔領域表示処理部55は、当該顔領域を色枠表示する。このように非良好顔領域表示を行うことで、ユーザは、良好でない顔領域の位置関係を把握しやすくなる。
その後、非良好顔領域表示処理は終了する。
In step S123, the unfavorable face area display processing unit 55 displays the face area in a color frame. By performing the non-good face area display in this way, the user can easily grasp the positional relationship of the bad face areas.
Thereafter, the non-favorable face area display process ends.

図12は、変形例における非良好顔領域表示を説明するための模式図である。
具体的には、図12(a)に示すように、撮影予定領域R1を予めレビュー画像として表示しておき、取得した画像を順次撮影予定領域R1に埋め込んで表示していく。そして、取得した画像内で顔領域R2を検出した場合には、図12(b)に示すように検出した旨を表示する枠を表示する。当該検出した顔領域R2の評価を行って、評価が所定値未満であった場合には、図12(c)に示すように、良好でない顔領域を示す枠アイコンd1を表示して非良好顔領域表示をする。ユーザは、撮影中、良好でない顔領域、即ち、再撮影が必要な領域の有無と、撮影予定領域R1中のどこに良好でない顔領域が位置しているかを一覧的に把握することができ、再撮影等の所定の動作が促されることとなる。
FIG. 12 is a schematic diagram for explaining the non-good face area display in the modified example.
Specifically, as shown in FIG. 12A, the scheduled shooting area R1 is displayed in advance as a review image, and the acquired images are sequentially embedded and displayed in the scheduled shooting area R1. When the face area R2 is detected in the acquired image, a frame for displaying the detection is displayed as shown in FIG. When the detected face area R2 is evaluated and the evaluation is less than the predetermined value, a frame icon d1 indicating an unfavorable face area is displayed as shown in FIG. Display area. During shooting, the user can grasp a list of unfavorable face areas, that is, whether there is an area that needs to be re-photographed, and where the unfavorable face area is located in the planned shooting area R1. A predetermined operation such as shooting is prompted.

<他の実施形態>
上述の実施形態では、評価値が所定値以上の場合は、合成用の画像として採用するように構成した。これに対して、本実施形態では、評価値が所定値以上のものがあっても、再度取得した場合に評価値の比較を行い、より高い評価値となった方を合成用の画像として採用するように構成する。
<Other embodiments>
In the above-described embodiment, when the evaluation value is greater than or equal to the predetermined value, the image is used as a composition image. In contrast, in the present embodiment, even if the evaluation value is greater than or equal to the predetermined value, the evaluation value is compared when it is acquired again, and the one with the higher evaluation value is used as the image for synthesis. To be configured.

図13は、図2の機能的構成を有する図1の撮像装置1が実行する他の実施形態におけるパノラマ撮影処理の流れを説明するフローチャートである。   FIG. 13 is a flowchart for explaining the flow of panorama shooting processing in another embodiment executed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG.

ステップS201において、ズーム比調整処理部51は、ズーム比調整処理を実行する。なお、本実施形態のズーム比調整処理は、上述した実施形態のズーム比調整処理と同様の処理を行うために、説明を省略する。   In step S201, the zoom ratio adjustment processing unit 51 performs a zoom ratio adjustment process. Note that the zoom ratio adjustment process of the present embodiment is the same as the zoom ratio adjustment process of the above-described embodiment, and a description thereof will be omitted.

ステップS202において、移動検出部53は、撮像装置1が所定距離以上移動したか否かを判定する。
撮像装置1が所定距離以上移動していない場合には、ステップS202においてNOと判定されて、撮像装置1が所定距離以上移動するまで待機する。
これに対して、撮像装置1が所定距離以上移動している場合には、ステップS202においてYESと判定されて、処理はステップS203に進む。
In step S202, the movement detection unit 53 determines whether or not the imaging apparatus 1 has moved a predetermined distance or more.
When the imaging device 1 has not moved more than the predetermined distance, it is determined as NO in Step S202 and waits until the imaging device 1 moves more than the predetermined distance.
On the other hand, when the imaging device 1 has moved a predetermined distance or more, YES is determined in step S202, and the process proceeds to step S203.

ステップS203において、CPU11は、画像データを取得する。即ち、CPU11は、画像記憶部71に記憶される撮像画像を取得する。   In step S203, the CPU 11 acquires image data. That is, the CPU 11 acquires a captured image stored in the image storage unit 71.

ステップS204において、顔領域評価処理部54は、顔領域評価処理を実行する。本実施形態の顔領域評価処理については後述する。   In step S204, the face area evaluation processing unit 54 performs a face area evaluation process. The face area evaluation process of this embodiment will be described later.

ステップS205において、画像合成処理部56は、画像合成処理を実行する。本実施形態の画像合成処理については後述する。   In step S205, the image composition processing unit 56 executes image composition processing. The image composition process of this embodiment will be described later.

ステップS206において、CPU11は、撮影が終了したか否かを判断する。
撮影が終了していない場合には、ステップS206においてNOと判断されて、ステップS202に戻る。
これに対して、撮影が終了した場合には、ステップS206においてYESと判断されて、パノラマ撮影処理は終了する。
In step S <b> 206, the CPU 11 determines whether shooting has ended.
If shooting has not been completed, NO is determined in step S206, and the process returns to step S202.
On the other hand, when shooting is completed, YES is determined in step S206, and the panorama shooting process ends.

図14は、他の実施形態のパノラマ撮影処理のうち、顔領域評価処理の詳細な流れを説明するフローチャートである。   FIG. 14 is a flowchart for explaining the detailed flow of the face area evaluation process in the panorama shooting process according to another embodiment.

ステップS221において、顔領域評価処理部54は、ライブビュー画像内に顔領域があるか否かを判定する。
ライブビュー画像内に顔領域がない場合には、ステップS221においてNOと判定されて、顔領域評価処理は終了する。
これに対して、ライブビュー画像内に顔領域がある場合には、ステップS221においてYESと判定されて、処理はステップS222に進む。
In step S221, the face area evaluation processing unit 54 determines whether or not there is a face area in the live view image.
If there is no face area in the live view image, it is determined as NO in step S221, and the face area evaluation process ends.
On the other hand, if there is a face area in the live view image, YES is determined in step S221, and the process proceeds to step S222.

ステップS222において、顔領域を検出する。
ステップS223において、顔領域評価処理部54は、検出顔領域の位置を取得する。
In step S222, a face area is detected.
In step S223, the face area evaluation processing unit 54 acquires the position of the detected face area.

ステップS224において、顔領域評価処理部54は、検出顔領域の評価値を算出する。   In step S224, the face area evaluation processing unit 54 calculates an evaluation value of the detected face area.

ステップS225において、顔領域評価処理部54は、略同一位置の顔領域があるか否かを判定する。
略同一位置の顔領域がない場合には、ステップS225においてNOと判定されて、処理はステップS229に進む。
In step S225, the face area evaluation processing unit 54 determines whether there is a face area at substantially the same position.
If there is no face region at substantially the same position, NO is determined in step S225, and the process proceeds to step S229.

ステップS229において、顔領域評価処理部54は、今回の位置と評価値を画像記憶部71に記憶させる。その後、処理はステップS230に進む。ステップS230以降の処理は後述する。
これに対して、略同一位置の顔領域がある場合には、ステップS225においてYESと判定されて、処理はステップS226に進む。
In step S229, the face area evaluation processing unit 54 stores the current position and the evaluation value in the image storage unit 71. Thereafter, the process proceeds to step S230. The processing after step S230 will be described later.
On the other hand, if there are face regions at substantially the same position, YES is determined in step S225, and the process proceeds to step S226.

ステップS226において、顔領域評価処理部54は、記憶されている評価値と、今回の評価値を比較する。   In step S226, the face area evaluation processing unit 54 compares the stored evaluation value with the current evaluation value.

ステップS227において、顔領域評価処理部54は、今回の評価値が記憶されている評価値よりも高いか否かを判定する。
今回の評価値が記憶されている評価値よりも低い場合には、ステップS227においてNOと判定されて、処理はステップS229に進む。
これに対して、今回の評価値が記憶されている評価値よりも高い場合には、ステップS227においてYESと判定されて、処理はステップS228に進む。
In step S227, the face area evaluation processing unit 54 determines whether or not the current evaluation value is higher than the stored evaluation value.
If the current evaluation value is lower than the stored evaluation value, NO is determined in step S227, and the process proceeds to step S229.
In contrast, if the current evaluation value is higher than the stored evaluation value, YES is determined in step S227, and the process proceeds to step S228.

ステップS228において、顔領域評価処理部54は、評価値を今回の算出値で更新し、更新フラグを立てる。   In step S228, the face area evaluation processing unit 54 updates the evaluation value with the current calculated value and sets an update flag.

ステップS230において、顔領域評価処理部54は、他に顔領域がないか否かを判定する。
他に顔領域がある場合には、ステップS230においてNOと判定されて、処理はステップS222に進む。
これに対して、他に顔領域がない場合には、ステップS230においてYESと判定されて、顔領域評価処理は終了する。
In step S230, the face area evaluation processing unit 54 determines whether there is any other face area.
If there is another face area, NO is determined in step S230, and the process proceeds to step S222.
On the other hand, if there is no other face area, it is determined YES in step S230, and the face area evaluation process ends.

図15は、他の実施形態のパノラマ撮影処理のうち、画像合成処理の詳細な流れを説明するフローチャートである。   FIG. 15 is a flowchart for explaining the detailed flow of the image composition process in the panorama shooting process according to another embodiment.

ステップS251において、画像合成処理部56は、取得画像内に未合成領域があるか否かを判定する。
取得画像内に未合成領域がない場合には、ステップS251においてNOと判定されて、処理はステップS253に進む。ステップS253以降の処理については、後述する。
これに対して、取得画像内に未合成領域がある場合には、ステップS251においてYESと判定されて、処理はステップS252に進む。
In step S251, the image composition processing unit 56 determines whether there is an uncombined area in the acquired image.
If there is no uncombined area in the acquired image, NO is determined in step S251, and the process proceeds to step S253. The processing after step S253 will be described later.
On the other hand, if there is an unsynthesized area in the acquired image, YES is determined in step S251, and the process proceeds to step S252.

ステップS252において、画像合成処理部56は、重複部分を判別してつながるように合成処理を行う。   In step S252, the image composition processing unit 56 performs composition processing so that overlapping portions are discriminated and connected.

ステップS253において、画像合成処理部56は、更新フラグが立っている顔領域があるか否かを判定する。
更新フラグが立っている顔領域がない場合には、ステップS253においてNOと判定されて、画像合成処理は終了する。
これに対して、更新フラグが立っている顔領域がある場合には、ステップS253においてYESと判定されて、処理はステップS254に進む。
In step S253, the image composition processing unit 56 determines whether there is a face area for which an update flag is set.
If there is no face area for which an update flag is set, NO is determined in step S253, and the image composition process ends.
On the other hand, if there is a face area for which an update flag is set, YES is determined in step S253, and the process proceeds to step S254.

ステップS254において、画像合成処理部56は、今回撮像画像の当該顔領域を抽出する。   In step S254, the image composition processing unit 56 extracts the face area of the current captured image.

ステップS255において、画像合成処理部56は、合成済み画像の該当顔領域に抽出した顔領域を上書き合成する。   In step S255, the image composition processing unit 56 performs overwriting composition of the extracted face area on the corresponding face area of the synthesized image.

ステップS256において、画像合成処理部56は、上書き合成した顔領域の更新フラグをクリアする。   In step S <b> 256, the image composition processing unit 56 clears the update flag for the overwritten face area.

ステップS257において、画像合成処理部56は、他に顔領域がないか否かを判定する。
他に顔領域がある場合には、ステップS257においてNOと判定されて、処理はステップS253に進む。
これに対して、他に顔領域がない場合には、ステップS257においてYESと判定されて、画像合成処理は終了する。
In step S257, the image composition processing unit 56 determines whether there is any other face area.
If there is another face area, NO is determined in step S257, and the process proceeds to step S253.
On the other hand, if there is no other face area, it is determined as YES in step S257, and the image composition process is ended.

以上のように構成される撮像装置1は、CPU11と、顔領域評価処理部54と、画像合成処理部56と、を備える。
CPU11は、撮像範囲を変化させながら部分的に撮影した複数の画像を部分画像として順次取得する。
顔領域評価処理部54は、CPU11により取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する。
また、顔領域評価処理部54は、検出された各被写体像を評価する。
画像合成処理部56は、顔領域評価処理部54により、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象とする画像として選択する。
画像合成処理部56は、取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する。
これにより、撮像装置1においては、撮像装置を移動させながら複数枚の画像を取得してつなげるように合成してパノラマ画像を生成する場合であっても、より目つぶりしていない、笑顔等の良好な画像の被写体像からなる画像を生成することができる。また、既取得の被写体像であっても取り直したほうがよいと思われるような場合に、再度その被写体像に撮像装置を移動させることで、より良好な画像が得られる可能性が広げることができる。
よって、撮像装置1においては、全ての被写体像の撮影状態が良好な画像を生成することができる。
The imaging apparatus 1 configured as described above includes a CPU 11, a face area evaluation processing unit 54, and an image composition processing unit 56.
The CPU 11 sequentially acquires a plurality of images partially captured while changing the imaging range as partial images.
The face area evaluation processing unit 54 detects a subject image from each of a plurality of partial images with different shooting ranges acquired by the CPU 11.
The face area evaluation processing unit 54 evaluates each detected subject image.
For the plurality of partial images including the same subject image, the image composition processing unit 56 selects a partial image including the subject image with higher evaluation as an image to be combined.
The image composition processing unit 56 synthesizes a plurality of partial images including different subject images and a partial image selected as a compositing target among a plurality of partial images including the same subject image. One extended image is generated.
Thereby, in the imaging device 1, even when a panoramic image is generated by combining and acquiring a plurality of images while moving the imaging device, the blinking, the smile, etc. An image composed of a good subject image can be generated. In addition, in the case where it is considered that it is better to re-acquire an already acquired subject image, the possibility of obtaining a better image can be expanded by moving the imaging device to the subject image again. .
Therefore, the imaging apparatus 1 can generate an image in which the shooting state of all the subject images is good.

また、撮像装置1は、取得した部分画像内に評価が所定未満である被写体像が含まれている場合に、その旨を報知出力する出力部19を備える。
これにより、撮像装置1においては、目つぶりしている、笑顔でないといった良好でない顔が取得した部分画像に含まれている場合には、ユーザに報知されるため、撮りなおしの有無を判断することができる。
In addition, when the acquired partial image includes a subject image whose evaluation is less than a predetermined value, the imaging device 1 includes an output unit 19 that outputs a notification to that effect.
Thereby, in the imaging device 1, when the acquired partial image includes an unsatisfactory face such as blinking or not smiling, it is notified to the user, and therefore it is determined whether or not to re-shoot. Can do.

また、画像合成処理部56は、出力部19による報知出力に応じて同じ被写体像が再取得された場合に、被写体像の選択を行う。
これにより、撮像装置1では、同じ被写体像が再取得されない場合には、被写体像の選択を行わないために、処理負担を軽減することができる。
The image composition processing unit 56 selects a subject image when the same subject image is reacquired according to the notification output from the output unit 19.
Thereby, in the imaging device 1, when the same subject image is not reacquired, the subject image is not selected, so that the processing load can be reduced.

非良好顔領域表示処理部55は、取得した画像を表示するように出力部19を制御する。また、非良好顔領域表示処理部55は、表示している画像内に評価が所定未満である被写体像が含まれている場合に、その被写体像を識別可能に表示するように出力部19を制御する。
これにより、撮像装置1においては、目つぶりしている、笑顔でないといった良好でない顔を容易に識別できるので、どこを撮りなおせばよいか容易に判別することができる。
The non-good face area display processing unit 55 controls the output unit 19 to display the acquired image. Further, the non-good face area display processing unit 55 causes the output unit 19 to display the subject image so that the subject image can be identified when the subject image whose evaluation is less than a predetermined value is included in the displayed image. Control.
As a result, the imaging apparatus 1 can easily identify an unsatisfactory face that is blinking or not smiling, so it is possible to easily determine where to re-shoot.

また、非良好顔領域表示処理部55は、表示している画像内に評価が所定未満である被写体像が含まれていない場合に、その被写体像の位置を示す表示をするように出力部19を制御する。
これにより、撮像装置1においては、撮像装置1を移動させながら撮影していて良好でない顔を通り過ぎて表示部から外れてしまったような場合であっても、どこを撮りなおせばよいか容易に判別することができる。
Further, the non-favorable face area display processing unit 55 displays the position of the subject image when the subject image whose evaluation is less than a predetermined value is not included in the displayed image. To control.
As a result, in the imaging apparatus 1, even if the imaging apparatus 1 is moved while moving and the camera passes through an unsatisfactory face and comes off the display unit, it is easy to determine where to re-shoot. Can be determined.

また、非良好顔領域表示処理部55は、被写体像の位置を示す表示を、現在の画角に対する当該被写体像の方向を示すように表示するように出力部19を制御する。
これにより、撮像装置1においては、処理負担を軽減して、どこを撮りなおせばよいか容易に判別することができる。
Further, the unfavorable face area display processing unit 55 controls the output unit 19 to display a display indicating the position of the subject image so as to indicate the direction of the subject image with respect to the current angle of view.
Thereby, in the imaging device 1, the processing load can be reduced and it can be easily determined where to re-shoot.

また、非良好顔領域表示処理部55は、複数の部分画像を取得毎に随時に合成表示すると共に、被写体像の位置を示す表示を、合成表示の画面内における当該被写体像の位置を示す表示をするように出力部19を制御する。
これにより、撮像装置1においては、一覧的に表示されるために、ユーザにとってはどこを撮りなおせばよいか容易に判別することができる。
In addition, the non-favorable face area display processing unit 55 performs composite display of a plurality of partial images whenever necessary, and displays a display indicating the position of the subject image on the composite display screen. The output unit 19 is controlled so that
Thereby, in the imaging device 1, since it is displayed as a list, it is possible for the user to easily determine where to re-shoot.

また、撮像装置1は、ズーム比調整処理部51を備える。
ズーム比調整処理部51は、部分画像の取得サイズを、評価が可能なサイズに調整する。
これにより、撮像装置1においては、確実に評価値を算出することができる。
In addition, the imaging apparatus 1 includes a zoom ratio adjustment processing unit 51.
The zoom ratio adjustment processing unit 51 adjusts the acquisition size of the partial image to a size that can be evaluated.
Thereby, in the imaging device 1, an evaluation value can be reliably calculated.

また、ズーム比調整処理部51は、評価が可能なサイズへの調整を、評価するために必要な被写体像の大きさを得るためのズーム比で行う。
これにより、撮像装置1においては、サイズの調整を自動で行うことができる。
In addition, the zoom ratio adjustment processing unit 51 performs adjustment to a size that can be evaluated with a zoom ratio for obtaining the size of the subject image necessary for the evaluation.
Thereby, in the imaging device 1, size adjustment can be performed automatically.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、画像合成処理においては、より良好な顔領域がある場合には、上書きで合成するように構成したがこれに限られない。再撮影した場合は、より良好な顔領域である蓋然性が高い。このため、例えば、処理の簡略化も含めて、後から撮影したものを優先的に合成するように構成することができる。   In the above-described embodiment, in the image composition process, when there is a better face area, the composition is performed by overwriting, but the present invention is not limited to this. In the case of re-photographing, there is a high probability that the face area is better. For this reason, for example, it is possible to configure so as to preferentially synthesize what was photographed later, including simplification of processing.

また、上述の実施形態では、評価値が再撮影によりいずれ所定値以上となる前提としているため、何回撮影をしても所定値以上とならない場合には、非良好顔領域表示が消えない。そこで、所定回数以上評価値が所定値以上とならない場合、或いは、撮影開始等から所定時間以上経過した場合には、非良好顔領域表示を消すように構成してもよい。
具体的には、非良好顔領域表示処理部55は、評価が所定未満の被写体像を所定回数以上取得した、或いは、撮影開始から所定時間以上経過した場合は、その被写体像の位置を示す表示を停止するように出力部19を制御するように構成することができる。
In the above-described embodiment, it is assumed that the evaluation value will eventually become a predetermined value or more due to re-shooting. Therefore, if the number of shots does not exceed the predetermined value, the non-good face area display does not disappear. Therefore, when the evaluation value does not become a predetermined value or more for a predetermined number of times, or when a predetermined time or more has elapsed since the start of photographing or the like, the non-good face area display may be turned off.
Specifically, the unfavorable face area display processing unit 55 acquires a subject image whose evaluation is less than a predetermined number of times or when a predetermined time or more has passed since the start of photographing, a display indicating the position of the subject image The output unit 19 can be configured to stop the operation.

また、上述の実施形態では、表示により良好でない顔領域を報知するように構成したがこれに限られない。例えば、ブザー等の音や、ランプ等の光で報知するように構成してもよい。この際、報知のタイミングで、再撮影を行い良好な撮像画像を取得するように構成してもよい。これにより、軽い処理でユーザに取りなおしを促すことができる。
具体的には、撮像装置1は、出力部19において、評価が所定未満の被写体像を検出した場合に当該被写体像の再取得を促す報知出力を行う。また、顔領域評価処理部54は、出力部19による報知出力に応じて同じ被写体像が再取得された場合に、再取得された被写体像を含む画像を高い評価とするように構成することができる。
Further, in the above-described embodiment, the configuration is such that an unsatisfactory face area is notified by display, but the present invention is not limited to this. For example, you may comprise so that it alert | reports by sounds, such as a buzzer, and lights, such as a lamp | ramp. At this time, it may be configured to acquire a good captured image by performing re-photographing at the notification timing. Thereby, it is possible to prompt the user to retake with light processing.
Specifically, when the output unit 19 detects a subject image with an evaluation less than a predetermined value, the imaging apparatus 1 performs a notification output that prompts reacquisition of the subject image. Further, when the same subject image is reacquired in response to the notification output from the output unit 19, the face area evaluation processing unit 54 is configured to give a high evaluation to the image including the reacquired subject image. it can.

また、上述の実施形態では、より高い評価値が算出されたものを合成する画像として採用するように構成したがこれに限られない。例えば、評価値が所定値以上であった場合には、以降の評価を行わずに合成する画像とするように構成してもよい。このように構成することで、必ずしも行わなくてもよい処理を省略することができる。
具体的には、顔領域評価処理部54は、既に評価が所定以上であると評価された被写体像が、再度検出された場合には、当該被写体像に対する評価を行わないように構成することができる。
Further, in the above-described embodiment, the image having a higher evaluation value calculated is used as an image to be combined, but is not limited thereto. For example, when the evaluation value is equal to or greater than a predetermined value, an image to be combined may be configured without performing subsequent evaluation. By configuring in this way, processing that is not necessarily performed can be omitted.
Specifically, the face area evaluation processing unit 54 may be configured not to evaluate the subject image when the subject image that has already been evaluated to be equal to or higher than the predetermined value is detected again. it can.

上述の実施形態では、ズーム比は、検出したサイズの平均から好適とされるズーム比としたがこれに限られず、例えば、良好でない顔領域として、例えば、笑顔を評価するために表情を検出できるように、或いは目つぶりを検出するために目を検出できるようにといった評価される項目に応じてズームの比率を変えるように構成してもよい。このように構成することにより、より適切なズーム比となるため、必要以上にズームアップするといったことを防止することができる。
具体的には、ズーム比調整処理部51は、評価する内容に応じてズーム比の調整を行うように構成することができる。
In the above-described embodiment, the zoom ratio is set to a zoom ratio that is suitable from the average of the detected sizes, but is not limited to this. For example, as an unfavorable face area, for example, a facial expression can be detected to evaluate a smile Alternatively, the zoom ratio may be changed in accordance with an item to be evaluated such that eyes can be detected to detect blinking. With such a configuration, a more appropriate zoom ratio is obtained, so that zooming up more than necessary can be prevented.
Specifically, the zoom ratio adjustment processing unit 51 can be configured to adjust the zoom ratio according to the content to be evaluated.

また、上述の実施形態では、ズーム比調整処理により、自動的にズーム比を調整してから撮影を行うように構成したがこれに限られない。撮影時に評価値を算出可能なズーム又は被写体像への距離となるようなガイド表示を行うように構成してもよい。ガイド表示は例えば、被写体像を検出したら枠等を表示し、評価値を算出可能状態となったら枠の表示が変化する等で行うことができる。ユーザは、このようなガイド表示で、被写体像に近づいたり、ズームを調整したりすることでサイズを調整することができ、確実に評価値を算出することができるようになる。   In the above-described embodiment, the zoom ratio adjustment process automatically adjusts the zoom ratio to perform shooting, but the present invention is not limited to this. You may comprise so that the guide display which may become the zoom which can calculate an evaluation value at the time of imaging | photography, or the distance to a to-be-photographed image. The guide display can be performed, for example, by displaying a frame or the like when the subject image is detected, and by changing the display of the frame when the evaluation value can be calculated. With such a guide display, the user can adjust the size by approaching the subject image or adjusting the zoom, and can reliably calculate the evaluation value.

また、上述の実施形態では、良好でない顔として、集合写真の場合、笑顔でない、目つぶり等を例示として挙げたがこれに限られず、例えば、赤目、ブレや逆光等でもよい。また、良好でない顔は、ユーザの撮像画像の取得目的に応じて任意に設定することができ、写りが悪いというネガティブなものであってもよく、良好である顔を逆に悲しい顔や悔しがっている顔として、ポジティブなものを良好でない顔としてもよい。   Further, in the above-described embodiment, as an unsatisfactory face, in the case of a group photo, a smile, a blinking eye, etc. are given as examples, but the present invention is not limited to this. For example, red eyes, blurring, backlighting, etc. may be used. In addition, an unsatisfactory face can be arbitrarily set according to the user's acquisition purpose of the captured image, and may be negative such as poor reflection. A positive face may be an unfavorable face.

また、上述の実施形態では、顔領域の検出技術を利用しているために、顔の状態の善し悪しを評価基準に良好でない領域の表示処理や画像の合成処理等を行ったがこれに限られず、被写体像の状態から善し悪しを評価できるものであれば、当該評価に基づいて、良好でない領域の表示処理や画像の合成処理等を行うことができる。   In the above-described embodiment, since the detection technique of the face area is used, the display process or the image synthesis process of the unsatisfactory area is performed on the basis of whether the face condition is good or bad. However, the present invention is not limited to this. If it is possible to evaluate whether the subject image is good or bad, it is possible to perform display processing of an unfavorable region, image synthesis processing, or the like based on the evaluation.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an imaging processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disc), a Blu-ray (registered trademark) Disc (Blu-ray Disc), and the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
撮像範囲を変化させながら撮影した複数の画像を部分画像として順次取得する画像取得手段と、
前記画像取得手段により取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する検出手段と、
前記検出手段により検出された各被写体像を評価する被写体像評価手段と、
前記被写体像評価手段により、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象として選択する被写体像選択手段と、
前記画像取得手段により取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、前記被写体像選択手段により前記合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する画像生成手段と、
を備えることを特徴とする撮像装置。
[付記2]
前記取得した部分画像内に評価が所定未満である被写体像が含まれている場合に、その旨を報知する報知手段を備える、
ことを特徴とする付記1に記載の撮像装置。
[付記3]
前記被写体像選択手段は、前記報知手段による報知に応じて同じ被写体像が再取得された場合に、被写体像の選択を行う、
ことを特徴とする付記2に記載の撮像装置。
[付記4]
前記報知手段は、表示している画像内に評価が所定未満である被写体像が含まれている場合に、その被写体像を識別可能に表示するように表示手段を制御する第1の表示制御手段を備える、
ことを特徴とする付記2又は3に記載の撮像装置。
[付記5]
前記報知手段は、表示している画像内に評価が所定未満である被写体像が含まれていない場合に、その被写体像の位置を示す表示をするように表示手段を制御する第2の表示制御手段を備える、
ことを特徴とする付記2乃至4のいずれか1つに記載の撮像装置。
[付記6]
前記第2の表示制御手段は、前記被写体像の位置を示す表示を、現在の画角に対する当該被写体像の方向を示すように表示するように前記表示手段を制御する、
ことを特徴とする付記5に記載の撮像装置。
[付記7]
前記第2の表示制御手段は、複数の部分画像を取得毎に随時に合成表示すると共に、前記被写体像の位置を示す表示を、前記合成表示の画面内における当該被写体像の位置を示す表示をするように表示手段を制御する、
ことを特徴とする付記5又は6に記載の撮像装置。
[付記8]
前記第2の表示制御手段は、評価が所定未満の被写体像を所定回数以上取得した、或いは、撮影開始から所定時間以上経過した場合は、その被写体像の位置を示す表示を停止するように前記表示手段を制御する、
ことを特徴とする付記5乃至7のいずれか1つに記載の撮像装置。
[付記9]
前記報知手段による報知に応じて同じ被写体像が再取得された場合に、前記被写体像評価手段は、再取得された被写体像を含む画像を高い評価とする、
ことを特徴とする付記2に記載の撮像装置。
[付記10]
前記被写体像評価手段は、既に評価が所定以上であると評価された被写体像が、再度検出された場合には、当該被写体像に対する評価を行わない、
ことを特徴とする付記1乃至9のいずれか1つに記載の撮像装置。
[付記11]
部分画像の取得サイズを、評価が可能なサイズに調整する調整手段を備える、
ことを特徴とする付記1乃至10のいずれか1つに記載の撮像装置。
[付記12]
前記調整手段は、評価が可能なサイズへの調整を、評価するために必要な被写体像の大きさを得るためのズーム比で行う、
ことを特徴とする付記11に記載の撮像装置。
[付記13]
前記調整手段は、評価する内容に応じてズーム比の調整を行う、
ことを特徴とする付記12に記載の撮像装置。
[付記14]
撮像範囲を変化させながら撮影した複数の画像を部分画像として順次取得する画像取得ステップと、
前記画像取得ステップにより取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する検出ステップと、
前記検出ステップにより検出された各被写体像を評価する被写体像評価ステップと、
前記被写体像評価ステップにより、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象として選択する被写体像選択ステップと、
前記画像取得ステップにより取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、前記被写体像選択ステップにより前記合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する画像生成ステップと、
を含むことを特徴とする撮像方法。
[付記15]
撮像装置を制御するコンピュータを、
撮像範囲を変化させながら撮影した複数の画像を部分画像として順次取得する画像取得手段、
前記画像取得手段により取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する検出手段、
前記検出手段により検出された各被写体像を評価する被写体像評価手段、
前記被写体像評価手段により、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象として選択する被写体像選択手段、
前記画像取得手段により取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、前記被写体像選択手段により前記合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する画像生成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Image acquisition means for sequentially acquiring a plurality of images taken while changing the imaging range as partial images;
Detection means for detecting a subject image from each of a plurality of partial images having different shooting ranges acquired by the image acquisition means;
Subject image evaluation means for evaluating each subject image detected by the detection means;
A plurality of partial images including the same subject image by the subject image evaluation unit, a subject image selection unit that selects a partial image including the subject image that has obtained higher evaluation as a synthesis target;
A plurality of partial images including different subject images acquired by the image acquisition unit and a partial image selected as the combination target by the subject image selection unit among a plurality of partial images including the same subject image are combined. Image generating means for generating a single image with an expanded shooting range,
An imaging apparatus comprising:
[Appendix 2]
In the case where a subject image whose evaluation is less than a predetermined value is included in the acquired partial image, an informing means for informing the fact is provided.
The imaging apparatus according to Supplementary Note 1, wherein
[Appendix 3]
The subject image selection means selects the subject image when the same subject image is reacquired in response to the notification by the notification means;
The imaging apparatus according to Supplementary Note 2, wherein
[Appendix 4]
The notification means is a first display control means for controlling the display means so as to display the subject image in an identifiable manner when the subject image whose evaluation is less than a predetermined value is included in the displayed image. Comprising
The imaging apparatus according to appendix 2 or 3, characterized by the above.
[Appendix 5]
The informing means controls the display means to display the position of the subject image when the subject image whose evaluation is less than a predetermined value is not included in the displayed image. With means,
The imaging apparatus according to any one of appendices 2 to 4, characterized in that:
[Appendix 6]
The second display control unit controls the display unit to display a display indicating the position of the subject image so as to indicate a direction of the subject image with respect to a current angle of view.
The imaging apparatus according to appendix 5, which is characterized in that.
[Appendix 7]
The second display control means combines and displays a plurality of partial images whenever necessary, and displays a display indicating the position of the subject image and a display indicating the position of the subject image on the composite display screen. Control the display means to
The imaging apparatus according to appendix 5 or 6, characterized by the above.
[Appendix 8]
The second display control means obtains a subject image whose evaluation is less than a predetermined number of times, or stops displaying the position of the subject image when a predetermined time or more has elapsed since the start of photographing. Control the display means,
The imaging apparatus according to any one of appendices 5 to 7, characterized in that:
[Appendix 9]
When the same subject image is reacquired in response to the notification by the notification unit, the subject image evaluation unit sets the image including the reacquired subject image as a high evaluation.
The imaging apparatus according to Supplementary Note 2, wherein
[Appendix 10]
The subject image evaluation means does not evaluate the subject image when a subject image that has already been evaluated to be equal to or higher than a predetermined value is detected again.
The imaging apparatus according to any one of appendices 1 to 9, characterized in that:
[Appendix 11]
An adjustment unit that adjusts the acquisition size of the partial image to a size that can be evaluated;
The imaging apparatus according to any one of appendices 1 to 10, characterized in that:
[Appendix 12]
The adjusting means performs adjustment to a size that can be evaluated at a zoom ratio for obtaining the size of a subject image necessary for evaluation.
The imaging apparatus according to appendix 11, wherein:
[Appendix 13]
The adjusting means adjusts the zoom ratio according to the content to be evaluated.
The imaging apparatus according to attachment 12, wherein the imaging apparatus is characterized in that
[Appendix 14]
An image acquisition step of sequentially acquiring a plurality of images taken while changing the imaging range as partial images;
A detection step of detecting a subject image from each of a plurality of partial images having different shooting ranges acquired by the image acquisition step;
A subject image evaluation step for evaluating each subject image detected by the detection step;
A plurality of partial images including the same subject image by the subject image evaluation step, a subject image selection step of selecting a partial image including the subject image having a higher evaluation as a synthesis target;
A plurality of partial images including different subject images acquired by the image acquisition step and a partial image selected as the combination target by the subject image selection step among the plurality of partial images including the same subject image are combined. An image generation step for generating a single image with an expanded shooting range;
An imaging method comprising:
[Appendix 15]
A computer that controls the imaging device;
Image acquisition means for sequentially acquiring a plurality of images taken while changing the imaging range as partial images;
Detecting means for detecting a subject image from each of a plurality of partial images having different shooting ranges acquired by the image acquiring means;
Subject image evaluation means for evaluating each subject image detected by the detection means;
Subject image selection means for selecting, as a synthesis target, a partial image including a subject image that has obtained higher evaluation for a plurality of partial images including the same subject image by the subject image evaluation means,
A plurality of partial images including different subject images acquired by the image acquisition unit and a partial image selected as the combination target by the subject image selection unit among a plurality of partial images including the same subject image are combined. Image generating means for generating a single image with an expanded shooting range,
A program characterized by functioning as

1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・加速度センサ,18・・・入力部,19・・・出力部,20・・・記録部,21・・・通信部,22・・・ドライブ,31・・・リムーバブルメディア,51・・・ズーム比調整処理部,52・・・顔領域検出処理部,53・・・移動検出部,54・・・顔領域評価処理部,55・・・非良好顔領域表示処理部,56・・・画像合成処理部,71・・・画像記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input-output interface, 16 ... Imaging part, 17 ... Acceleration sensor 18 ... Input unit 19 ... Output unit 20 ... Recording unit 21 ... Communication unit 22 ... Drive 31 ... Removable media 51 ... Zoom ratio Adjustment processing unit 52... Face area detection processing unit 53... Movement detection unit 54... Face area evaluation processing unit 55. Processing unit, 71 ... Image storage unit

Claims (15)

撮像範囲を変化させながら撮影した複数の画像を部分画像として順次取得する画像取得手段と、
前記画像取得手段により取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する検出手段と、
前記検出手段により検出された各被写体像を評価する被写体像評価手段と、
前記被写体像評価手段により、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象として選択する被写体像選択手段と、
前記画像取得手段により取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、前記被写体像選択手段により前記合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する画像生成手段と、
を備えることを特徴とする撮像装置。
Image acquisition means for sequentially acquiring a plurality of images taken while changing the imaging range as partial images;
Detection means for detecting a subject image from each of a plurality of partial images having different shooting ranges acquired by the image acquisition means;
Subject image evaluation means for evaluating each subject image detected by the detection means;
A plurality of partial images including the same subject image by the subject image evaluation unit, a subject image selection unit that selects a partial image including the subject image that has obtained higher evaluation as a synthesis target;
A plurality of partial images including different subject images acquired by the image acquisition unit and a partial image selected as the combination target by the subject image selection unit among a plurality of partial images including the same subject image are combined. Image generating means for generating a single image with an expanded shooting range,
An imaging apparatus comprising:
前記取得した部分画像内に評価が所定未満である被写体像が含まれている場合に、その旨を報知する報知手段を備える、
ことを特徴とする請求項1に記載の撮像装置。
In the case where a subject image whose evaluation is less than a predetermined value is included in the acquired partial image, an informing means for informing the fact is provided.
The imaging apparatus according to claim 1.
前記被写体像選択手段は、前記報知手段による報知に応じて同じ被写体像が再取得された場合に、被写体像の選択を行う、
ことを特徴とする請求項2に記載の撮像装置。
The subject image selection means selects the subject image when the same subject image is reacquired in response to the notification by the notification means;
The imaging apparatus according to claim 2.
前記報知手段は、表示している画像内に評価が所定未満である被写体像が含まれている場合に、その被写体像を識別可能に表示するように表示手段を制御する第1の表示制御手段を備える、
ことを特徴とする請求項2又は3に記載の撮像装置。
The notification means is a first display control means for controlling the display means so as to display the subject image in an identifiable manner when the subject image whose evaluation is less than a predetermined value is included in the displayed image. Comprising
The imaging apparatus according to claim 2 or 3, wherein
前記報知手段は、表示している画像内に評価が所定未満である被写体像が含まれていない場合に、その被写体像の位置を示す表示をするように表示手段を制御する第2の表示制御手段を備える、
ことを特徴とする請求項2乃至4のいずれか1項に記載の撮像装置。
The informing means controls the display means to display the position of the subject image when the subject image whose evaluation is less than a predetermined value is not included in the displayed image. With means,
The imaging apparatus according to any one of claims 2 to 4, wherein the imaging apparatus is characterized in that
前記第2の表示制御手段は、前記被写体像の位置を示す表示を、現在の画角に対する当該被写体像の方向を示すように表示するように前記表示手段を制御する、
ことを特徴とする請求項5に記載の撮像装置。
The second display control unit controls the display unit to display a display indicating the position of the subject image so as to indicate a direction of the subject image with respect to a current angle of view.
The imaging apparatus according to claim 5.
前記第2の表示制御手段は、複数の部分画像を取得毎に随時に合成表示すると共に、前記被写体像の位置を示す表示を、前記合成表示の画面内における当該被写体像の位置を示す表示をするように表示手段を制御する、
ことを特徴とする請求項5又は6に記載の撮像装置。
The second display control means combines and displays a plurality of partial images whenever necessary, and displays a display indicating the position of the subject image and a display indicating the position of the subject image on the composite display screen. Control the display means to
The imaging apparatus according to claim 5 or 6.
前記第2の表示制御手段は、評価が所定未満の被写体像を所定回数以上取得した、或いは、撮影開始から所定時間以上経過した場合は、その被写体像の位置を示す表示を停止するように前記表示手段を制御する、
ことを特徴とする請求項5乃至7のいずれか1項に記載の撮像装置。
The second display control means obtains a subject image whose evaluation is less than a predetermined number of times, or stops displaying the position of the subject image when a predetermined time or more has elapsed since the start of photographing. Control the display means,
The image pickup apparatus according to claim 5, wherein the image pickup apparatus is an image pickup apparatus.
前記報知手段による報知に応じて同じ被写体像が再取得された場合に、前記被写体像評価手段は、再取得された被写体像を含む画像を高い評価とする、
ことを特徴とする請求項2に記載の撮像装置。
When the same subject image is reacquired in response to the notification by the notification unit, the subject image evaluation unit sets the image including the reacquired subject image as a high evaluation.
The imaging apparatus according to claim 2.
前記被写体像評価手段は、既に評価が所定以上であると評価された被写体像が、再度検出された場合には、当該被写体像に対する評価を行わない、
ことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
The subject image evaluation means does not evaluate the subject image when a subject image that has already been evaluated to be equal to or higher than a predetermined value is detected again.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
部分画像の取得サイズを、評価が可能なサイズに調整する調整手段を備える、
ことを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。
An adjustment unit that adjusts the acquisition size of the partial image to a size that can be evaluated;
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記調整手段は、評価が可能なサイズへの調整を、評価するために必要な被写体像の大きさを得るためのズーム比で行う、
ことを特徴とする請求項11に記載の撮像装置。
The adjusting means performs adjustment to a size that can be evaluated at a zoom ratio for obtaining the size of a subject image necessary for evaluation.
The imaging apparatus according to claim 11.
前記調整手段は、評価する内容に応じてズーム比の調整を行う、
ことを特徴とする請求項12に記載の撮像装置。
The adjusting means adjusts the zoom ratio according to the content to be evaluated.
The imaging apparatus according to claim 12.
撮像範囲を変化させながら撮影した複数の画像を部分画像として順次取得する画像取得ステップと、
前記画像取得ステップにより取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する検出ステップと、
前記検出ステップにより検出された各被写体像を評価する被写体像評価ステップと、
前記被写体像評価ステップにより、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象として選択する被写体像選択ステップと、
前記画像取得ステップにより取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、前記被写体像選択ステップにより前記合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する画像生成ステップと、
を含むことを特徴とする撮像方法。
An image acquisition step of sequentially acquiring a plurality of images taken while changing the imaging range as partial images;
A detection step of detecting a subject image from each of a plurality of partial images having different shooting ranges acquired by the image acquisition step;
A subject image evaluation step for evaluating each subject image detected by the detection step;
A plurality of partial images including the same subject image by the subject image evaluation step, a subject image selection step of selecting a partial image including the subject image having a higher evaluation as a synthesis target;
A plurality of partial images including different subject images acquired by the image acquisition step and a partial image selected as the combination target by the subject image selection step among the plurality of partial images including the same subject image are combined. An image generation step for generating a single image with an expanded shooting range;
An imaging method comprising:
撮像装置を制御するコンピュータを、
撮像範囲を変化させながら撮影した複数の画像を部分画像として順次取得する画像取得手段、
前記画像取得手段により取得された撮影範囲の異なる複数の部分画像各々から被写体像を検出する検出手段、
前記検出手段により検出された各被写体像を評価する被写体像評価手段、
前記被写体像評価手段により、同じ被写体像を含む複数の部分画像については、より高い評価を得た被写体像を含む部分画像を、合成対象として選択する被写体像選択手段、
前記画像取得手段により取得された異なる被写体像を含む複数の部分画像と、同じ被写体像を含む複数の部分画像のうち、前記被写体像選択手段により前記合成対象として選択された部分画像と、を合成して撮影範囲の拡張された1枚の画像を生成する画像生成手段、
として機能させることを特徴とするプログラム。
A computer that controls the imaging device;
Image acquisition means for sequentially acquiring a plurality of images taken while changing the imaging range as partial images;
Detecting means for detecting a subject image from each of a plurality of partial images having different shooting ranges acquired by the image acquiring means;
Subject image evaluation means for evaluating each subject image detected by the detection means;
Subject image selection means for selecting, as a synthesis target, a partial image including a subject image that has obtained higher evaluation for a plurality of partial images including the same subject image by the subject image evaluation means,
A plurality of partial images including different subject images acquired by the image acquisition unit and a partial image selected as the combination target by the subject image selection unit among a plurality of partial images including the same subject image are combined. Image generating means for generating a single image with an expanded shooting range,
A program characterized by functioning as
JP2013157510A 2013-07-30 2013-07-30 Imaging device, imaging method and program Pending JP2015029178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013157510A JP2015029178A (en) 2013-07-30 2013-07-30 Imaging device, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013157510A JP2015029178A (en) 2013-07-30 2013-07-30 Imaging device, imaging method and program

Publications (1)

Publication Number Publication Date
JP2015029178A true JP2015029178A (en) 2015-02-12

Family

ID=52492623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013157510A Pending JP2015029178A (en) 2013-07-30 2013-07-30 Imaging device, imaging method and program

Country Status (1)

Country Link
JP (1) JP2015029178A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021210807A1 (en) * 2020-04-17 2021-10-21 삼성전자 주식회사 Electronic device comprising multi-camera, and photographing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021210807A1 (en) * 2020-04-17 2021-10-21 삼성전자 주식회사 Electronic device comprising multi-camera, and photographing method
US11956530B2 (en) 2020-04-17 2024-04-09 Samsung Electronics Co., Ltd. Electronic device comprising multi-camera, and photographing method

Similar Documents

Publication Publication Date Title
JP5235798B2 (en) Imaging apparatus and control method thereof
US7668451B2 (en) System for and method of taking image
US20090102940A1 (en) Imaging device and imaging control method
JP5237721B2 (en) Imaging device
US20070237513A1 (en) Photographing method and photographing apparatus
JP2006087083A (en) Imaging device, and control method of imaging device
JP5966778B2 (en) Imaging apparatus, imaging method, and program
JP2013232780A (en) Image pickup device, control method, and program
JP2005236509A (en) Digital camera
JP2010199694A (en) Image capturing apparatus, angle-of-view adjusting method, and program
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP2008252711A (en) Digital camera
JP2011216976A (en) Imaging device, imaging method, and program
JP2010199681A (en) Image processing apparatus and program
JP2008054031A (en) Digital camera and display control method
JP2008263478A (en) Imaging apparatus
JP2013062711A (en) Photographing device, photographed image processing method, and program
JP2010245613A (en) Camera, display image control method and display image control program
US20210400192A1 (en) Image processing apparatus, image processing method, and storage medium
JP2015029178A (en) Imaging device, imaging method and program
JP2008060676A (en) Image signal processing apparatus, imaging apparatus, image signal processing method
JP2015041865A (en) Image processing apparatus and image processing method
JP2014225763A (en) Imaging apparatus, control method of the same, program, and storage medium
JP2010010881A (en) Imaging device and notification method of moire existence in image
JP5332668B2 (en) Imaging apparatus and subject detection program