JP2009081636A - Image recording apparatus and photographing method - Google Patents

Image recording apparatus and photographing method Download PDF

Info

Publication number
JP2009081636A
JP2009081636A JP2007249056A JP2007249056A JP2009081636A JP 2009081636 A JP2009081636 A JP 2009081636A JP 2007249056 A JP2007249056 A JP 2007249056A JP 2007249056 A JP2007249056 A JP 2007249056A JP 2009081636 A JP2009081636 A JP 2009081636A
Authority
JP
Japan
Prior art keywords
image
face
focus
area
recording apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007249056A
Other languages
Japanese (ja)
Inventor
Masaji Sueoka
正次 末岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007249056A priority Critical patent/JP2009081636A/en
Publication of JP2009081636A publication Critical patent/JP2009081636A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recording apparatus and photographing method which focuses on a plurality of human faces located away from each other in the depth direction. <P>SOLUTION: In one embodiment of the image recording apparatus, an object image is temporarily loaded as an image for reference via an imaging means, and focus adjustment is performed when a release operation is detected, and under the focus-adjusted state, the object image is loaded and recorded as an image for recording via the imaging means. The image recording apparatus includes: a face region specifying means for specifying at least two face regions in the image for reference; and a focus changing continuous shooting means which sequentially makes focus adjustment for the plurality of face regions specified by the face region specifying means, one by one, when one release operation is detected, and takes the focus-adjusted object images one by one as images for recording via the imaging means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、電子カメラを代表とする、オートフォーカス(AF)機能と高速連写機能とを備えた画像記録装置及び撮影方法に関する。   The present invention relates to an image recording apparatus and an image capturing method having an autofocus (AF) function and a high-speed continuous shooting function, represented by an electronic camera.

従来から電子カメラにはオートフォーカス(AF)機能が一般的に備えられている。AF機能を備えた電子カメラでは、CCD等を備えた撮像手段から取り込まれた被写体画像の測距領域、例えばファインダ画像における中央部の部分領域等、をコントラスト検出方式により測距し、フォーカスレンズの合焦距離を自動調節する。上記の測距領域として、ファインダ画像における中央部の部分領域の他に、マニュアル操作によりファインダ画像上の複数の位置から一つを選択して定めたりすることを可能にしたものもある。   Conventionally, an electronic camera is generally provided with an autofocus (AF) function. In an electronic camera equipped with an AF function, a distance measurement area of a subject image captured from an imaging means equipped with a CCD or the like, such as a partial area in the center of a finder image, is measured using a contrast detection method. Automatically adjust the focus distance. In addition to the central partial area in the finder image, the distance measurement area may be determined by selecting one from a plurality of positions on the finder image by manual operation.

最近の電子カメラにおいては、更に顔検出機能をもたせたものがある。この電子カメラでは、例えばレリーズ釦を半押しすることにより開始される撮影準備処理において、撮像手段から取り込まれてくる被写体画像(この段階では間引き被写体画像)の全領域に対して顔認識処理を施す。そして顔として認識された領域があると被写体画像を分割した分割画面の内からその領域に対応する領域を測距領域として選択し、それからAF処理を行う。(例えば、特許文献1等参照)。   Some recent electronic cameras have a face detection function. In this electronic camera, for example, in a shooting preparation process started by half-pressing the release button, face recognition processing is performed on the entire area of the subject image (the thinned subject image at this stage) captured from the imaging means. . If there is an area recognized as a face, an area corresponding to that area is selected from the divided screens obtained by dividing the subject image, and then AF processing is performed. (For example, refer patent document 1 etc.).

上記の顔認識処理は公知の方法で行われている。例を挙げると次の如くである。
先ず一つ目の方法では、被写体画像から肌色領域の輪郭を色に基づいて抽出して、顔の輪郭テンプレートとのマッチング度を測ることによりそれが顔であることを認識する。二つ目の方法としては、目の候補領域を求めて目のテンプレートとのマッチング度を測ることにより認識する。三つ目の方法としては、顔の候補領域を二次元フーリエ変換して得た特徴量と、顔のテンプレート画像を二次元フーリエ変換して得た特徴量とに基づいて認識する。
The face recognition process is performed by a known method. An example is as follows.
In the first method, the outline of the skin color area is extracted from the subject image based on the color, and the degree of matching with the face outline template is measured to recognize that it is a face. As a second method, recognition is performed by obtaining a candidate eye region and measuring the degree of matching with the eye template. As a third method, recognition is performed based on a feature amount obtained by two-dimensional Fourier transform of a face candidate region and a feature amount obtained by two-dimensional Fourier transform of a face template image.

また上記のAF処理はコントラスト検出方式を用いる等して行う。コントラスト検出方式を用いるAF処理においては、フォーカスレンズを前後移動させながら、決定した測距領域の画像のコントラストが最大になる位置にフォーカスレンズの合焦距離を調節する。   The AF process is performed using a contrast detection method. In AF processing using the contrast detection method, the focus lens is adjusted to a position where the contrast of the image in the determined distance measurement area is maximized while moving the focus lens back and forth.

特開2006−227080号公報JP 2006-227080 A

複数の人物を被写体にして電子カメラにより撮影を行う場合には、通常、ファインダ画像の中央部に人物が位置するように電子カメラを配置し、AF処理により中央部の人物にピントを合わせ、そのピントで全体像を撮影する。
顔認識機能により検出した顔のある領域を測距領域にして撮影する場合には、検出された複数の顔領域の内から一つを選択し、そこを測距領域としてピント合わせして全体像を撮影する。
When shooting multiple people with an electronic camera, the electronic camera is usually placed so that the person is positioned in the center of the viewfinder image, and the person in the center is focused by AF processing. Take a complete picture in focus.
When shooting an area with a face detected by the face recognition function as a distance measurement area, select one of the detected face areas and focus on it as the distance measurement area. Shoot.

いずれの場合でも、従来の撮影方法においては、ピント合わせした人物の合焦範囲内に被写体全体が位置する必要がある。その合焦範囲から外れるとピンボケになる。そのため、集合写真のように複数の人物の顔を記念に残すような場合に合焦範囲から外れると、撮影をやり直したり、それでも繰り返しピンボケになる場合は、人物を奥行きをもたない様に並び変えたりする必要が生じる。 In any case, in the conventional photographing method, the entire subject needs to be positioned within the focusing range of the person who is focused. If it is out of focus, it will be out of focus. For this reason, if you leave multiple people's faces in memory, such as a group photo, if you are out of focus and you try to shoot again, or if you still get out of focus, arrange the people so that they do not have depth. Need to change.

このように、従来の電子カメラは、奥行き方向に複数の人物が離れて位置するような構図の撮影に不向きであった。
そこで本発明は、奥行き方向に離れて位置する複数の人物の顔にピント合わせして撮影することのできる画像記録装置及び撮影方法を提供することを目的とする。
As described above, the conventional electronic camera is not suitable for photographing a composition in which a plurality of persons are located apart in the depth direction.
SUMMARY An advantage of some aspects of the invention is that it provides an image recording apparatus and a photographing method capable of photographing while focusing on the faces of a plurality of persons located apart in the depth direction.

本発明の画像記録装置の態様の一つは、被写体像を撮像手段を通じて参照用画像として一時的に取り込み、レリーズ操作を検出するとピント調節を行って該ピント調節下においての被写体像を上記撮像手段を通じて記録用画像として取り込んで記録する画像記録装置であって、上記参照用画像の中の少なくとも二箇所以上の顔領域を特定する顔領域特定手段と、一回のレリーズ操作の検出により、上記顔領域特定手段により特定された複数箇所の顔領域におけるピント調節を各顔領域毎に順次行うと共に、それぞれのピント調節下においての被写体像を上記撮像手段を通じて記録用画像として取り込むピント変動連写手段と、を有するように構成する。   One aspect of the image recording apparatus of the present invention is that the subject image is temporarily captured as a reference image through the imaging unit, and when the release operation is detected, the focus adjustment is performed and the subject image under the focus adjustment is captured by the imaging unit. An image recording apparatus that captures and records as a recording image through a face area specifying unit that specifies at least two face areas in the reference image, and detecting the face by detecting a single release operation. Focus adjustment in a plurality of face areas specified by the area specifying means for each face area sequentially, and focus variation continuous shooting means for capturing a subject image under each focus adjustment as a recording image through the imaging means; , So that it has.

なお、上記ピント変動連写手段は、一回のレリーズ操作の検出により、上記顔領域特定手段により特定された複数箇所の顔領域を奥行きの距離に従ってグループ化し、それぞれのグループの内の代表顔領域におけるピント調節を順次行うと共に、それぞれのピント調節下においての被写体像を上記撮像手段を通じて記録用画像として取り込む、ように構成しても良い。   The focus variation continuous shooting means groups a plurality of face areas specified by the face area specifying means according to a depth distance by detecting a single release operation, and represents representative face areas in each group. It is also possible to sequentially adjust the focus and to capture a subject image under each focus adjustment as a recording image through the imaging means.

また、連写回数を設定する設定手段を更に有し、上記ピント変動連写手段は、上記顔領域特定手段により特定された複数箇所の顔領域を奥行きの距離に従って設定連写回数分グループ化する、ように構成しても良い。 In addition, setting means for setting the number of times of continuous shooting is further provided, and the focus variation continuous shooting means groups the plurality of face areas specified by the face area specifying means for the set number of times of continuous shooting according to the distance of the depth. You may comprise as follows.

また、上記ピント変動連写手段は、一回のレリーズ操作の検出により、シャッターを連続して開閉させると共に、シャッターを閉じている期間ごとに所定の領域順序に従いピント調節を行う、ように構成しても良い。   The focus variation continuous shooting means is configured to continuously open and close the shutter and detect the focus according to a predetermined area order for each period during which the shutter is closed by detecting a single release operation. May be.

また、更に、上記それぞれのピント調節下において取り込んだ複数枚の記録用画像の内の一枚を基準画像にして該基準画像に対してそれぞれの記録用画像のピント合わせ領域を合成する画像合成手段を有する、ように構成することが好ましい。
また、更に、上記それぞれのピント調節下において取り込んだ各記録用画像のピント合わせ位置を画像合成時の情報として上記記録用画像に埋め込む合成情報埋込手段を有する、ように構成することが好ましい。
Further, image synthesizing means for synthesizing the focusing area of each recording image with the reference image using one of the plurality of recording images captured under the respective focus adjustments as a reference image. It is preferable to constitute so that
Further, it is preferable to have a composition information embedding unit that embeds the focus position of each recording image captured under each focus adjustment in the recording image as information at the time of image synthesis.

本発明の撮影方法の態様の一つは、高速連写での撮影毎に、顔認識処理により顔として認識された一つ一つの顔領域へオートフォーカスエリアを自動的に切り替えていくようにする。
なお、上記一つ一つの顔領域を所定順にオートフォーカスエリアにして撮影することにより生成された複数枚の記録用画像から上記オートフォーカスエリアとなった部分領域の画像を抽出して合成するようにすることが好ましい。
One aspect of the photographing method of the present invention is to automatically switch the autofocus area to each face area recognized as a face by face recognition processing every time shooting is performed in high-speed continuous shooting. .
It should be noted that the image of the partial area that has become the autofocus area is extracted from a plurality of recording images generated by shooting each face area as an autofocus area in a predetermined order and synthesized. It is preferable to do.

本発明により奥行き方向に離れて位置する複数の人物の顔にピント合わせして撮影することが、一回のレリーズ操作でできるようになる。   According to the present invention, it is possible to perform shooting by focusing on the faces of a plurality of persons located away in the depth direction with a single release operation.

以下、本発明を実施するための最良の形態を図を参照しながら詳細に説明する。
(第一の実施の形態)
図1は、本発明の画像記録装置の第一の実施の形態による電子カメラのブロック図である。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram of an electronic camera according to a first embodiment of the image recording apparatus of the present invention.

当該電子カメラ1は、フォーカスレンズ2、ズームレンズ3、レンズ駆動ブロック4、絞り機構5、CCD6、垂直ドライバ7、TG(timing generator)8、CDS/AGC/ADユニット回路9、信号処理部10、CPU11、DRAM12、ROM13、フラッシュメモリ14、キー入力部15、及び画像表示部16を備えている。
フォーカスレンズ2及びズームレンズ3は、それぞれ、図示しないレンズ群から構成されている。レンズ駆動ブロック4は、フォーカスレンズ2を光軸方向に駆動するフォーカスモータ40a、及びズームレンズ3を光軸方向に駆動するズームモータ40bと、CPU11から送られる制御信号に従いフォーカスモータ40a及びズームモータ40bをそれぞれ駆動するモータドライバ41a、41bとから構成されている。
絞り機構5はCPU11からの制御信号により図示しない絞りを調節する。
The electronic camera 1 includes a focus lens 2, a zoom lens 3, a lens driving block 4, a diaphragm mechanism 5, a CCD 6, a vertical driver 7, a TG (timing generator) 8, a CDS / AGC / AD unit circuit 9, a signal processing unit 10, A CPU 11, a DRAM 12, a ROM 13, a flash memory 14, a key input unit 15, and an image display unit 16 are provided.
The focus lens 2 and the zoom lens 3 are each composed of a lens group (not shown). The lens drive block 4 includes a focus motor 40a that drives the focus lens 2 in the optical axis direction, a zoom motor 40b that drives the zoom lens 3 in the optical axis direction, and a focus motor 40a and a zoom motor 40b according to control signals sent from the CPU 11. Are configured by motor drivers 41a and 41b.
The diaphragm mechanism 5 adjusts a diaphragm (not shown) by a control signal from the CPU 11.

CCD6は、多数の受光素子を2次元配置してなる撮像面を有し、フォーカスレンズ2、ズームレンズ3、及び図示しない絞りを介して上記撮像面に投影された被写体像を光電変換し、垂直ドライバ7の駆動により所定周期ごとに1フレーム分の撮像信号を出力する。垂直ドライバ7及びCDS/AGC/ADユニット回路9の動作タイミングは所定周波数のタイミング信号を生成するTG8をCPU11が制御することにより適切に調節がなされている。   The CCD 6 has an image pickup surface in which a large number of light receiving elements are two-dimensionally arranged. The CCD 6 photoelectrically converts a subject image projected on the image pickup surface through a focus lens 2, a zoom lens 3, and a diaphragm (not shown), and is vertically The driver 7 drives to output an image signal for one frame every predetermined period. The operation timings of the vertical driver 7 and the CDS / AGC / AD unit circuit 9 are appropriately adjusted by the CPU 11 controlling the TG 8 that generates a timing signal having a predetermined frequency.

CDS/AGC/ADユニット回路9は、CCD6から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されている。CDS/AGC/ADユニット回路9を経たCCD6からの撮像信号は、デジタル信号として1フレームごとに信号処理部10に送られる。   The CDS / AGC / AD unit circuit 9 is a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 6 by correlated double sampling, and AGC (Automatic Gain) that performs automatic gain adjustment of the imaged signal after the sampling. Control) circuit and an A / D converter that converts the analog image pickup signal after the automatic gain adjustment into a digital signal. The imaging signal from the CCD 6 that has passed through the CDS / AGC / AD unit circuit 9 is sent to the signal processing unit 10 as a digital signal for each frame.

信号処理部10は、カラープロセス回路およびDMAコントローラ等を有し、CDS/AGC/ADユニット回路9からの出力をカラープロセス処理等して得た1フレーム分の被写体画像としての輝度色差信号(YCbCr)をDRAM12の指定領域にDMA(ダイレクトメモリーアクセス)転送し、展開すると共に、CDS/AGC/ADユニット回路9からの出力をカラープロセス処理して得たAF検出信号、AE検出信号、及びAWB検出信号をCPU11に出力する。またその他に、欠陥画素補正、ガンマ補正、補間、変換、エッジ強調等の処理を施す回路等も有しており、CDS/AGC/ADユニット回路9からの出力に対して適宜それらの処理も施す。また更に、JPEG圧縮伸張回路も有している。   The signal processing unit 10 includes a color process circuit, a DMA controller, and the like, and a luminance color difference signal (YCbCr) as a subject image for one frame obtained by performing color process processing on the output from the CDS / AGC / AD unit circuit 9. ) Is transferred to a specified area of the DRAM 12 by DMA (direct memory access) and expanded, and the output from the CDS / AGC / AD unit circuit 9 is subjected to color process processing, AF detection signal, AE detection signal, and AWB detection The signal is output to the CPU 11. In addition, a circuit for performing processing such as defective pixel correction, gamma correction, interpolation, conversion, edge enhancement, and the like are also provided, and these processing is also appropriately performed on the output from the CDS / AGC / AD unit circuit 9. . Furthermore, a JPEG compression / decompression circuit is also provided.

CPU11は、演算部や制御部等を備え、ROM13に記録された所定のプログラムやデータを適宜読み出して実行することにより、電子カメラ1の各部の制御及び、様々な撮影機能を実現する。CPU11は、更に不図示であるがクロック回路を搭載しており、日付、時刻の計時及びタイマーとしての機能も実現している。   The CPU 11 includes a calculation unit, a control unit, and the like, and implements control of various units of the electronic camera 1 and various photographing functions by appropriately reading and executing predetermined programs and data recorded in the ROM 13. Although not shown, the CPU 11 further includes a clock circuit, and realizes functions of date and time counting and a timer.

ROM13には、CPU11が各部を制御する際に必要なプログラム、各種機能を実現するためのプログラム、及びそれぞれに必要なデータが記録されている。ここにはCPU11における後述の顔認識AF連写処理等に必要なプログラムと各種データも記録されている。   The ROM 13 stores a program necessary for the CPU 11 to control each unit, a program for realizing various functions, and data necessary for each. Here, programs and various data necessary for the face recognition AF continuous shooting process described later in the CPU 11 are also recorded.

DRAM12はデータを一時記憶する手段であり、上述の信号処理部10において生成した被写体画像(輝度色差信号)を保持するためのバッファ領域、高速連写設定においてCPU11にて算出される後述の連続画像情報やフラッシュメモリ14に保存された後述の基準画像と合成画像とを保持するためのバッファ領域、及びCPU11の作業領域等が割り当てられている。   The DRAM 12 is a means for temporarily storing data, a buffer area for holding the subject image (luminance color difference signal) generated by the signal processing unit 10 described above, and a continuous image described later calculated by the CPU 11 in the high-speed continuous shooting setting. A buffer area for holding information and a later-described reference image and composite image stored in the flash memory 14 and a work area for the CPU 11 are allocated.

また、フラッシュメモリ14は、着脱自在の記録媒体であり、後述の基準画像と合成画像等の記録用画像の保存のために設けられている。
画像表示部16は、カラーLCDとその駆動回路等を含み、記録モードが選択されているときはDRAM12に展開されている被写体画像(参照用画像としての間引き被写体画像、又は記録用画像)をファインダ画像として動画表示又は静止画表示する。再生モードが選択されているときはフラッシュメモリ14から読み出され伸張された記録画像をファインダ画像として表示する。また、適宜、フラッシュメモリ内のファイル一覧情報等を表示する。
The flash memory 14 is a detachable recording medium, and is provided for storing a recording image such as a reference image and a composite image described later.
The image display unit 16 includes a color LCD and its driving circuit. When the recording mode is selected, the image display unit 16 displays a subject image (a thinned subject image or a recording image as a reference image) developed in the DRAM 12. Displays moving images or still images as images. When the playback mode is selected, the recorded image read from the flash memory 14 and expanded is displayed as a finder image. Further, file list information in the flash memory is displayed as appropriate.

キー入力部15は、記録モードと再生モードの選択に使用されるモード切替釦、単一撮影又は連続撮影(連写)の開始及び終了を指示するためのレリーズ釦、絞りやシャッタ速度や連写枚数等を設定するための設定釦、LCDへの画像情報の表示/非表示を選択するための表示/非表示切替釦、ズーム倍率の変更に使用されるズーム釦等の各種の操作釦を含み、釦操作に応じた操作信号をCPU11へ送る。また、操作釦は、所謂ハーフシャッタ機能を備えたものであり、撮影予告のための半押し操作と、本番撮影指示用の全押し操作が可能な構成である。   The key input unit 15 includes a mode switching button used for selecting a recording mode and a playback mode, a release button for instructing start and end of single shooting or continuous shooting (continuous shooting), an aperture, a shutter speed, and continuous shooting. Includes various operation buttons such as a setting button for setting the number of sheets, a display / non-display switching button for selecting display / non-display of image information on the LCD, and a zoom button used for changing the zoom magnification. Then, an operation signal corresponding to the button operation is sent to the CPU 11. Further, the operation button has a so-called half shutter function, and is configured to be able to perform a half press operation for shooting advance notice and a full press operation for actual shooting instruction.

図2は、信号処理部10のカラープロセス回路のブロック図である。
カラープロセス回路100は、赤成分積分器1001、緑成分積分器1002、青成分積分器1003、AE用積分器1004、AF用フィルタ1005、各種カウンタ1006、AWB回路1007、及び信号合成回路1008を備えている。
FIG. 2 is a block diagram of the color process circuit of the signal processing unit 10.
The color process circuit 100 includes a red component integrator 1001, a green component integrator 1002, a blue component integrator 1003, an AE integrator 1004, an AF filter 1005, various counters 1006, an AWB circuit 1007, and a signal synthesis circuit 1008. ing.

カラープロセス回路100では、CDS/AGC/ADユニット回路9のA/D変換器90から出力された1フレーム分の被写体画像に対するAF検出信号、AE検出信号、AWB検出信号、及び輝度色差信号(YCbCr)の生成処理等を行なう。
AF用フィルタ1005では、上記被写体画像としての入力信号に対しハイパスフィルタ(HPF)をかけて高周波信号を取り出してその積分値をAF検出信号としてCPU11に出力する。AE用積分器1004では、上記入力信号を積分してその積分値をAE検出信号としてCPU11に出力する。
In the color process circuit 100, an AF detection signal, an AE detection signal, an AWB detection signal, and a luminance color difference signal (YCbCr) for the subject image for one frame output from the A / D converter 90 of the CDS / AGC / AD unit circuit 9 are used. ) Generation processing.
The AF filter 1005 applies a high-pass filter (HPF) to the input signal as the subject image to extract a high-frequency signal and outputs the integrated value to the CPU 11 as an AF detection signal. The AE integrator 1004 integrates the input signal and outputs the integrated value to the CPU 11 as an AE detection signal.

また、AWB回路1007では、赤成分積分器1001、緑成分積分器1002、及び青成分積分器1003によって積分された各成分の積分値をAWB検出信号としてCPU11に出力する。
カウンタ群1006は、AFウインドウサイズ制御用カウンタを備えている。CPU11が検出したい領域をカウンタ群1006に対して指定すると、AFウインドウサイズ制御用カウンタのカウントする画素のカウント値に基づいて上記AF用フィルタ1005において指定領域の画素データに対する積分がなされ、CPU11へその指定領域の積分値が出力される。
Further, the AWB circuit 1007 outputs the integrated value of each component integrated by the red component integrator 1001, the green component integrator 1002, and the blue component integrator 1003 to the CPU 11 as an AWB detection signal.
The counter group 1006 includes an AF window size control counter. When the CPU 11 designates an area to be detected for the counter group 1006, the AF filter 1005 integrates the pixel data of the designated area based on the count value of the pixels counted by the AF window size control counter, and The integral value of the specified area is output.

以下に、本構成の下に行う連写処理の実施例を示す。
(実施例1)
図3は、DRAM12内の連写画像情報を保持するためのバッファ領域のメモリ構成図である。
An example of continuous shooting processing performed under this configuration will be shown below.
Example 1
FIG. 3 is a memory configuration diagram of a buffer area for holding continuous shot image information in the DRAM 12.

本例ではCPU11において被写体画像から算出する連写画像情報を「顔の位置情報」、及び「フォーカスレンズの調節位置情報」とするものとして、「連番情報」、「顔の位置情報」、「フォーカスレンズの調節位置情報」の格納領域を設けている。
「連番情報」には撮影順を示すユニーク番号が入り、「顔の位置情報」には被写体画像内の複数の顔領域の内の一つの顔領域の位置を示す情報が入り、そして「フォーカスレンズの調節位置情報」には「顔の位置情報」の一つの顔領域でピント調節したときのフォーカスレンズの調節位置を示す情報が入る。
In this example, the continuous shot image information calculated from the subject image in the CPU 11 is referred to as “face position information” and “focus lens adjustment position information”, and “serial number information”, “face position information”, “ A storage area for “focus lens adjustment position information” is provided.
“Sequence number information” contains a unique number indicating the shooting order, “Face position information” contains information indicating the position of one of the face areas in the subject image, and “Focus” “Lens adjustment position information” contains information indicating the adjustment position of the focus lens when focus adjustment is performed in one face area of “face position information”.

図4は、上記顔の位置情報及び上記フォーカスレンズの調節位置情報の説明図である。
図4(a)は、DRAM12内の画像バッファ領域に一時的に記憶されている参照用画像を2次元のディスプレイ座標で表したものの例で、2次元座標軸(XY軸)と、顔領域を囲んだ円形のウインドウ枠とをイメージに重ねて示している。この例では、イメージ図中に人物が10人含まれているので、CPU11において顔認識処理が行われると、10人分のそれぞれの顔領域が2次元のディスプレイ座標上の位置情報(ここでは円形ウインドウの中心位置情報)として抽出されることになる。DRAM12内の「顔の位置情報」には、その円形ウインドウの中心位置情報(Xn、Yn)(但し、nは整数)が格納される。
FIG. 4 is an explanatory diagram of the position information of the face and the adjustment position information of the focus lens.
FIG. 4A shows an example of a reference image temporarily stored in an image buffer area in the DRAM 12 expressed in two-dimensional display coordinates, and surrounds a two-dimensional coordinate axis (XY axis) and a face area. An oval window frame is superimposed on the image. In this example, since 10 persons are included in the image diagram, when the face recognition process is performed in the CPU 11, each face area for 10 persons is displayed as position information on a two-dimensional display coordinate (here, a circular window). Center position information). The “face position information” in the DRAM 12 stores center position information (Xn, Yn) (where n is an integer) of the circular window.

図4(b)は、図4(a)のイメージの参照用画像を撮像手段を通じて取り込んだときのカメラと被写体の構図を斜め上方から示したものである。図4(b)に示されるように、電子カメラからの10人の距離はばらばらであり、最も手間に位置する人と最も奥に位置する人とでは距離に大きな差が生じていることが分かる。このような構図で一人にピント調節して全体を単一撮影するときに10人全員がカメラの被写界深度内に納まらないと、ピント調節された人から手前又は奥に離れて位置する人の顔がピンボケした画像が生成されてしまう。このような場合に、連写撮影の設定に変えて、各人物(特に顔)にピントを合わせた人数分の画像を撮影をする。   FIG. 4B shows the composition of the camera and the subject from obliquely above when the reference image of the image of FIG. 4A is captured through the imaging means. As shown in FIG. 4 (b), the distances of 10 people from the electronic camera are different, and it can be seen that there is a large difference in distance between the person who is most in trouble and the person who is farthest away. . In such a composition, when all the 10 people do not fit within the depth of field of the camera when focusing on one person and shooting the whole image, the person who is positioned away from the person who is in focus or in the back An image in which the face is out of focus is generated. In such a case, in place of the continuous shooting setting, images for the number of persons who are focused on each person (particularly the face) are taken.

各人物へのピント合わせはCPU11の制御下で行われる。具体的には、顔認識処理により抽出した10人分の顔領域の内のある人の顔領域のディスプレイ座標位置をAFウインドウ制御カウンタに設定して、AFフィルタから出力されるその人の顔領域のAF検出信号を監視しながら、コントラスト検出方式によりAF検出信号が最大値をとるときのフォーカスレンズのある基準位置からの移動方向及び移動量を測定する。そして、DRAM12内の「フォーカスレンズの移動位置情報」に、その正負の移動量を格納する。   Focusing on each person is performed under the control of the CPU 11. Specifically, the display coordinate position of a person's face area out of the face areas for 10 persons extracted by the face recognition process is set in the AF window control counter, and the person's face area output from the AF filter While the AF detection signal is monitored, the moving direction and the moving amount from the reference position of the focus lens when the AF detection signal takes the maximum value by the contrast detection method are measured. Then, the positive and negative movement amounts are stored in “focus lens movement position information” in the DRAM 12.

以下に、連写撮影に関するCPU11の処理を説明する。
なお、各処理は、CPU11がROM13に記録されている各種プログラムを適宜読み出して実行することにより行われるものとする。
Below, the process of CPU11 regarding continuous shooting is demonstrated.
Each process is performed by the CPU 11 appropriately reading and executing various programs recorded in the ROM 13.

図5は、連写撮影時のCPU11の処理フローである。
この処理では、電子カメラが記録モードに設定されている場合にユーザからのレリーズ釦の半押し状態を検出することにより開始されるものとし、更に自動露出補正(AE)及びオートホワイトバラナス(AWB)は固定のまま行われるものとする。
FIG. 5 is a processing flow of the CPU 11 during continuous shooting.
This processing is started by detecting the half-pressed state of the release button from the user when the electronic camera is set to the recording mode, and further, automatic exposure correction (AE) and auto white balance (AWB). ) Shall be performed in a fixed manner.

先ず、電子カメラに設けられている顔認識AF機能がONの状態であるか又はOFFの状態であるかを判定する(S1)。OFFの状態であった場合は、従来の撮影処理のフローに移行して、単一撮影又は連写撮影を行う。
一方、ONの状態であった場合は、続いて、電子カメラに設けられている顔認識AF機能と高速連写の連動機能がONの状態であるか又はOFFの状態であるかを判定する(S2)。ここでOFFの状態であった場合は、従来の顔認識AF撮影処理のフローに移行して撮影を行う。
First, it is determined whether the face recognition AF function provided in the electronic camera is on or off (S1). If it is in the OFF state, the process proceeds to a conventional shooting process flow, and single shooting or continuous shooting is performed.
On the other hand, if it is ON, then it is determined whether the face recognition AF function provided in the electronic camera and the high-speed continuous shooting linkage function are ON or OFF ( S2). If the camera is in the OFF state, the process proceeds to the flow of the conventional face recognition AF shooting process and shooting is performed.

一方、ONの状態であった場合は、続くステップS3からの顔認識AF連写処理を実行する。
顔認識AF連写処理では、先ず始めに、被写体画像(ここでは参照用画像)中の顔領域の数を取得する(S3)。この処理では、例えば、DRAM12に一時記憶した被写体画像(ここでは参照用画像)の全領域に対して顔認識処理を施して顔領域ごとの位置情報を取得し、その位置情報を取得する度に顔領域の数を0からカウントアップするようにして顔領域の数を取得する。そして、取得した位置情報については、DRAM12内の連写画像情報バッファ領域内の「連番情報」に連番を振りながら「顔の位置情報」に格納させておく。このようにして二箇所以上の顔領域を特定する。なお、顔認識処理そのものは公知の方法によって行っている。ここでは、被写体画像から肌色領域の輪郭を色に基づいて抽出して、顔の輪郭テンプレートとのマッチング度を測ることによりそれが顔であることを認識する方法(詳しくは特開2006−227080号公報等参照)を使って行い、顔として認識された領域があるとその領域の中心位置等の2次元座標情報を取得する。
On the other hand, if it is in the ON state, the face recognition AF continuous shooting process from the subsequent step S3 is executed.
In the face recognition AF continuous shooting process, first, the number of face regions in a subject image (here, a reference image) is acquired (S3). In this processing, for example, face recognition processing is performed on the entire area of the subject image (here, the reference image) temporarily stored in the DRAM 12 to acquire position information for each face area, and each time the position information is acquired. The number of face areas is acquired by counting up the number of face areas from zero. The acquired position information is stored in the “face position information” while assigning a serial number to the “serial number information” in the continuous image information buffer area in the DRAM 12. In this way, two or more face areas are specified. Note that the face recognition process itself is performed by a known method. Here, a method of recognizing that a face is extracted by extracting the outline of a skin color region from the subject image based on the color and measuring the degree of matching with the face outline template (for details, see Japanese Patent Application Laid-Open No. 2006-227080). If there is an area recognized as a face, two-dimensional coordinate information such as the center position of the area is acquired.

次に、ステップS3により取得した顔領域の数を連写回数を指定するパラメータに与える(S4)。
次に、顔認識AF機能と高速連写機能とを連動させて、上記パラメータに与えた回数分の被写体像の記録撮影を行う(S5)。
この処理は、ユーザからのレリーズ釦の全押し状態を1回だけ検出してから例えば次のように行われる。
Next, the number of face areas acquired in step S3 is given to a parameter for designating the number of continuous shots (S4).
Next, the face recognition AF function and the high-speed continuous shooting function are linked to perform recording of the subject image for the number of times given to the parameter (S5).
This process is performed, for example, as follows after detecting the release button full-press state from the user only once.

先ず連写画像情報バッファ領域から連番情報が「0」の位置情報を取得して信号処理部10のAFウインドウサイズ制御用カウンタに対してその領域を指定し、AFフィルタから出力されるAF検出信号を監視する。そして、コントラスト検出方式によりその領域のピント合わせをする。具体的には、フォーカスレンズを現在の位置から光軸沿いに前方又は後方へ移動させながら上記AF検出信号が最大値をとるときのフォーカスレンズの位置を探し、最大値をとったところにフォーカスレンズを固定する(顔認識AF処理)。TG8及び信号処理部10等を制御してCCD6、CDS/AGC/ADユニット回路9、及び信号処理部10の処理を通じて1フレーム分の記録用画像(輝度色差信号)をDRAM12に一時記憶させる。CPU11は、現在どの番号の顔領域を選択しているか分かっているため、続いて、連写画像情報バッファ領域内の該当する連番番号の位置情報を読み出し、この読み出した位置情報(ピント合わせ位置)を被写体画像中に例えばEXIF(EXchangeable Image File format)の形式で連続画像合成情報(連続画像を合成するときの合成情報)として埋め込む。そして、この埋め込み情報を含む記録用画像(埋め込み画像)を信号処理部10でJPEG圧縮し、この埋め込み圧縮データに上記連番番号のファイル名、例えばシーンを変えて複数パターンの連写が行われる場合を想定して一つのシーンにおける連写の識別記号を頭につけて連番を振ったファイル名、を付与してフラッシュメモリ14に保存する。   First, position information whose serial number information is “0” is acquired from the continuous image information buffer area, the area is designated to the AF window size control counter of the signal processing unit 10, and AF detection output from the AF filter is performed. Monitor the signal. Then, the area is focused by a contrast detection method. Specifically, while moving the focus lens forward or backward along the optical axis from the current position, the position of the focus lens when the AF detection signal takes the maximum value is searched, and the focus lens is obtained at the position where the maximum value is taken. Is fixed (face recognition AF processing). The recording image (luminance color difference signal) for one frame is temporarily stored in the DRAM 12 through the processing of the CCD 6, the CDS / AGC / AD unit circuit 9, and the signal processing unit 10 by controlling the TG 8 and the signal processing unit 10. Since the CPU 11 knows which number of face area is currently selected, the CPU 11 subsequently reads the position information of the corresponding serial number in the continuous image information buffer area, and reads the position information (focus position). ) In the subject image, for example, in the form of EXIF (EXchangeable Image File format) as continuous image composition information (composition information when combining continuous images). Then, a recording image (embedded image) including the embedded information is JPEG compressed by the signal processing unit 10, and a plurality of patterns are continuously captured by changing the file name of the serial number, for example, the scene, to the embedded compressed data. Assuming the case, a sequential shooting identification symbol in one scene is attached to the head and a file name assigned with a serial number is assigned and stored in the flash memory 14.

このようにして連写の内の1回あたりの撮影処理を行い、続く連番情報「1」から順に残りの連番情報の全てに対しても同様の撮影処理を行う(高速連写処理)。
つまり、この処理では、一回のレリーズ操作の検出により、シャッター(ここでは電子式のシャッター)を連続して開閉させると共に、このシャッターを閉じている期間ごとに所定の領域順序で自動的にピント調節を行っている(オートフォーカスエリアを自動的に切り替えるようにしてピントを変動させ、連写している)。そして、上記パラメータに与えた回数分の埋め込み圧縮データをフラッシュメモリ14に保存している。
In this way, the shooting process is performed for each time in the continuous shooting, and the same shooting process is performed for all of the remaining serial number information in order from the subsequent serial number information “1” (high-speed continuous shooting process). .
In other words, in this process, the shutter (here, the electronic shutter) is opened and closed continuously upon detection of a single release operation, and is automatically focused in a predetermined area order for each period during which the shutter is closed. Adjustment is performed (automatic focus area is changed automatically to change focus and continuous shooting). Then, the embedded compressed data corresponding to the number of times given to the parameter is stored in the flash memory 14.

なお、顔認識処理時においてフォーカスレンズのモータドライバに指示した前後移動を示す正負の数値情報の総和をカウントし、その総和情報を連写画像情報バッファ領域の連番情報「1」の「フォーカスレンズの調節位置情報」に格納し、これを記録用画像を取り込む前に全ての顔領域に対して行い、そして、記録用画像を取り込む際に「フォーカスレンズの調節位置情報」の各設定に合わせてフォーカスレンズの位置を順次調節することにより高速連写を行っても良い。   It is to be noted that the sum of positive and negative numerical information indicating the back and forth movement instructed to the focus lens motor driver during the face recognition process is counted, and the sum information is added to the “focus lens” of the serial number information “1” in the continuous image information buffer area. Is stored in the “adjustment position information”, and this is performed on all face areas before the recording image is captured. High-speed continuous shooting may be performed by sequentially adjusting the position of the focus lens.

図6は、埋め込み画像のフォーマット例である。
ここでは、埋め込み画像は、画像記録時の設定情報を書き込むための「ヘッダ部」と記録用画像を含む「主画像部」とにより構成し、ヘッダ部の中に連続画像合成情報の書き込み領域を設けている。連続画像合成情報の書き込み領域には、ディスプレイ座標上におけるピント合わせ位置の座標が入力される。
FIG. 6 is a format example of an embedded image.
Here, the embedded image is composed of a “header part” for writing setting information at the time of image recording and a “main image part” including a recording image, and a writing area for continuous image synthesis information is included in the header part. Provided. The coordinates of the focus position on the display coordinates are input to the continuous image composition information writing area.

次に、図5に示す処理等によりフラッシュメモリ14に保存した上記フォーマット画像の合成処理について説明する。
図7は、画像合成時のCPU11の処理フローである。
当該処理は、ここでは、再生モード時にフラッシュメモリ14内の保存情報(例えばファイル名一覧情報)をLCD表示させた状態において、ユーザがキー入力部15から一つの埋め込み圧縮データを選択することにより開始される。
Next, a process for synthesizing the format image stored in the flash memory 14 by the process shown in FIG. 5 will be described.
FIG. 7 is a processing flow of the CPU 11 at the time of image composition.
Here, the processing is started when the user selects one embedded compressed data from the key input unit 15 in a state where saved information (for example, file name list information) in the flash memory 14 is displayed on the LCD in the playback mode. Is done.

先ず、ユーザから一つの埋め込み圧縮データが選択されたことを検出すると(SS1)、フラッシュメモリ14内にある埋め込み圧縮データの内のユーザに選択されたデータの連番ファイル名を取得し、連番ファイル名の一覧をLCD表示する(SS2)。ユーザは、その一覧情報の中から、最初に選択した埋め込み圧縮データ(ここではこの主画像を基準画像とする)に対してピント調節領域の合成に使用する埋め込み圧縮データを選択する。選択方法としては、一覧情報に示されるもの全てを一括指定させる操作や個別に一つ一つ指定させる操作をキー入力部15に予め登録しておく。   First, when it is detected that one embedded compressed data is selected by the user (SS1), the serial number file name of the data selected by the user among the embedded compressed data in the flash memory 14 is acquired, and the serial number is acquired. A list of file names is displayed on the LCD (SS2). The user selects, from the list information, the embedded compressed data to be used for synthesizing the focus adjustment area with respect to the initially selected embedded compressed data (here, this main image is the reference image). As a selection method, an operation for collectively specifying all items shown in the list information and an operation for individually specifying each item are registered in the key input unit 15 in advance.

続いて、ユーザによる、ピント調節領域の合成に使用する埋め込み圧縮データの指定信号を検出すると、その指定された埋め込み圧縮データをフラッシュメモリ14から読み出して伸張処理し、ヘッダ部に指定されている顔の位置から一定範囲(ピント合わせ領域)をコピーして基準画像に合成する(SS3)。   Subsequently, when a designation signal for embedding compressed data used for synthesizing the focus adjustment area is detected by the user, the designated embedding compressed data is read from the flash memory 14 and decompressed, and the face designated in the header portion. A certain range (focusing area) is copied from the position of (2) and synthesized with the reference image (SS3).

図8は、埋め込み画像の主画像を二次元のディスプレイ座標で表したときのイメージ図である。イメージ図の中にはピント調節が行われた領域を矩形で示している。この図を見ながらステップSS3の処理の具体例を以下に述べる。   FIG. 8 is an image diagram when the main image of the embedded image is represented by two-dimensional display coordinates. In the image diagram, a region where focus adjustment has been performed is indicated by a rectangle. A specific example of the process of step SS3 will be described below with reference to this figure.

先ず、ステップSS1において最初に選択された1枚の埋め込み圧縮データをフラッシュメモリ14から読み出して伸張処理し、その内の主画像(基準画像)をDRAM12の指定領域に展開する(図8(a))。同様に、それに続いて指定された合成用の埋め込み圧縮データの内の何れか1枚をフラッシュメモリ14から読み出して伸張処理し、その内の主画像をDRAM12の指定領域に展開する(図8(b))。そして、合成用の1枚を伸張処理した後のヘッダ部に連続画像合成情報として含まれていた顔の位置情報(ピント調節位置)を中心に一定範囲の領域、例えば顔の輪郭を覆う程度の領域(図8(b)の矩形領域800)、を合成用の埋め込み画像からコピーして基準画像上の対応位置(図8(c)の矩形領域801)に合成する。更に、指定された残りの合成用の埋め込み圧縮データに対して、1枚づつ上記と同様にして合成処理を繰り返して1枚の基準画像に対して指定枚数分のピント調節領域の画像(図8(d)の実線の矩形領域801-809)を合成する(図8(d))。なお、図8(d)の破線の矩形領域810は基準画像が元々もつピント調節領域を表している。指定枚数分の合成処理が完了したら、その合成後の基準画像を信号処理部10でJPEG圧縮し、その圧縮データに新しいファイル名を付与してフラッシュメモリ14に新規保存する。   First, one embedded compressed data selected first in step SS1 is read from the flash memory 14 and decompressed, and the main image (reference image) therein is expanded in a designated area of the DRAM 12 (FIG. 8A). ). Similarly, any one of the designated embedded compression data for synthesis that follows is read out from the flash memory 14 and decompressed, and the main image is expanded in the designated area of the DRAM 12 (FIG. 8 ( b)). Then, an area of a certain range, for example, the face outline, is covered with the face position information (focus adjustment position) included as continuous image composition information in the header portion after one of the images for composition is expanded. The region (rectangular region 800 in FIG. 8B) is copied from the embedding image for composition, and is combined with the corresponding position on the reference image (rectangular region 801 in FIG. 8C). Further, the composition processing is repeated one by one for the remaining designated embedded compressed data for synthesis in the same manner as described above, and the designated number of focus adjustment area images for one reference image (FIG. 8). The solid rectangular areas 801 to 809 in (d) are synthesized (FIG. 8D). Note that a broken-line rectangular area 810 in FIG. 8D represents a focus adjustment area originally included in the reference image. When the synthesis processing for the specified number of sheets is completed, the synthesized reference image is JPEG compressed by the signal processing unit 10, a new file name is given to the compressed data, and the new image is stored in the flash memory 14.

以上により、実施例1においては、奥行き方向に離れて位置していても、全ての人物の顔にピント合わせして撮影することが、一回のレリーズ操作でできるようになる。   As described above, in the first embodiment, even if the subject is located away in the depth direction, it is possible to perform shooting while focusing on the faces of all persons with a single release operation.

(実施例2)
実施例2においては、連写枚数を指定して、連写枚数分の合成を行う処理を説明する。
図9は、DRAM12内の連写画像情報を保持するためのバッファ領域のメモリ構成図である。
本例では実施例1のメモリ構成に更に「グループ番号」の格納領域を設けている。
この「グループ番号」には被写体画像内の複数の顔領域を幾つかのグループに分けたときにそれぞれが属するグループ番号が入る。
(Example 2)
In the second embodiment, a process for specifying the number of continuous shots and combining the number of continuous shots will be described.
FIG. 9 is a memory configuration diagram of a buffer area for holding continuous shot image information in the DRAM 12.
In this example, a storage area for “group number” is further provided in the memory configuration of the first embodiment.
This “group number” contains a group number to which each of a plurality of face regions in the subject image belongs when divided into several groups.

図10は、上記グループ番号の決め方の説明図である。
同図は、図4(a)のイメージの参照用画像を撮像手段を通じて取り込んだときのカメラと被写体の構図を図4(b)のように斜め上方から示したものである。
実施例2では、図10において線分で領域分けして示したように、各人物をカメラからの距離に応じて複数のグループに分けて、各グループ内の一箇所(図10の線分上または網掛けの領域等)にピントを合わせたグループ数分の画像を撮影をする。
FIG. 10 is an explanatory diagram of how to determine the group number.
FIG. 4 shows the composition of the camera and subject when the reference image of the image in FIG. 4A is captured through the imaging means, as shown in FIG.
In the second embodiment, each person is divided into a plurality of groups according to the distance from the camera, as shown in FIG. Or, the number of images in the number of groups that are in focus on the shaded area or the like are taken.

グループ数は、任意に設定しても良いが、ここでは電子カメラに設定した連写回数に設定する。そして、各グループの領域も適宜指定しても良いが、ここでは、一番手前の人と一番奥の人をそれぞれ必ず撮影するものとし、その2回の撮影を連写回数から差し引いた残りの撮影回数で、カメラを始点に残りの領域を均等に分け、各人を立ち位置から最も近い線分のグループに属させる。例えば手前から奥行き方向へ順にグループ番号1から5を付与すると、一番手前の線分上にいる人物はグループ番号1、その後列の網掛け領域にいる2人はグループ番号2、その次の後列の網掛け領域にいる3人はグループ番号3、更に後列の線分上にいる1人はグループ番号4、そして最後尾の網掛け領域にいる3人はグループ番号3のようにグループ分けされる。   The number of groups may be set arbitrarily, but here it is set to the number of continuous shots set for the electronic camera. The area of each group may be specified as appropriate, but in this case, the foremost person and the farthest person are always photographed, and the remaining two shots are subtracted from the number of consecutive shots. The remaining area is equally divided from the camera as the starting point, and each person belongs to the line segment nearest to the standing position. For example, if group numbers 1 to 5 are assigned in order from the front to the depth, the person on the foremost line segment is group number 1, the two in the shaded area in the next row are group number 2, and the next back row Three people in the shaded area are grouped as group number 3, one person on the back line segment is group number 4, and three in the last shaded area are grouped as group number 3. .

以下に、連写撮影に関するCPU11の処理を説明する。
なお、各処理は、CPU11がROM13に記録されている各種プログラムを適宜読み出して実行することにより行われるものとする。
Below, the process of CPU11 regarding continuous shooting is demonstrated.
Each process is performed by the CPU 11 appropriately reading and executing various programs recorded in the ROM 13.

図11は、連写撮影時のCPU11の処理フローである。
この処理では、電子カメラが記録モードに設定されている場合にユーザからのレリーズ釦の半押し状態を検出することにより開始されるものとし、更に自動露出補正(AE)及びオートホワイトバラナス(AWB)は固定のまま行われるものとする。
先ず、電子カメラに設けられている顔認識AF機能がONの状態であるか又はOFFの状態であるかを判定する(SA1)。OFFの状態であった場合は、従来の撮影処理のフローに移行して、単一撮影又は連写撮影を行う。
FIG. 11 is a processing flow of the CPU 11 during continuous shooting.
This processing is started by detecting the half-pressed state of the release button from the user when the electronic camera is set to the recording mode, and further, automatic exposure correction (AE) and auto white balance (AWB). ) Shall be performed in a fixed manner.
First, it is determined whether the face recognition AF function provided in the electronic camera is in an ON state or an OFF state (SA1). If it is in the OFF state, the process proceeds to a conventional shooting process flow, and single shooting or continuous shooting is performed.

一方、ONの状態であった場合は、続いて、電子カメラに設けられている顔認識AF機能と高速連写の連動機能がONの状態であるか又はOFFの状態であるかを判定する(SA2)。ここでOFFの状態であった場合は、従来の顔認識AF撮影処理のフローに移行して撮影を行う。
一方、ONの状態であった場合は、続くステップSA3からの顔認識AF連写処理を実行する。
On the other hand, if it is ON, then it is determined whether the face recognition AF function provided in the electronic camera and the high-speed continuous shooting linkage function are ON or OFF ( SA2). If the camera is in the OFF state, the process proceeds to the flow of the conventional face recognition AF shooting process and shooting is performed.
On the other hand, if it is in the ON state, the face recognition AF continuous shooting process from the subsequent step SA3 is executed.

顔認識AF連写処理では、先ず始めに、予め設定した連写回数又は連写回数の入力を要求する画面をLCD表示させる等してユーザにキー入力部の設定釦から指定入力させた連写回数を、連写回数を指定するパラメータに与える(SA3)。
続いて、被写体画像(ここでは参照用画像)中の人物の奥行き方向の位置を測定して、一番手前と一番奥の人物との距離(奥行き方向の顔の間隔)を求める(SA4)。
更に、ステップSA4で求めた奥行き方向の顔の間隔をステップSA3で与えられた連写回数で均等に割る等して、撮影数分のピント調節位置(つまり図10の各線分の位置)を求める(SA5)。
そして、顔認識AF機能と高速連写機能とを連動させて、上記の各線分上に順次ピントを調節しながら被写体像の記録撮影を行う(SA6)。
In the face recognition AF continuous shooting process, first of all, continuous shooting or a screen for requesting input of the number of continuous shooting is displayed on the LCD, for example, and the user has designated input from the setting button of the key input unit. The number of times is given to a parameter for designating the number of times of continuous shooting (SA3).
Subsequently, the position in the depth direction of the person in the subject image (here, the reference image) is measured to determine the distance between the foremost person and the farthest person (the distance between the faces in the depth direction) (SA4). .
Further, the focus adjustment position (that is, the position of each line segment in FIG. 10) corresponding to the number of photographing is obtained by equally dividing the face interval in the depth direction obtained in step SA4 by the number of continuous shots given in step SA3. (SA5).
Then, the face recognition AF function and the high-speed continuous shooting function are interlocked to record and shoot the subject image while sequentially adjusting the focus on each line segment (SA6).

このステップSA4-ステップSA6の処理は、ユーザからのレリーズ釦の全押し状態を検出する等して行わるものである。例を挙げると、次のようになる。
先ず、DRAM12に一時記憶した被写体画像(ここでは参照用画像)の全領域に対して公知の顔認識処理を施して顔領域ごとの位置情報を取得し、DRAM12内の連写画像情報バッファ領域内の「連番情報」に連番(ここでは1、2・・・、10とする)を振りながら上記位置情報を「顔の位置情報」に格納していく。
The processing of step SA4 to step SA6 is performed by detecting the fully pressed state of the release button from the user. For example:
First, a known face recognition process is performed on the entire area of the subject image (here, the reference image) temporarily stored in the DRAM 12 to obtain position information for each face area, and the continuous shot image information buffer area in the DRAM 12 is acquired. The position information is stored in the “face position information” while assigning serial numbers (here, 1, 2,..., 10) to the “serial number information”.

次に、連写画像情報バッファ領域から連番情報が「1」の位置情報「X1、Y1」を取得して信号処理部10のAFウインドウサイズ制御用カウンタに対してその領域を指定し、AFフィルタから出力されるAF検出信号を監視する。そして、コントラスト検出方式によりその領域のピント合わせをする。具体的には、フォーカスレンズを現在の位置から光軸沿いに前方又は後方へ移動させながら上記AF検出信号が最大値をとるときのフォーカスレンズの位置を探す。そして、顔認識処理時においてフォーカスレンズのモータドライバに指示した前後移動を示す正負の数値情報の総和をカウントし、その総和情報(例えば正負の符号をもつ数値情報)を連写画像情報バッファ領域の連番情報「1」に対応する「フォーカスレンズの調節位置情報」に格納する。続いて、連番情報が「1」に続くものの全てに対して順次同様の処理を行って、連写画像情報バッファ領域の連番情報の振られた「フォーカスレンズの調節位置情報」をすべて埋める。   Next, the position information “X1, Y1” whose serial number information is “1” is acquired from the continuous image information buffer area, the area is designated to the AF window size control counter of the signal processing unit 10, and AF The AF detection signal output from the filter is monitored. Then, the area is focused by a contrast detection method. Specifically, the position of the focus lens when the AF detection signal takes the maximum value is searched while moving the focus lens forward or backward along the optical axis from the current position. Then, the sum of positive and negative numerical information indicating the back and forth movement instructed to the motor driver of the focus lens during the face recognition process is counted, and the total information (for example, numerical information having a positive or negative sign) is counted in the continuous shot image information buffer area. It is stored in “focus lens adjustment position information” corresponding to the serial number information “1”. Subsequently, the same processing is sequentially performed on all of the serial number information following “1”, and all the “focus lens adjustment position information” to which the serial number information is assigned in the continuous image information buffer area is filled. .

次に、「フォーカスレンズの調節位置情報」を抽出する。そして、その内の最小値と最大値との差を計算して、その差分を連写回数から2を差し引いた数(中間位置にある線分数)で割り、この値を上記最小値に足し合わせることを中間位置にある線分数の回数だけ繰り返し、各回の足し合わせた値と上記最小値及び上記最大値とからなるグループ情報を生成する。そして、フォーカスレンズの調節位置情報とグループ情報とを比較し、フォーカスレンズの各調節位置情報をグループ情報との差分が最も小さいグループ情報に対応づける(代表顔領域の決定)。例えば、グループ情報に5つのグループの値が設定されているとすると、連番番号の「1」から順に、対応する「フォーカスレンズの調節位置情報」の値と「グループ情報」の各値との差分を算出して最も差分が小さいグループの値を処理中の連番番号(最初は「1」)に対応付ける。   Next, “adjustment position information of the focus lens” is extracted. Then, the difference between the minimum value and the maximum value is calculated, and the difference is divided by the number obtained by subtracting 2 from the number of continuous shots (the number of line segments at the intermediate position), and this value is added to the minimum value. This is repeated as many times as the number of line segments at the intermediate position, and group information including the sum of each time, the minimum value, and the maximum value is generated. Then, the adjustment position information of the focus lens and the group information are compared, and each adjustment position information of the focus lens is associated with the group information having the smallest difference from the group information (determination of the representative face area). For example, if five group values are set in the group information, the corresponding “focus lens adjustment position information” value and “group information” value are sequentially set from the serial number “1”. The difference is calculated and the value of the group having the smallest difference is associated with the serial number being processed (initially “1”).

次に、「グループ情報」に同じ値が設定されている「フォーカスレンズの調節位置情報」の値とグループ値との差分を算出し、その差分が最も小さくなる「フォーカスレンズの調節位置情報」の値を、そのグループ値に対応する各連番番号の「フォーカスレンズの調節位置情報」の値として設定し、DRAM12内の「グループ情報」を設定すると共に「フォーカスレンズの調節位置情報」の値を更新する。
そして上記更新された「フォーカスレンズの調節位置情報」の値を全て取得して、重複をなくす等してから、フォーカスレンズの位置を順次調節しながら撮影を繰り返すことにより高速連写を行う。
Next, the difference between the value of “focus lens adjustment position information” in which the same value is set in “group information” and the group value is calculated, and the difference becomes the smallest in “focus lens adjustment position information”. The value is set as the value of “focus lens adjustment position information” of each serial number corresponding to the group value, the “group information” in the DRAM 12 is set, and the value of “focus lens adjustment position information” is set. Update.
Then, all the updated values of the “focus lens adjustment position information” are acquired to eliminate duplication, and then high-speed continuous shooting is performed by repeating the shooting while sequentially adjusting the position of the focus lens.

高速連写中の位置フレーム分の処理次のように行う。
TG8及び信号処理部10等を制御してCCD6、CDS/AGC/ADユニット回路9、及び信号処理部10の処理を通じて1フレーム分の記録用画像(輝度色差信号)をDRAM12に一時記憶させる。CPU11は、現在どの番号の顔領域を選択しているか分かっているため、続いて、連写画像情報バッファ領域内の該当する連番番号の「グループ情報」の値を読み出し、この値を「グループ情報」にもつ全ての「顔の位置情報」の値を連写画像情報バッファ領域から読み出して、これらの情報を被写体画像中に例えば図6に示したようにEXIF(EXchangeable Image File format)の形式で連続画像合成情報(連続画像を合成するときの合成情報)として埋め込む。そして、この埋め込み情報を含む記録用画像(埋め込み画像)を信号処理部10でJPEG圧縮し、この埋め込み圧縮データに上記連番番号のファイル名、例えばシーンを変えて複数パターンの連写が行われる場合を想定して一つのシーンにおける連写の識別記号を頭につけて連番を振ったファイル名、を付与してフラッシュメモリ14に保存する。
Processing for position frames during high-speed continuous shooting is performed as follows.
The recording image (luminance color difference signal) for one frame is temporarily stored in the DRAM 12 through the processing of the CCD 6, the CDS / AGC / AD unit circuit 9, and the signal processing unit 10 by controlling the TG 8 and the signal processing unit 10. Since the CPU 11 knows which face area is currently selected, the CPU 11 subsequently reads the value of the “group information” of the corresponding serial number in the continuous image information buffer area, and reads this value as “group”. All the values of “face position information” included in “information” are read from the continuous-shot image information buffer area, and such information is stored in the subject image in an EXIF (EXchangeable Image File format) format, for example, as shown in FIG. And embedded as continuous image composition information (composition information when combining continuous images). Then, a recording image (embedded image) including the embedded information is JPEG compressed by the signal processing unit 10, and a plurality of patterns are continuously captured by changing the file name of the serial number, for example, the scene, to the embedded compressed data. Assuming the case, a sequential shooting identification symbol in one scene is attached to the head and a file name assigned with a serial number is assigned and stored in the flash memory 14.

次に、図11に示す処理等によりフラッシュメモリ14に保存した連写画像の合成処理について説明する。
図12は、実施例2における、画像合成時のCPU11の処理フローである。
当該処理は、ここでは、再生モード時にフラッシュメモリ14内の保存情報(例えばファイル名一覧情報)をLCD表示させた状態において、ユーザがキー入力部15から一つの埋め込み圧縮データを選択することにより開始される。
Next, a process for synthesizing continuously shot images stored in the flash memory 14 by the process shown in FIG. 11 will be described.
FIG. 12 is a processing flow of the CPU 11 at the time of image composition in the second embodiment.
Here, the processing is started when the user selects one embedded compressed data from the key input unit 15 in a state where saved information (for example, file name list information) in the flash memory 14 is displayed on the LCD in the playback mode. Is done.

先ず、ユーザから一つの埋め込み圧縮データが選択されたことを検出すると(SSA1)、フラッシュメモリ14内にある埋め込み圧縮データの内のユーザに選択されたデータの連番ファイル名を取得し、連番ファイル名の一覧をLCD表示する(SSA2)。ユーザは、その一覧情報の中から、最初に選択した埋め込み圧縮データ(ここではこの主画像を基準画像とする)に対してピント調節領域の合成に使用する埋め込み圧縮データを選択する。選択方法としては、一覧情報に示されるもの全てを一括指定させる操作や個別に一つ一つ指定させる操作をキー入力部15に予め登録しておく。
続いて、ユーザによる、ピント調節領域の合成に使用する埋め込み圧縮データの指定信号を検出すると、その指定された埋め込み圧縮データをフラッシュメモリ14から読み出して伸張処理し、ヘッダ部に指定されている一箇所又は複数箇所の顔の位置において一定範囲をコピーして基準画像に合成する(SSA3)。指定枚数分の合成処理が完了したら、その合成後の基準画像を信号処理部10でJPEG圧縮し、その圧縮データに新しいファイル名を付与してフラッシュメモリ14に新規保存する。
First, when it is detected that one embedded compressed data is selected by the user (SSA1), the serial number file name of the data selected by the user among the embedded compressed data in the flash memory 14 is acquired, and the serial number is acquired. A list of file names is displayed on the LCD (SSA2). The user selects, from the list information, the embedded compressed data to be used for synthesizing the focus adjustment area with respect to the initially selected embedded compressed data (here, this main image is the reference image). As a selection method, an operation for collectively specifying all items shown in the list information and an operation for individually specifying each item are registered in the key input unit 15 in advance.
Subsequently, when a designation signal for embedding compressed data used for synthesizing the focus adjustment area is detected by the user, the designated embedding compressed data is read from the flash memory 14 and decompressed, and the one specified in the header portion is read out. A certain range is copied at the face position or the face positions at a plurality of places and synthesized with the reference image (SSA3). When the synthesis processing for the specified number of sheets is completed, the synthesized reference image is JPEG compressed by the signal processing unit 10, a new file name is given to the compressed data, and the new image is stored in the flash memory 14.

以上により、実施例2においては、奥行き方向に離れて位置していても、人物の顔のピンボケを大幅に抑制して撮影することが、一回のレリーズ操作でできるようになる。   As described above, in the second embodiment, even if the subject is located away from the subject in the depth direction, it is possible to perform shooting with a single release operation by greatly suppressing the defocusing of the person's face.

なお、以上の実施形態及び各実施例では本発明の画像記録装置及び撮影方法一例を示したにすぎない。よって、上記構成や処理手順に限らず、適宜、その他の形態をとるようにしても良い。例えば、信号処理部10のカラープロセス処理においてハードウエアで生成するAF検出信号、AE検出信号、AWB検出信号をCPU11においてソフト処理により生成するように構成しても良い。また或いは、CPU11におけるソフト処理の一部をハードウエアの構成で実現させても良い。   In the above embodiment and each example, only an example of the image recording apparatus and the photographing method of the present invention is shown. Therefore, the present invention is not limited to the above configuration and processing procedure, and may take other forms as appropriate. For example, the CPU 11 may be configured to generate AF detection signals, AE detection signals, and AWB detection signals generated by hardware in the color process processing of the signal processing unit 10 by software processing. Alternatively, a part of the software processing in the CPU 11 may be realized by a hardware configuration.

本発明の画像記録装置の第一の実施の形態による電子カメラのブロック図である。1 is a block diagram of an electronic camera according to a first embodiment of an image recording apparatus of the present invention. 信号処理部10のカラープロセス回路のブロック図である。2 is a block diagram of a color process circuit of a signal processing unit 10. FIG. 実施例1による連写画像情報を保持するためのバッファ領域のメモリ構成図である。3 is a memory configuration diagram of a buffer area for holding continuous shot image information according to Embodiment 1. FIG. 顔の位置情報及び上記フォーカスレンズの調節位置情報の説明図である。It is explanatory drawing of the positional information on a face, and the adjustment position information of the said focus lens. 実施例1による連写撮影時のCPU11の処理フローである。6 is a processing flow of the CPU 11 during continuous shooting according to the first embodiment. 埋め込み画像のフォーマット例である。It is an example of a format of an embedded image. 実施例1による画像合成時のCPU11の処理フローである。3 is a processing flow of the CPU 11 at the time of image composition according to the first embodiment. 埋め込み画像の主画像を二次元のディスプレイ座標で表したときのイメージ図である。It is an image figure when the main image of an embedded image is represented by the two-dimensional display coordinate. 実施例2による連写画像情報を保持するためのバッファ領域のメモリ構成図である。FIG. 10 is a memory configuration diagram of a buffer area for holding continuous shot image information according to the second embodiment. グループ番号の決め方の説明図である。It is explanatory drawing of how to determine a group number. 実施例2による連写撮影時のCPU11の処理フローである。6 is a processing flow of the CPU 11 during continuous shooting according to the second embodiment. 実施例2による画像合成時のCPU11の処理フローである。12 is a processing flow of the CPU 11 at the time of image composition according to the second embodiment.

符号の説明Explanation of symbols

1 電子カメラ
2 フォーカスレンズ
3 ズームレンズ
4 レンズ駆動ブロック
5 絞り機構
6 CCD
7 垂直ドライバ
8 TG
9 CDS/AGC/ADユニット回路
10 信号処理部
11 CPU
12 DRAM
13 ROM
14 フラッシュメモリ
15 キー入力部
16 画像表示部
1 Electronic Camera 2 Focus Lens 3 Zoom Lens 4 Lens Drive Block 5 Aperture Mechanism 6 CCD
7 Vertical driver 8 TG
9 CDS / AGC / AD unit circuit 10 Signal processor 11 CPU
12 DRAM
13 ROM
14 Flash memory 15 Key input unit 16 Image display unit

Claims (8)

被写体像を撮像手段を通じて参照用画像として一時的に取り込み、レリーズ操作を検出するとピント調節を行って該ピント調節下においての被写体像を前記撮像手段を通じて記録用画像として取り込んで記録する画像記録装置であって、
前記参照用画像の中の少なくとも二箇所以上の顔領域を特定する顔領域特定手段と、
一回のレリーズ操作の検出により、前記顔領域特定手段により特定された複数箇所の顔領域におけるピント調節を各顔領域毎に順次行うと共に、それぞれのピント調節下においての被写体像を前記撮像手段を通じて記録用画像として取り込むピント変動連写手段と、
を有することを特徴とする画像記録装置。
An image recording apparatus that temporarily captures a subject image as a reference image through an imaging unit, performs focus adjustment when a release operation is detected, and captures and records the subject image under the focus adjustment as a recording image through the imaging unit. There,
Face area specifying means for specifying at least two face areas in the reference image;
The focus adjustment in a plurality of face areas specified by the face area specifying means is sequentially performed for each face area by detecting the release operation once, and the subject image under each focus adjustment is passed through the imaging means. Focus variation continuous shooting means for capturing as a recording image;
An image recording apparatus comprising:
前記ピント変動連写手段は、一回のレリーズ操作の検出により、前記顔領域特定手段により特定された複数箇所の顔領域を奥行きの距離に従ってグループ化し、それぞれのグループの内の代表顔領域におけるピント調節を順次行うと共に、それぞれのピント調節下においての被写体像を前記撮像手段を通じて記録用画像として取り込むことを特徴とする請求項1に記載の画像記録装置。   The focus variation continuous shooting unit groups a plurality of face regions specified by the face region specifying unit according to a depth distance by detecting a release operation once, and focuses on a representative face region in each group. 2. The image recording apparatus according to claim 1, wherein the image recording apparatus sequentially adjusts and captures a subject image under each focus adjustment as a recording image through the imaging unit. 連写回数を設定する設定手段を更に有し、
前記ピント変動連写手段は、前記顔領域特定手段により特定された複数箇所の顔領域を奥行きの距離に従って設定連写回数分グループ化することを特徴とする請求項2に記載の画像記録装置。
It further has setting means for setting the number of continuous shootings,
The image recording apparatus according to claim 2, wherein the focus variation continuous shooting unit groups a plurality of face regions specified by the face region specifying unit according to a set number of continuous shootings according to a depth distance.
前記ピント変動連写手段は、一回のレリーズ操作の検出により、シャッターを連続して開閉させると共に、シャッターを閉じている期間ごとに所定の領域順序に従いピント調節を行うことを特徴とする請求項1乃至3の内の何れか一項に記載の画像記録装置。   The focus variation continuous shooting means continuously opens and closes the shutter by detecting a single release operation, and performs focus adjustment according to a predetermined region order for each period during which the shutter is closed. The image recording apparatus according to any one of 1 to 3. 更に、前記それぞれのピント調節下において取り込んだ複数枚の記録用画像の内の一枚を基準画像にして該基準画像に対してそれぞれの記録用画像のピント合わせ領域を合成する画像合成手段を有することを特徴とする請求項1乃至4の内の何れか一項に記載の画像記録装置。   Further, image composing means for composing a focusing area of each recording image with the reference image by using one of the plurality of recording images captured under the respective focus adjustments as a reference image. The image recording apparatus according to claim 1, wherein the image recording apparatus is an image recording apparatus. 更に、前記それぞれのピント調節下において取り込んだ各記録用画像のピント合わせ位置を画像合成時の情報として前記記録用画像に埋め込む合成情報埋込手段を有することを特徴とする請求項1乃至4の内の何れか一項に記載の画像記録装置。   5. The image forming apparatus according to claim 1, further comprising: synthesis information embedding means for embedding a focus position of each recording image captured under the respective focus adjustments in the recording image as information at the time of image synthesis. The image recording device according to any one of the above. 高速連写での撮影毎に、顔認識処理により顔として認識された一つ一つの顔領域へオートフォーカスエリアを自動的に切り替えていくことを特徴とする撮影方法。   A shooting method characterized by automatically switching an autofocus area to each face area recognized as a face by face recognition processing every time shooting is performed in high-speed continuous shooting. 前記一つ一つの顔領域を所定順にオートフォーカスエリアにして撮影することにより生成された複数枚の記録用画像から前記オートフォーカスエリアとなった部分領域の画像を抽出して合成することを特徴とする請求項7に記載の撮影方法。   Extracting and synthesizing images of partial areas that have become the autofocus area from a plurality of recording images generated by photographing each face area as an autofocus area in a predetermined order. The imaging method according to claim 7.
JP2007249056A 2007-09-26 2007-09-26 Image recording apparatus and photographing method Pending JP2009081636A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007249056A JP2009081636A (en) 2007-09-26 2007-09-26 Image recording apparatus and photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007249056A JP2009081636A (en) 2007-09-26 2007-09-26 Image recording apparatus and photographing method

Publications (1)

Publication Number Publication Date
JP2009081636A true JP2009081636A (en) 2009-04-16

Family

ID=40656073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007249056A Pending JP2009081636A (en) 2007-09-26 2007-09-26 Image recording apparatus and photographing method

Country Status (1)

Country Link
JP (1) JP2009081636A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011252954A (en) * 2010-05-31 2011-12-15 Nikon Corp Digital camera
JP2014187551A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Image acquisition device, image acquisition method and program
CN104683692A (en) * 2015-02-04 2015-06-03 广东欧珀移动通信有限公司 Continuous shooting method and continuous shooting device
JP2015148656A (en) * 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 Imaging apparatus
CN109596619A (en) * 2017-10-02 2019-04-09 爱科来株式会社 Analytical equipment
WO2020137604A1 (en) * 2018-12-28 2020-07-02 ソニー株式会社 Imaging device, imaging method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011252954A (en) * 2010-05-31 2011-12-15 Nikon Corp Digital camera
JP2014187551A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Image acquisition device, image acquisition method and program
JP2015148656A (en) * 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 Imaging apparatus
CN104683692A (en) * 2015-02-04 2015-06-03 广东欧珀移动通信有限公司 Continuous shooting method and continuous shooting device
CN104683692B (en) * 2015-02-04 2017-10-17 广东欧珀移动通信有限公司 A kind of continuous shooting method and device
CN109596619A (en) * 2017-10-02 2019-04-09 爱科来株式会社 Analytical equipment
CN109596619B (en) * 2017-10-02 2023-11-21 爱科来株式会社 Device for analyzing physical components in urine
WO2020137604A1 (en) * 2018-12-28 2020-07-02 ソニー株式会社 Imaging device, imaging method, and program
US11632500B2 (en) 2018-12-28 2023-04-18 Sony Group Corporation Imaging device and imaging method

Similar Documents

Publication Publication Date Title
US8106995B2 (en) Image-taking method and apparatus
JP5713055B2 (en) Imaging apparatus, imaging method, and program
JP2008141740A (en) Apparatus, method and program for photography
JP2006208558A (en) Imaging device
JP2008288868A (en) Imaging device and program
JP5180349B2 (en) Imaging apparatus, method, and program
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
KR101046041B1 (en) Imaging device
JP4818999B2 (en) Imaging apparatus, method, and program
JP2009081636A (en) Image recording apparatus and photographing method
JP2007133810A (en) Image processor
JP2003219244A (en) Digital camera
JP2008054031A (en) Digital camera and display control method
JP2009218708A (en) Image processing apparatus and image processing method
JP2010245613A (en) Camera, display image control method and display image control program
JP2009021909A (en) Image adder, method, and program
JP2007208355A (en) Photographing device, method, and program
JP2008058553A (en) Imaging apparatus, imaging method, and imaging control program
JP2004309653A (en) Imaging unit
JP2009077321A (en) Image recording device and image recording processing method
JP2008028956A (en) Imaging apparatus and method for generating image signal for detecting target therein
JP5024434B2 (en) Imaging apparatus, control program, and display control method
JP5163333B2 (en) CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
JP2008219367A (en) Imaging apparatus and imaging method
JP5027055B2 (en) Image processing apparatus and method, and program