JP4806471B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4806471B2
JP4806471B2 JP2011022829A JP2011022829A JP4806471B2 JP 4806471 B2 JP4806471 B2 JP 4806471B2 JP 2011022829 A JP2011022829 A JP 2011022829A JP 2011022829 A JP2011022829 A JP 2011022829A JP 4806471 B2 JP4806471 B2 JP 4806471B2
Authority
JP
Japan
Prior art keywords
image
face
signal
unit
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011022829A
Other languages
Japanese (ja)
Other versions
JP2011142644A (en
Inventor
幸夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011022829A priority Critical patent/JP4806471B2/en
Publication of JP2011142644A publication Critical patent/JP2011142644A/en
Application granted granted Critical
Publication of JP4806471B2 publication Critical patent/JP4806471B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は画角の調整が可能な撮像装置及びその撮影方法に関するもので、特に対象とする被写体に対して自動的な画角の調整を行う撮影方法に関する。   The present invention relates to an imaging apparatus capable of adjusting the angle of view and a shooting method thereof, and more particularly, to an imaging method for automatically adjusting the angle of view with respect to a target subject.

各種デジタル技術の発展に伴い、デジタル画像を撮影するデジタルカメラやデジタルビデオなどといった撮像装置が現在広く普及しており、CCD(Charge Coupled Device)
やCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子の
画素数の向上により高精細な画像が撮影できるようになっている。さらに、光学ズームレンズを備え、オートフォーカス機能を有するものも一般的となっており、カメラに慣れていない人でも広角や望遠に自由にズーム倍率を設定して画角を変更しつつ、しかもピントの合った画像を容易に撮影できるようになっている。
With the development of various digital technologies, imaging devices such as digital cameras and digital videos for taking digital images are now widely used. CCD (Charge Coupled Device)
High-definition images can be taken by improving the number of pixels of a solid-state imaging device such as a CMOS (Complimentary Metal Oxide Semiconductor) sensor. Furthermore, it is also common to have an optical zoom lens and have an autofocus function, so that even those who are not familiar with the camera can freely set the zoom magnification to wide angle or telephoto and change the angle of view while focusing. This makes it easy to shoot images that match.

しかし、撮影の際の構図の設定は、特に撮影の初心者にとって難しく、対象とした被写体が大きすぎたり小さすぎたり、関係のない後景がその被写体よりも広く写っていたりと、撮影後に画像を観察すると撮影者の意図したような構図で撮影できていないことがある。   However, setting the composition at the time of shooting is particularly difficult for beginners of shooting, and if the target subject is too large or too small, or the irrelevant foreground is shown wider than the subject, the image will be displayed after shooting. When observing, the photographer may not be able to photograph with the composition intended by the photographer.

そこで、例えば特許文献1ではズームレンズを備えたカメラで、撮影時に設定されているズーム倍率の他に複数のズーム倍率でも自動的に撮影して、広角、望遠及びその中間の画角の画像を一度に得られるようにし、撮影者が撮影後に適切な画角の画像を選択できるようにする撮影方法が提案されている。   Therefore, for example, in Patent Document 1, a camera equipped with a zoom lens is used to automatically shoot at a plurality of zoom magnifications in addition to the zoom magnification set at the time of shooting, and images of wide angle, telephoto and intermediate angles of view are obtained. An imaging method has been proposed in which images can be obtained at a time and the photographer can select an image with an appropriate angle of view after shooting.

特許文献2では、ズームレンズを備えたデジタルカメラで、撮影時に設定されているズーム倍率よりも広角側にズーム倍率を変更して撮影し、その広い画角の画像から、撮影者の意図した撮影範囲の画像と、撮影者の設定したズーム倍率であって撮影者の意図した撮影範囲からずらした撮影範囲の画像を自動的に切り出して生成し、撮影者が適当な撮影範囲の画像を選択できるようにする方法が提案されている。   In Patent Document 2, a digital camera equipped with a zoom lens is used to change the zoom magnification to a wider angle than the zoom magnification set at the time of shooting. The image of the range and the zoom magnification set by the photographer, and the image of the photographing range shifted from the intended photographing range of the photographer are automatically cut out and generated, and the photographer can select an image of the appropriate photographing range. A method has been proposed.

又、特許文献3では、特に人物を被写体とし、目、耳、鼻等の顔の特徴部分を検出する手段を用いて検出した顔の特徴部分がフレーム内の基準領域内に位置するように、移動機構によってカメラの位置、姿勢を制御して、撮影される顔の位置及び大きさを制御する方法が提案されている。
特開平6−22263号公報 特開2004−109247号公報 特開2005−117316号公報
Further, in Patent Document 3, a person is a subject, and a facial feature detected using means for detecting facial features such as eyes, ears, and nose is positioned within a reference region in the frame. There has been proposed a method for controlling the position and size of a face to be photographed by controlling the position and posture of the camera with a moving mechanism.
JP-A-6-22263 JP 2004-109247 A JP 2005-117316 A

しかし、特許文献1で提案された方法では、対象とする被写体の画像内での位置を考慮せず、ズーム倍率を変えて撮影するだけであるため、自動的に撮影された画像が対象となる被写体が下の方に偏っていたり、画像の縁で切れてしまったりしたものとなる可能性がある。   However, the method proposed in Patent Document 1 does not take into account the position of the subject in the image, and only takes pictures while changing the zoom magnification. There is a possibility that the subject is biased downward or cut off at the edge of the image.

又、特許文献2で提案された方法では、画像を切り出すため、従来の固体撮像素子をそのまま使ったのでは、得られる画像は従来よりも精細さの劣るものとなる。一方、従来の画像の精細さを維持するためには固体撮像素子を従来よりも大きなものとしなければならず、撮像装置の大型化が避けられない。   In addition, in the method proposed in Patent Document 2, an image is cut out. Therefore, if a conventional solid-state imaging device is used as it is, an obtained image is inferior in definition to the conventional one. On the other hand, in order to maintain the fineness of the conventional image, the solid-state imaging element must be made larger than the conventional one, and the enlargement of the imaging apparatus is inevitable.

特許文献3で提案された方法では、1箇所に固定されたカメラを用いるものであり、カメラの位置、姿勢の制御するための移動機構が回転モータやチルトモータなどの多くのモータ等を備えた大掛かりなものであるため、持ち運びには適さない。   In the method proposed in Patent Document 3, a camera fixed at one place is used, and a moving mechanism for controlling the position and posture of the camera is provided with many motors such as a rotary motor and a tilt motor. Because it is a large one, it is not suitable for carrying around.

そこで、本発明は、対象とする被写体が適切な大きさに配置され、かつ変化に富んだ複数の画角の画像を容易に得られ、又、容易に持ち運びできる撮像装置及びこのような撮影方法を提供することを目的とする。   Accordingly, the present invention provides an imaging apparatus in which a subject subject is arranged in an appropriate size and a plurality of images with a variety of angles of view can be easily obtained and can be easily carried, and such an imaging method. The purpose is to provide.

上記目的を達成するために、本発明の撮像装置は、撮像信号を出力する撮像部と、該撮像信号による画像から被写体である人物の顔領域を検出する顔検出部と、前記顔領域が前記画像内で所定の大きさになるようにズーム倍率を制御するズーム制御部と、前記顔領域が前記画像内で所定の位置になるように前記顔領域の位置をシフトするシフト制御部と、前記画像内の前記顔領域が所定の大きさ及び位置となる複数の基準構図が予め設定された構図設定部と、前記画像の撮影を行う際、前記画像内における前記顔領域の大きさと位置を検出し、前記画像内の前記顔領域の大きさと位置が前記複数の基準構図の夫々に沿うか否かを判断する判断部と、を備え、前記判断部により基準構図に沿うと判断された構図を有効構図とし、該有効構図のうち少なくとも水平方向の中心から左方向又は右方向にずれた構図が複数ある場合に、水平方向の中心から左方向又は右方向にずれた複数の有効構図の夫々に適するように前記ズーム制御部及び前記シフト制御部を制御することにより撮影することを特徴とする。 In order to achieve the above object, an imaging apparatus of the present invention includes an imaging unit that outputs an imaging signal, a face detection unit that detects a face area of a person who is a subject from an image based on the imaging signal, and the face area includes the face area A zoom control unit that controls a zoom magnification so as to be a predetermined size in the image, a shift control unit that shifts a position of the face region so that the face region is a predetermined position in the image, A composition setting unit in which a plurality of reference compositions in which the face area in the image has a predetermined size and position is preset, and the size and position of the face area in the image are detected when the image is taken A determination unit that determines whether the size and position of the face area in the image is along each of the plurality of reference compositions, and the composition determined by the determination unit to be along the reference composition The effective composition is At least in the case where the horizontal center is a plurality of composition shifted to the left or right direction, the zoom control unit and said to be suitable from the horizontal center to each of the plurality of effective composition shifted to the left or right Photographing is performed by controlling the shift control unit .

本発明によると、持ち運び容易な撮像装置で、対象とする被写体を適切な大きさ、位置に配置した画像を、複数の画角に対して自動的に得ることができる。そのため、撮影者が設定した画角で撮影した画像では人物の位置、大きさが偏っていたり、中途半端であったりする構図であっても、複数の理想的な画角、構図の画像が自動的に撮影されているため、撮影の失敗を少なくすることができる。   According to the present invention, it is possible to automatically obtain an image in which a target subject is arranged in an appropriate size and position with respect to a plurality of angles of view with an imaging device that is easy to carry. Therefore, even if the image is shot at the angle of view set by the photographer, the position and size of the person is biased or the image is halfway. Since the image is photographed automatically, it is possible to reduce photographing failures.

本発明の実施の形態について、図面を参照して説明する。尚、以下では、本発明における撮影方法を行うデジタルカメラやデジタルビデオなどの撮像装置を例に挙げて説明する。撮像装置は静止画を撮影できるものであれば、動画撮影が可能なものであっても構わない。   Embodiments of the present invention will be described with reference to the drawings. In the following description, an imaging apparatus such as a digital camera or a digital video that performs the shooting method of the present invention will be described as an example. The imaging device may be capable of capturing a moving image as long as it can capture a still image.

(撮像装置の構成)
まず、撮像装置の内部構成について、図面を参照して説明する。図1は、撮像装置の内部構成を示すブロック図である。
(Configuration of imaging device)
First, the internal configuration of the imaging apparatus will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an internal configuration of the imaging apparatus.

図1の撮像装置は、入射される光を電気信号に変換するCCD又はCMOSセンサなどの固体撮像素子(イメージセンサ)1と、被写体の光学像をイメージセンサ1に結像させるズームレンズとズームレンズの焦点距離すなわち光学ズーム倍率を変化させるモータを有するレンズ部18と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog Front End)2と、外部から入力された音声を電気信号に変換するマイク3と、AFE2からのデジタル信号となる画像信号に対して顔検出処理を含む各種画像処理を施す画像処理部4と、マイク3からのアナログ信号である音声信号をデジタル信号に変換する音声処理部5と、静止画を撮影する場合は画像処理部4からの画像信号に対してJPEG(Joint Photographic Experts Group)圧縮方式など、動画を撮影する場合は画像処理部4からの画像信号と音声処理部5からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部6と、圧縮処理部6で圧縮符号化された圧縮符号化信号をSDカードなどの外部メモリ20に記録するドライバ部7と、ドライバ部7で外部メモリ20から読み出した圧縮符号化信号を伸長して復号する伸長処理部8と、伸長処理部8で復号されて得られた画像信号による画像の表示を行うディスプレイ部9と、伸長処理部8からの音声信号をアナログ信号に変換する音声出力回路部10と、音声出力回路部10からの音声信号に基づいて音声を再生出力するスピーカ部11と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)12と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)13と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ14と、静止画撮影用のシャッターボタンを含むユーザからの指示が入力される操作部15と、CPU13と各ブロックとの間でデータのやりとりを行うためのバス回線16と、メモリ14と各ブロックとの間でデータのやりとりを行うためのバス回線17と、を備える。レンズ部18は、画像処理部4で検出した画像信号に応じてCPU13が、モータを駆動してフォーカス、絞り、光学ズーム倍率、光軸シフトの制御を行うものである。レンズ部18は、図2に示すように、結像用のレンズ18aとイメージセンサ1との間に設けられた、イメージセンサ1の受光面に対して平行に移動可能なシフトレンズ18bを備えている。シフトレンズ18bはCPU13によって位置を制御可能であり、結像用のレンズ18aから入射した光の光軸をイメージセンサ1の所定の位置となるようにシフトすることができる。   The imaging apparatus of FIG. 1 includes a solid-state imaging device (image sensor) 1 such as a CCD or CMOS sensor that converts incident light into an electrical signal, and a zoom lens and a zoom lens that form an optical image of a subject on the image sensor 1. Lens unit 18 having a motor that changes the focal length of the optical zoom, that is, the optical zoom magnification, AFE (Analog Front End) 2 that converts an image signal that is an analog signal output from image sensor 1 into a digital signal, and an external input. A microphone 3 for converting the obtained sound into an electrical signal, an image processing unit 4 for performing various image processing including face detection processing on an image signal to be a digital signal from the AFE 2, and an audio signal as an analog signal from the microphone 3 Is converted into a digital signal, and JPEG (Joi) is applied to the image signal from the image processing unit 4 when shooting a still image. nt Photographic Experts Group (compression method) When recording moving images, compression coding such as MPEG (Moving Picture Experts Group) compression method is applied to the image signal from the image processing unit 4 and the audio signal from the audio processing unit 5. A compression processing unit 6 that performs processing, a driver unit 7 that records a compression-coded signal compression-encoded by the compression processing unit 6 in an external memory 20 such as an SD card, and a compression read out from the external memory 20 by the driver unit 7 A decompression processing unit 8 that decompresses and decodes the encoded signal, a display unit 9 that displays an image based on an image signal obtained by decoding by the decompression processing unit 8, and an audio signal from the decompression processing unit 8 is an analog signal. In order to make the operation timing of each block coincide with the audio output circuit unit 10 for converting to the sound output unit, the speaker unit 11 for reproducing and outputting audio based on the audio signal from the audio output circuit unit 10 A timing generator (TG) 12 that outputs a timing control signal, a CPU (Central Processing Unit) 13 that controls the drive operation of the entire imaging apparatus, and stores each program for each operation and stores data at the time of program execution A memory 14 for temporary storage; an operation unit 15 for inputting instructions from a user including a shutter button for still image shooting; a bus line 16 for exchanging data between the CPU 13 and each block; And a bus line 17 for exchanging data between the memory 14 and each block. In the lens unit 18, the CPU 13 controls the focus, aperture, optical zoom magnification, and optical axis shift by driving the motor in accordance with the image signal detected by the image processing unit 4. As shown in FIG. 2, the lens unit 18 includes a shift lens 18 b provided between the imaging lens 18 a and the image sensor 1 and movable in parallel to the light receiving surface of the image sensor 1. Yes. The position of the shift lens 18 b can be controlled by the CPU 13, and the optical axis of the light incident from the imaging lens 18 a can be shifted so as to be a predetermined position of the image sensor 1.

(撮像装置の基本動作 静止画撮影時)
次に、この撮像装置の静止画撮影時の基本動作について図3のフローチャートを用いて説明する。まず、ユーザが撮像装置の電源をONにすると(STEP101)、撮像装置の撮影モードつまりイメージセンサ1の駆動モードを自動的にプレビューモードに設定する(STEP102)。プレビューモードでは、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE2においてデジタル信号に変換されて、画像処理部4で画像処理が施され、圧縮処理部6で圧縮された現時点の画像に対する画像信号が外部メモリ20に一時的に記録される。この圧縮信号は、ドライバ部7を経て、伸長処理部8で伸長され、現時点で設定されているレンズ部18のズーム倍率での画角の画像がディスプレイ部9に表示される。
(Basic operation of the imaging device)
Next, a basic operation at the time of still image shooting of this imaging apparatus will be described with reference to the flowchart of FIG. First, when the user turns on the power of the imaging apparatus (STEP 101), the shooting mode of the imaging apparatus, that is, the drive mode of the image sensor 1 is automatically set to the preview mode (STEP 102). In the preview mode, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is converted into a digital signal by the AFE 2, subjected to image processing by the image processing unit 4, and compressed by the compression processing unit 6. An image signal for the current image is temporarily recorded in the external memory 20. The compressed signal is expanded by the expansion processing unit 8 via the driver unit 7, and an image having an angle of view at the zoom magnification of the lens unit 18 set at the present time is displayed on the display unit 9.

続いてユーザが、撮影の対象とする被写体に対して所望の画角となるように、光学ズームでのズーム倍率を設定する(STEP103)。その際、画像処理部4に入力された画像信号を基にCPU13によってレンズ部18を制御して、最適な露光制御(Automatic Exposure;AE)・フォーカス制御(Auto Focus;AF)が行われる(STEP104)。ユーザが撮影画角、構図を決定し、操作部15のシャッタボタンを半押しすると(STEP105)、AE及びAFの最適化処理を行う(STEP106)。   Subsequently, the user sets the zoom magnification with the optical zoom so that the desired angle of view is obtained with respect to the subject to be imaged (STEP 103). At that time, the CPU 13 controls the lens unit 18 based on the image signal input to the image processing unit 4 to perform optimum exposure control (Automatic Exposure; AE) and focus control (Auto Focus; AF) (STEP 104). ). When the user determines the shooting angle of view and composition and presses the shutter button of the operation unit 15 halfway (STEP 105), AE and AF optimization processing is performed (STEP 106).

撮影用のAE・AFが設定された後、シャッタボタンが全押しされたら(STEP107)、タイミングジェネレータ12より、イメージセンサ1、AFE2、画像処理部4及び圧縮処理部6それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させ、画像処理部4において入力された画像信号に所定以上の大きさの顔があるかどうかを検出する(STEP108)。この顔検出処理については後述する。所定大きさ以上の顔が検出されなければ通常撮影を行い、所定大きさ以上の顔が検出されれば後述する画角ブラケット撮影を行う。   After the shooting AE / AF is set, when the shutter button is fully pressed (STEP 107), the timing generator 12 sends timing control signals to the image sensor 1, the AFE 2, the image processing unit 4, and the compression processing unit 6, respectively. Is synchronized, and the operation timing of each unit is synchronized, and it is detected whether or not there is a face of a predetermined size or larger in the image signal input in the image processing unit 4 (STEP 108). This face detection process will be described later. If a face larger than a predetermined size is not detected, normal shooting is performed. If a face larger than a predetermined size is detected, angle bracket shooting described later is performed.

画像信号中に所定以上の大きさの顔が検出されなかった場合、イメージセンサ1の駆動モードを静止画撮影モードに設定し(STEP125)、イメージセンサ1から出力されるアナログ信号である画像信号のRawDATAをAFE2でデジタル信号に変換して一旦メモリ14に書き込む(STEP126)。このデジタル信号がメモリ14から読み込まれ、画像処理部4において輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施され、画像処理が施された信号を圧縮処理部6においてJPEG(Joint Photographic Experts Group)形式に圧縮(STEP127)後、外部メモリ20に圧縮画像を書き込み(STEP124)、撮影を完了する。その後、撮影待機状態とするためプレービューモードに戻る(STEP102)。   When a face larger than a predetermined size is not detected in the image signal, the drive mode of the image sensor 1 is set to the still image shooting mode (STEP 125), and the image signal which is an analog signal output from the image sensor 1 is set. RawDATA is converted into a digital signal by AFE2 and once written in the memory 14 (STEP 126). This digital signal is read from the memory 14 and subjected to various image processing such as signal conversion processing for generating a luminance signal and a color difference signal in the image processing unit 4, and the signal subjected to the image processing is subjected to JPEG in the compression processing unit 6. After compression into (Joint Photographic Experts Group) format (STEP 127), the compressed image is written into the external memory 20 (STEP 124), and the photographing is completed. Thereafter, the camera returns to the playback mode to enter the shooting standby state (STEP 102).

(顔検出処理)
次に、この撮像装置の顔検出処理について説明する。画像処理部4は顔検出装置40を備え、入力された画像信号から人物の顔を検出することができる。顔検出装置40の構成及び動作について以下に説明する。
(Face detection process)
Next, face detection processing of this imaging apparatus will be described. The image processing unit 4 includes a face detection device 40 and can detect a person's face from an input image signal. The configuration and operation of the face detection device 40 will be described below.

図4は、顔検出装置40の構成を示している。顔検出装置40は、AFE2によって得られた画像データに基づいて1又は複数の縮小画像を生成する縮小画像生成手段42、入力画像および縮小画像から構成される各階層画像とメモリ14に記憶された顔検出用の重みテーブルとを用いて入力画像に顔が存在するか否かを判定する顔判定手段45、および顔判定手段45の検出結果を出力する検出結果出力手段46を備えている。検出結果出力手段46は、顔が検出された場合には、入力画像を基準とする検出された顔の大きさと位置とを出力する。   FIG. 4 shows the configuration of the face detection device 40. The face detection device 40 is stored in the memory 14 and reduced image generation means 42 that generates one or a plurality of reduced images based on the image data obtained by the AFE 2, each hierarchical image composed of the input image and the reduced image, and the memory 14. A face determination unit 45 that determines whether or not a face exists in the input image using a face detection weight table, and a detection result output unit 46 that outputs a detection result of the face determination unit 45 are provided. When a face is detected, the detection result output means 46 outputs the detected face size and position with reference to the input image.

又、メモリ14に記憶された重みテーブルは、大量の教師サンプル(顔および非顔のサンプル画像)から求められたものである。このような重みテーブルは、例えば、Adaboostと呼ばれる公知の学習方法を利用して作成することができる(Yoav Freund, Robert E. Schapire,"A decision-theoretic generalization of on-line learning and an application to boosting", European Conference on Computational Learning Theory, September 20,1995.)。   The weight table stored in the memory 14 is obtained from a large number of teacher samples (face and non-face sample images). Such a weight table can be created using, for example, a known learning method called Adaboost (Yoav Freund, Robert E. Schapire, “A decision-theoretic generalization of on-line learning and an application to boosting” ", European Conference on Computational Learning Theory, September 20, 1995.).

尚、Adaboostは、適応的なブースティング学習方法の1つで、大量の教師サンプルをもとに、複数の弱識別器候補の中から識別に有効な弱識別器を複数個選択し、それらを重み付けして統合することによって高精度な識別器を実現する学習方法である。ここで、弱識別器とは、全くの偶然よりは識別能力は高いが、十分な精度を満たすほど高精度ではない識別器のことをいう。弱識別器の選択時には、既に選択した弱識別器がある場合、選択済の弱識別器によって誤認識してしまう教師サンプルに対して学習を重点化することによ
って、残りの弱識別器候補の中から最も効果の高い弱識別器を選択する。
Adaboost is an adaptive boosting learning method. Based on a large number of teacher samples, Adaboost selects multiple weak classifiers that are effective for identification from among a plurality of weak classifier candidates. This is a learning method for realizing a highly accurate classifier by weighting and integrating. Here, a weak classifier refers to a classifier that has a higher discrimination ability than a coincidence but is not high enough to satisfy sufficient accuracy. When a weak classifier is selected, if there is a weak classifier that has already been selected, the learning is focused on the teacher sample that is misrecognized by the selected weak classifier. To select the most effective weak classifier.

図5は、縮小画像生成手段42によって得られる階層画像の一例を示している。この例では、縮小率Rを0.8に設定した場合に、生成される複数の階層画像を示している。図5において、50は入力画像を、51〜55は縮小画像を示している。61は判定領域を示している。この例では、判定領域は縦24画素、横24画素の大きさに設定されている。判定領域の大きさは、入力画像および各縮小画像においても同じである。又、この例では、矢印で示すように、階層画像上で判定領域を左から右に移動させる、水平方向走査を、上方から下方に向かって行うことで、判定領域とマッチングする顔画像の検出を行う。ただし、走査順はこれに限られるものではない。入力画像50の他に、複数の縮小画像51〜55を生成しているのは、1種類の重みテーブルを用いて大きさが異なる顔を検出するためである。   FIG. 5 shows an example of a hierarchical image obtained by the reduced image generating means 42. In this example, a plurality of hierarchical images that are generated when the reduction ratio R is set to 0.8 are shown. In FIG. 5, 50 indicates an input image, and 51-55 indicate reduced images. Reference numeral 61 denotes a determination area. In this example, the determination area is set to a size of 24 pixels vertically and 24 pixels horizontally. The size of the determination area is the same for the input image and each reduced image. In this example, as indicated by an arrow, a face image matching the determination area is detected by moving the determination area from left to right on the hierarchical image and performing horizontal scanning from the top to the bottom. I do. However, the scanning order is not limited to this. The reason why the plurality of reduced images 51 to 55 are generated in addition to the input image 50 is to detect faces of different sizes using one kind of weight table.

図6は顔検出処理を説明するための図である。顔判定手段45による顔検出処理は、各階層画像毎に行なわれるが、処理方法は同様なので、ここでは入力画像50に対して行なわれる顔検出処理についてのみ説明する。図6において、50は入力画像を示し、61は入力画像内に設定された判定領域を示している。   FIG. 6 is a diagram for explaining the face detection process. The face detection processing by the face determination unit 45 is performed for each hierarchical image, but since the processing method is the same, only the face detection processing performed on the input image 50 will be described here. In FIG. 6, 50 indicates an input image, and 61 indicates a determination region set in the input image.

各階層画像毎に行なわれる顔検出処理は、画像内に設定された判定領域に対応する画像と重みテーブルとを用いて行なわれる。顔検出処理は粗い判定から順次細かい判定に移行する複数の判定ステップからなり、ある判定ステップにおいて、顔が検出されなかった場合には、次の判定ステップには移行せず、当該判定領域には顔は存在しないと判定する。全ての判定ステップにおいて、顔が検出された場合にのみ、当該判定領域に顔が存在すると判定し、判定領域を走査して次の判定領域での判定に移行する。このようにして、検出された顔の位置及び大きさは検出結果出力手段46によって出力される。尚、このような顔検出処理については、本願出願人による特許出願である特願2006−053304号に詳しく記載されている。   The face detection process performed for each hierarchical image is performed using an image corresponding to the determination region set in the image and a weight table. The face detection process includes a plurality of determination steps that sequentially shift from a rough determination to a fine determination. When a face is not detected in a certain determination step, the process does not proceed to the next determination step, and the determination area includes It is determined that no face exists. In all the determination steps, only when a face is detected, it is determined that a face exists in the determination area, and the determination area is scanned to shift to determination in the next determination area. In this way, the position and size of the detected face are output by the detection result output means 46. Such face detection processing is described in detail in Japanese Patent Application No. 2006-053304, which is a patent application filed by the present applicant.

(撮像装置の基本動作 動画撮影時)
動画撮影時の動作について説明する。この撮像装置において、撮像動作を行うことが操作部15によって指示されると、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE2に出力される。このとき、イメージセンサ1では、TG12からのタイミング制御信号が与えられることによって、水平走査及び垂直走査が行われて、画素毎のデータとなる画像信号が出力される。そして、AFE2において、アナログ信号である画像信号のRawDATAがデジタル信号に変換されて、画像処理部4に入力されると、輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施される。
(Basic operation of the imaging device)
The operation during movie shooting will be described. In this imaging apparatus, when the operation unit 15 instructs to perform an imaging operation, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is output to the AFE 2. At this time, the image sensor 1 receives the timing control signal from the TG 12 to perform horizontal scanning and vertical scanning, and output an image signal serving as data for each pixel. In the AFE 2, when raw data of an analog image signal is converted into a digital signal and input to the image processing unit 4, various image processing such as signal conversion processing for generating a luminance signal and a color difference signal is performed. Is done.

そして、画像処理部4で画像処理が施された画像信号が圧縮処理部6に与えられる。このとき、マイク3に音声入力されることで得られたアナログ信号である音声信号が、音声処理部5でデジタル信号に変換されて、圧縮処理部6に与えられる。これにより、圧縮処理部6では、デジタル信号である画像信号及び音声信号に対して、MPEG圧縮符号方式に基づいて、圧縮符号化してドライバ部7に与えて、外部メモリ20に記録させる。又、このとき、外部メモリ20に記録された圧縮信号がドライバ部7によって読み出されて伸長処理部8に与えられて、伸長処理が施されて画像信号が得られる。この画像信号がディスプレイ部9に与えられて、現在、イメージセンサ1を通じて撮影されている被写体画像が表示される。   Then, the image signal subjected to the image processing by the image processing unit 4 is given to the compression processing unit 6. At this time, an audio signal which is an analog signal obtained by inputting the sound into the microphone 3 is converted into a digital signal by the audio processing unit 5 and given to the compression processing unit 6. As a result, the compression processing unit 6 compresses and encodes the image signal and the audio signal, which are digital signals, based on the MPEG compression encoding method, gives the image signal and the audio signal to the driver unit 7, and records them in the external memory 20. At this time, the compressed signal recorded in the external memory 20 is read out by the driver unit 7 and applied to the expansion processing unit 8 to be subjected to expansion processing to obtain an image signal. This image signal is given to the display unit 9 to display a subject image that is currently photographed through the image sensor 1.

このように撮像動作を行うとき、タイミングジェネレータ12によって、AFE2、画像処理部4、音声処理部5、圧縮処理部6、及び伸長処理部8に対してタイミング制御信号が与えられ、イメージセンサ1による1フレームごとの撮像動作に同期した動作が行われる。   When performing the imaging operation in this way, the timing generator 12 gives a timing control signal to the AFE 2, the image processing unit 4, the audio processing unit 5, the compression processing unit 6, and the decompression processing unit 8, and the image sensor 1 An operation synchronized with the imaging operation for each frame is performed.

又、外部メモリ20に記録された動画又は画像を再生することが、操作部15を通じて指示されると、外部メモリ20に記録された圧縮信号は、ドライバ部7によって読み出されて伸長処理部8に与えられる。そして、伸長処理部8において、MPEG圧縮符号方式に基づいて、伸長復号されて、画像信号及び音声信号が取得される。そして、画像信号がディスプレイ部9に与えられて画像が再生されるとともに、音声信号が音声出力回路部10を介してスピーカ部11に与えられて音声が再生される。これにより、外部メモリ20に記録された圧縮信号に基づく動画が音声とともに再生される。又、圧縮信号が画像信号のみより成るときは、ディスプレイ部9に画像のみが再生されることとなる。   When an instruction to reproduce a moving image or an image recorded in the external memory 20 is given through the operation unit 15, the compressed signal recorded in the external memory 20 is read out by the driver unit 7 and is decompressed by the decompression processing unit 8. Given to. Then, the decompression processing unit 8 decompresses and decodes the image signal and the audio signal based on the MPEG compression encoding method. Then, the image signal is given to the display unit 9 to reproduce the image, and the audio signal is given to the speaker unit 11 via the audio output circuit unit 10 to reproduce the audio. Thereby, the moving image based on the compressed signal recorded in the external memory 20 is reproduced together with the sound. Further, when the compressed signal is composed of only the image signal, only the image is reproduced on the display unit 9.

(画角ブラケット撮影)
次に画角ブラケット撮影について説明する。本発明の撮像装置では、光学ズームと顔検出機能と光軸シフト機能とを組み合わせることにより、画像内の人物が所定の位置で所定の大きさとなる構図の単数又は複数の画角の画像を自動的に一度に撮影できる。以下、この撮影方法を画角ブラケット撮影と呼ぶ。
(View angle bracket shooting)
Next, angle bracket shooting will be described. In the imaging apparatus of the present invention, by combining an optical zoom, a face detection function, and an optical axis shift function, an image of a single or a plurality of angles of view with a composition in which a person in an image has a predetermined size at a predetermined position is automatically obtained. Can be taken at once. Hereinafter, this photographing method is referred to as angle-of-view bracket photographing.

図3のSTEP108において画像信号中に所定大きさ以上の顔が検出された場合、シャッターボタンが押された時点での焦点距離と画像の高さに対する顔の比率を算出する(STEP109)。   When a face larger than a predetermined size is detected in the image signal in STEP 108 of FIG. 3, the ratio of the face to the focal length and the image height at the time when the shutter button is pressed is calculated (STEP 109).

次に、ルーズショット(LS)、ミドルショット(MS)、タイトショット(TS)の撮影に必要な焦点距離(ズーム倍率、画角)及び光軸のシフト量を算出する(STEP110)。ここで、LSとは人物の全身、MSとは人物の上半身、TSとは顔のアップを対象とした画角及び構図のことを言う。レンズ部18のレンズの焦点距離の可変範囲内に必要な焦点距離が入ってないショットを抽出し、撮影対象から外す(STEP111)。   Next, the focal length (zoom magnification, angle of view) and the amount of shift of the optical axis necessary for shooting the loose shot (LS), middle shot (MS), and tight shot (TS) are calculated (STEP 110). Here, LS refers to the whole body of the person, MS refers to the upper body of the person, and TS refers to the angle of view and composition aimed at raising the face. A shot that does not have the required focal length within the variable range of the focal length of the lens of the lens unit 18 is extracted and removed from the subject of imaging (STEP 111).

図7にレンズ部18のレンズの焦点距離の可変範囲と、算出されたLS、MS及びTSの撮影に必要な焦点距離の関係図を示す。図7において焦点距離は、左側ほど短く、右側ほど長い。いずれの場合もユーザの設定した現時点での焦点距離は、レンズの焦点距離の可変範囲であれば任意である。(1)の場合は、LS、MS及びTSの撮影に必要な焦点距離が全てレンズの焦点距離の可変範囲に収まっており、撮影対象から外すショットはない。(2)は人物が遠い場合の例であり、TSの撮影に必要な焦点距離がレンズの焦点距離の可変範囲よりも長く、TSが撮影対象から外すショットとなる。さらに人物が遠い場合にはMSも撮影対象から外すこととなる。(3)は人物が近い場合の例であり、LSの撮影に必要な焦点距離がレンズの焦点距離の可変範囲よりも短く、LSが撮影対象から外すショットとなる。さらに人物が近い場合にはMSも撮影対象から外すこととなる。   FIG. 7 shows a relationship diagram between the variable range of the focal length of the lens of the lens unit 18 and the calculated focal length necessary for photographing LS, MS, and TS. In FIG. 7, the focal length is shorter on the left side and longer on the right side. In either case, the current focal length set by the user is arbitrary as long as the focal length of the lens is variable. In the case of (1), the focal lengths necessary for LS, MS, and TS imaging are all within the variable range of the focal length of the lens, and there is no shot to be excluded from the imaging target. (2) is an example in the case where the person is far away, and the focal length necessary for photographing the TS is longer than the variable range of the focal length of the lens, and the TS is a shot excluded from the photographing target. Further, when the person is far away, the MS is also excluded from the subject of photographing. (3) is an example when a person is close, and the focal length necessary for LS shooting is shorter than the variable range of the focal length of the lens, and LS is a shot excluded from the shooting target. Further, when a person is near, the MS is also excluded from the subject of photographing.

イメージセンサ1の駆動モードを静止画撮影モードに設定(STEP112)し、画像処理部4に保持されている、ユーザが設定した画角の画像のRawDATAをデジタル信号に変換してメモリ14に書き込む(STEP113)。   The drive mode of the image sensor 1 is set to the still image shooting mode (STEP 112), and RawDATA of the image of the angle of view set by the user, which is held in the image processing unit 4, is converted into a digital signal and written to the memory 14 ( (STEP 113).

LS撮影が可能であれば(STEP114)、STEP110で算出したLSのズーム倍率に自動的に設定し、顔が画像の所定の位置となるように光軸をシフトして撮影する(STEP115)。ステップ115で撮影して得たLSでのRawDATAをデジタル信号に変換してメモリ14に書き込む(STEP116)。LS撮影が可能でなければMS撮影に移行する。   If LS photographing is possible (STEP 114), the zoom magnification of LS calculated in STEP 110 is automatically set, and the optical axis is shifted so that the face is at a predetermined position of the image (STEP 115). The RAW DATA in LS obtained by photographing in step 115 is converted into a digital signal and written in the memory 14 (STEP 116). If LS imaging is not possible, the process proceeds to MS imaging.

MS撮影が可能であれば(STEP117)、STEP110で算出したMSのズーム倍率に自動的に設定し、顔が画像の所定の位置となるように光軸をシフトして撮影する(STEP118)。ステップ118で撮影して得たMSでのRawDATAをデジタル信号に変換してメモリ14に書き込む(STEP119)。MS撮影が可能でなければTS撮影に移行する。   If MS imaging is possible (STEP 117), the MS zoom magnification calculated in STEP 110 is automatically set, and the optical axis is shifted so that the face is at a predetermined position of the image (STEP 118). The RAWDATA at the MS obtained by photographing at step 118 is converted into a digital signal and written in the memory 14 (STEP 119). If MS shooting is not possible, the process shifts to TS shooting.

TS撮影が可能であれば(STEP120)、STEP110で算出したTSのズーム倍率に自動的に設定し、顔が画像の所定の位置となるように光軸をシフトして撮影する(STEP121)。ステップ121で撮影して得たTSでのRawDATAをデジタル信号に変換してメモリ14に書き込む(STEP122)。TS撮影が可能でなければ圧縮画像の生成に移行する。   If TS photographing is possible (STEP 120), the zoom magnification of TS calculated in STEP 110 is automatically set, and the optical axis is shifted so that the face is at a predetermined position of the image (STEP 121). RAWDATA in TS obtained by photographing in step 121 is converted into a digital signal and written in the memory 14 (STEP 122). If TS shooting is not possible, the process proceeds to generation of a compressed image.

ユーザが設定した画角の画像と自動的に撮影された最大で3つの画角の画像、すなわち最大で合計4枚の画像のデジタル信号に画像処理部4において各種画像処理を施し、各々JPEG形式に圧縮(STEP123)後、外部メモリ20に圧縮画像を書き込み(STEP124)、撮影を完了する。その後、撮影待機状態とするためプレービューモードに戻る(STEP102)。   The image processing unit 4 performs various image processing on the digital signal of the image of the angle of view set by the user and the image of the maximum of three angles of view automatically taken, that is, the maximum of four images, and each of them is JPEG format. After compression (STEP 123), the compressed image is written in the external memory 20 (STEP 124), and the photographing is completed. Thereafter, the camera returns to the playback mode to enter the shooting standby state (STEP 102).

尚、STEP113のユーザが設定した画角の画像のRawDATAをデジタル信号に変換してメモリ14に書き込むステップを省略してもよい。STEP113を省略した場合、1回のシャッタ動作で撮影される画像は最大で3枚となる。又、同時に撮影した一連の画像ファイルを、撮像装置において1個のファイル群として管理してもよいし、別個の独立したファイルとして管理してもよく、操作部15の操作によりユーザがいずれかを選択できるようにしてもよい。1個のファイル群とした場合は、その撮影自体が不要である場合などに、このグループの画像を全て一括して消去でき、別個の独立したファイルとした場合は、不要なショットだけを消去する場合など、それぞれを選択して消去できる。又、顔を画像の所定の位置とする方法として、光軸をシフトする方法ではなく、撮影した画像のトリミング(切り出し)による方法を用いてもよい。   Note that the step of converting RawDATA of the image of the angle of view set by the user of STEP 113 into a digital signal and writing it into the memory 14 may be omitted. When STEP 113 is omitted, a maximum of three images are captured by one shutter operation. A series of image files taken at the same time may be managed as one file group in the imaging apparatus or may be managed as separate independent files. You may make it selectable. If it is a single file group, all the images in this group can be erased all at once, such as when shooting itself is unnecessary, and if it is a separate independent file, only unnecessary shots are erased. You can select and erase each case. Further, as a method of setting the face at a predetermined position of the image, a method by trimming (cutting out) a captured image may be used instead of the method of shifting the optical axis.

次に、LS、MS、TSでの画像の高さに対する顔の比率、顔の画像における位置について説明する。以下に説明する比率、位置は一例であり、適宜変更して構わない。   Next, the ratio of the face to the height of the image in LS, MS, and TS, and the position in the face image will be described. The ratios and positions described below are examples and may be changed as appropriate.

図8は顔エリアとLS、MS、TSの画角の関係を示す図であり、ユーザの設定する画角はこの範囲内であっても、この範囲から外れていても構わない。又、上述のようにLSとは人物の全身、MSとは人物の上半身、TSとは顔のアップを対象とした画角及び構図であり、それぞれ図9、図10及び図11に示すような画像である。ここで、画像の縦方向の長さすなわち高さをH、顔エリアの高さをFH、画像の中心を通る画像の水平方向に平行な線から顔エリアの中心までの距離をSHとする。   FIG. 8 is a diagram showing the relationship between the face area and the angle of view of the LS, MS, and TS, and the angle of view set by the user may be within this range or outside this range. As described above, LS is the whole body of the person, MS is the upper body of the person, and TS is the angle of view and composition for the face up, as shown in FIGS. 9, 10, and 11, respectively. It is an image. Here, the vertical length or height of the image is H, the height of the face area is FH, and the distance from the line parallel to the horizontal direction of the image passing through the center of the image to the center of the face area is SH.

LSでは、人物のほぼ全身が画像に収まる構図とするため、例えばH/9≦FH≦H/7の範囲で顔エリアの高さFHを設定して焦点距離を算出する基準とする。そして、顔エリアの位置は、体がなるべく広い範囲で画像に収まるよう、例えば顔エリアの中心が画像の上三分の一より上とし、SH>H/6とする。さらに、頭の先が画像から外れないように、H/2≧FH/2+SH、すなわちSH<(H−FH)/2とする。したがってこの場合、H/6<SH<(H−FH)/2の範囲でSHを決定して顔エリアの位置すなわち光軸のシフト量を決定する。   In LS, the composition is such that almost the whole body of a person can be accommodated in an image, so that the focal length is calculated by setting the height FH of the face area in the range of H / 9 ≦ FH ≦ H / 7, for example. Then, the position of the face area is set so that, for example, the center of the face area is above the upper third of the image, and SH> H / 6 so that the body can fit in the image in as wide a range as possible. Further, H / 2 ≧ FH / 2 + SH, that is, SH <(H−FH) / 2, so that the tip of the head does not deviate from the image. Therefore, in this case, SH is determined in the range of H / 6 <SH <(H−FH) / 2, and the position of the face area, that is, the shift amount of the optical axis is determined.

MSでは、人物の上半身が画像に収まる構図とするため、例えばH/5≦FH≦H/3の範囲でFHを設定して焦点距離を算出する基準とする。そして、顔エリアの位置は、体がなるべく広い範囲で画像に収まるよう、例えば顔エリアの中心が画像の上半分となるように、SH>0とする。さらに、頭の先が画像から外れないように、SH<(H−FH)/2とする。したがってこの場合、0<SH<(H−FH)/2の範囲でSHを決定して光軸のシフト量を決定する。   In the MS, the composition is such that the upper body of the person fits in the image. For example, the focal length is calculated by setting FH in the range of H / 5 ≦ FH ≦ H / 3. Then, the position of the face area is set to SH> 0 so that the center of the face area is in the upper half of the image, for example, so that the body fits in the image as wide as possible. Further, SH <(H−FH) / 2 so that the tip of the head does not deviate from the image. Therefore, in this case, the shift amount of the optical axis is determined by determining SH in the range of 0 <SH <(H−FH) / 2.

TSでは、人物の顔全体が大きめに画像に収まる構図とするため、例えばH/3≦FH≦2H/3の範囲でFHを設定して焦点距離を算出する基準とする。そして、顔エリアの位置は、例えば顔エリアの中心が画像の上半分となるように、SH>0とする。さらに、頭の先が画像から外れないように、SH<(H−FH)/2とする。したがってこの場合、0<SH<(H−FH)/2の範囲でSHを決定して顔エリアの位置すなわち光軸のシフト量を決定する。   In TS, in order to obtain a composition in which the entire face of a person can be accommodated in a larger image, for example, FH is set in a range of H / 3 ≦ FH ≦ 2H / 3 and is used as a reference for calculating a focal length. The position of the face area is set to SH> 0 so that the center of the face area is the upper half of the image, for example. Further, SH <(H−FH) / 2 so that the tip of the head does not deviate from the image. Therefore, in this case, SH is determined in the range of 0 <SH <(H−FH) / 2, and the position of the face area, that is, the shift amount of the optical axis is determined.

尚、SHは、広角側のショットほど大きく、望遠側のショットほど小さいことが好ましい。これは、広角側の画角のショットでは顔が画像の上の方となり、望遠側のショットでは顔が画像の中心から上となりすぎないようにするためである。よって、例えばLSではSH>H/5が好ましく、TSではSH<H/8が好ましい。表1にH、FH、SHを基準としたLS、MS、TSの設定例を示す。
It is preferable that SH is larger for the wide-angle shot and smaller for the telephoto shot. This is to prevent the face from being at the top of the image in the shot at the wide angle of view and the face from being too high from the center of the image in the shot at the telephoto side. Thus, for example, SH> H / 5 is preferable for LS, and SH <H / 8 is preferable for TS. Table 1 shows setting examples of LS, MS, and TS based on H, FH, and SH.

このように、画角ブラケット撮影することにより、撮影者が設定した画角で撮影した画像では人物の位置、大きさが偏っていたり、中途半端であったりする構図であっても、複数の理想的な画角、構図の画像が自動的に撮影されているため、撮影の失敗を少なくすることができる。   In this way, by shooting with angle-of-view bracketing, even in a composition where the position and size of a person is biased or halfway in an image shot at the angle of view set by the photographer, multiple ideals Since images with a specific angle of view and composition are automatically taken, it is possible to reduce shooting failures.

以上では、対象とする被写体が人物であり、一人だけである場合について説明したが、対象とする被写体が複数人の人物であってもよい。この場合、図12に示すように、STEP108において複数人の顔を検出したのち、最も大きいFHをFHmaxとし、さらに全員の顔エリアを含む領域の高さであるFHallを算出する。そして、画角の算出は、FHが最大の顔領域を基準としつつ、全員の顔エリアを含む領域とFHが最大の顔領域との高さの差(FHall−FHmax)を加味するため、FHmaxと、H−(FHall−FHmax)との比を基準とする。尚、SHは、全員の顔エリアを含む領域の中心を基準とする。   In the above description, the target subject is a person and only one person has been described. However, the target subject may be a plurality of people. In this case, as shown in FIG. 12, after detecting a plurality of faces in STEP 108, the largest FH is set as FHmax, and FHall, which is the height of the area including the face area of all members, is calculated. The angle of view is calculated based on the difference in height (FHall−FHmax) between the area including the face area of all persons and the face area with the maximum FH, while taking the face area with the maximum FH as a reference. And the ratio of H- (FHall-FHmax). Note that SH is based on the center of the area including the face area of all members.

対象とする被写体が複数人の人物である場合、LS、MS、TSに対するFHmaxの設定範囲は、上述した、対象とする被写体が一人の人物である場合におけるHをH−(FHall−FHmax)に置き換えればよい。SHについては、対象とする被写体が一人の人物である場合と同様である。表2にH、FHmax、FHall、SHを基準としたLS、MS、TSの設定例を示す。
When the target subject is a plurality of persons, the setting range of FHmax for LS, MS, and TS is H− (FHall−FHmax) when the target subject is a single person. Replace it. SH is the same as when the subject is a single person. Table 2 shows setting examples of LS, MS, and TS based on H, FHmax, FHall, and SH.

以上では、対象とする被写体が画像の水平方向の中心となるような画角ブラケット撮影について説明した。しかし、本発明の画角ブラケット撮影は、このようなものに限られず、シフトレンズ18bによる光軸のシフトによって、対象となる被写体が画像の水平方向に左右にずれた構図となるものとしてもよい。対象とする画像の水平方向の中心となる構図と、水平方向に左右にずれたものとなる構図のうち少なくとも1つで複数の画角で撮影するものとしてもよく、これらの構図全てで複数の画角で撮影するものとしてもよい。図13には、LS、MS、TSのそれぞれの画角について対象となる被写体が画像の水平方向に対して左、中心、右となる構図の(a)〜(i)の9枚の画像の例を示す。この場合、STEP110で各構図についての光軸のシフト量を算出し、STEP115、STEP118、STEP121で光軸を左右及び中心に移動させ、撮影することとなる。   In the above description, the angle-of-view bracket shooting in which the target subject is the center in the horizontal direction of the image has been described. However, the angle-of-view bracket shooting according to the present invention is not limited to this, and the subject subject may be shifted to the left and right in the horizontal direction of the image due to the shift of the optical axis by the shift lens 18b. . At least one of the composition that is the center of the target image in the horizontal direction and the composition that is shifted to the left and right in the horizontal direction may be taken at a plurality of angles of view. The image may be taken at an angle of view. FIG. 13 shows the nine images (a) to (i) in the composition in which the subject subject for each angle of view of LS, MS, and TS is left, center, and right with respect to the horizontal direction of the image. An example is shown. In this case, the optical axis shift amount for each composition is calculated in STEP 110, and the optical axis is moved to the left and right and in the center in STEP 115, STEP 118, and STEP 121, and photographing is performed.

尚、ユーザが設定した画角及び構図において対象となる被写体が水平方向に左右のいずれかにずれたものである場合、シフトレンズ18bによる光軸のシフト範囲の限界により、そのずれた方向と反対側に対象となる被写体をずらした構図では撮影できない場合がある。例えば、ユーザが設定した画角及び構図が図13の画像(a)に近い場合、画像(c) や画像(f)の構図とするための光軸のシフト量がシフト範囲から外れることがある
。その場合には、STEP111でその構図を撮影対象から外せばよい。
Note that when the subject angle set in the field of view and composition set by the user is shifted to the left or right in the horizontal direction, it is opposite to the shifted direction due to the limit of the shift range of the optical axis by the shift lens 18b. Shooting may not be possible with a composition in which the target subject is shifted to the side. For example, when the angle of view and composition set by the user are close to the image (a) in FIG. 13, the shift amount of the optical axis for making the composition of the image (c) or the image (f) may be out of the shift range. . In that case, the composition may be removed from the object of photographing in STEP 111.

尚、本実施形態では、画角ブラケット撮影で自動的に設定される既定の画角はLS、MS、TSの3種類としたが、4種類以上であってもよく、ユーザがこれらの既定の画角のうちいずれの画角を画角ブラケット撮影で用いるかを設定できるものとしてもよい。又、光軸のシフトはシフトレンズ18bを用いて行うものに限られず、イメージセンサ1をその受光面に対して平行に移動させて行うものであってもよい。   In this embodiment, the default angle of view that is automatically set by angle bracket shooting is LS, MS, and TS, but may be four or more. It may be possible to set which angle of view is used for angle-of-view bracket shooting. Further, the shift of the optical axis is not limited to that performed using the shift lens 18b, but may be performed by moving the image sensor 1 parallel to the light receiving surface.

本発明は、光学ズーム機能、顔検出機能及び光軸シフト機能を有する撮像装置に適用することができる。   The present invention can be applied to an imaging apparatus having an optical zoom function, a face detection function, and an optical axis shift function.

は、本発明の撮像装置の内部構成を示すブロック図である。These are block diagrams which show the internal structure of the imaging device of this invention. は、結像用のレンズとシフトレンズとイメージセンサの関係を示す概略図である。These are the schematic diagrams which show the relationship between the lens for image formation, a shift lens, and an image sensor. は、本発明の撮像装置の基本動作及び画角ブラケット撮影を説明するためのフローチャートである。These are the flowcharts for demonstrating the basic operation | movement and angle-of-view bracket imaging | photography of the imaging device of this invention. は、顔検出装置の構成を示すブロック図である。These are block diagrams which show the structure of a face detection apparatus. は、縮小画像生成手段によって得られる階層画像の一例である。Is an example of a hierarchical image obtained by the reduced image generating means. は、顔検出処理を説明するための図である。FIG. 10 is a diagram for explaining face detection processing; は、レンズの焦点距離の可変範囲と、算出されたLS、MS及びTSの撮影に必要な焦点距離の関係図である。These are the relationship diagrams of the variable range of the focal length of a lens, and the focal length required for imaging | photography of LS, MS, and TS calculated. は、顔エリアとLS、MS、TSの画角の関係を示す図である。These are figures which show the relationship between the face area and the angle of view of LS, MS, and TS. は、LSの画像の一例である。Is an example of an LS image. は、MSの画像の一例である。Is an example of an MS image. は、TSの画像の一例である。Is an example of a TS image. は、複数人の顔を検出した場合の顔エリアを説明するための図である。These are the figures for demonstrating the face area at the time of detecting the face of several persons. は、LS、MS、TSのそれぞれの画角について対象となる被写体が画像の水平方向に対して右、中心、左となる構図の画像の一例である。Is an example of an image having a composition in which the target subject for each angle of view of LS, MS, and TS is right, center, and left in the horizontal direction of the image.

1 イメージセンサ
2 AFE
3 マイク
4 画像処理部
5 音声処理部
6 圧縮処理部
7 ドライバ部
8 伸長処理部
9 ディスプレイ部
10 音声出力回路部
11 スピーカ部
12 タイミングジェネレータ
13 CPU
14 メモリ
15 操作部
16 バス回線
17 バス回線
18 レンズ部
18a 結像用レンズ
18b シフトレンズ
20 外部メモリ
40 顔検出装置
42 縮小画像生成手段
45 顔判定手段
46 検出結果出力手段
50 入力画像
51 縮小画像
52 縮小画像
53 縮小画像
54 縮小画像
55 縮小画像
61 判定領域
1 Image sensor 2 AFE
Reference Signs List 3 microphone 4 image processing unit 5 audio processing unit 6 compression processing unit 7 driver unit 8 expansion processing unit 9 display unit 10 audio output circuit unit 11 speaker unit 12 timing generator 13 CPU
DESCRIPTION OF SYMBOLS 14 Memory 15 Operation part 16 Bus line 17 Bus line 18 Lens part 18a Imaging lens 18b Shift lens 20 External memory 40 Face detection device 42 Reduced image generation means 45 Face determination means 46 Detection result output means 50 Input image 51 Reduced image 52 Reduced image 53 Reduced image 54 Reduced image 55 Reduced image 61 Determination area

Claims (1)

撮像信号を出力する撮像部と、
該撮像信号による画像から被写体である人物の顔領域を検出する顔検出部と、
前記顔領域が前記画像内で所定の大きさになるようにズーム倍率を制御するズーム制御部と、
前記顔領域が前記画像内で所定の位置になるように前記顔領域の位置をシフトするシフト制御部と、
前記画像内の前記顔領域が所定の大きさ及び位置となる複数の基準構図が予め設定された構図設定部と、
前記画像の撮影を行う際、前記画像内における前記顔領域の大きさと位置を検出し、前記画像内の前記顔領域の大きさと位置が前記複数の基準構図の夫々に沿うか否かを判断する判断部と、を備え、
前記判断部により基準構図に沿うと判断された構図を有効構図とし、該有効構図のうち少なくとも水平方向の中心から左方向又は右方向にずれた構図が複数ある場合に、水平方向の中心から左方向又は右方向にずれた複数の有効構図の夫々に適するように前記ズーム制御部及び前記シフト制御部を制御することにより撮影することを特徴とする撮像装置。
An imaging unit that outputs an imaging signal;
A face detection unit for detecting a face area of a person as a subject from an image based on the imaging signal;
A zoom control unit that controls a zoom magnification so that the face area has a predetermined size in the image;
A shift control unit for shifting the position of the face area so that the face area is at a predetermined position in the image;
A composition setting unit in which a plurality of reference compositions in which the face area in the image has a predetermined size and position are preset;
When photographing the image, the size and position of the face area in the image are detected, and it is determined whether or not the size and position of the face area in the image conform to each of the plurality of reference compositions. A determination unit;
The composition determined by the determination unit to be in accordance with the reference composition is regarded as an effective composition. An image pickup apparatus for taking a picture by controlling the zoom control unit and the shift control unit so as to be suitable for each of a plurality of effective compositions shifted in a right direction or a right direction.
JP2011022829A 2011-02-04 2011-02-04 Imaging device Active JP4806471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011022829A JP4806471B2 (en) 2011-02-04 2011-02-04 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011022829A JP4806471B2 (en) 2011-02-04 2011-02-04 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007090923A Division JP4804398B2 (en) 2007-03-30 2007-03-30 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2011142644A JP2011142644A (en) 2011-07-21
JP4806471B2 true JP4806471B2 (en) 2011-11-02

Family

ID=44458125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011022829A Active JP4806471B2 (en) 2011-02-04 2011-02-04 Imaging device

Country Status (1)

Country Link
JP (1) JP4806471B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5889719B2 (en) * 2012-05-31 2016-03-22 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP6235414B2 (en) * 2014-06-06 2017-11-22 株式会社デンソーアイティーラボラトリ Feature quantity computing device, feature quantity computing method, and feature quantity computing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4284949B2 (en) * 2002-09-05 2009-06-24 ソニー株式会社 Moving shooting system, moving shooting method, and shooting apparatus
JP2004109247A (en) * 2002-09-13 2004-04-08 Minolta Co Ltd Digital camera, image processor, and program
JP2004320286A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP4650297B2 (en) * 2006-02-23 2011-03-16 セイコーエプソン株式会社 Camera, camera control method, program, and recording medium

Also Published As

Publication number Publication date
JP2011142644A (en) 2011-07-21

Similar Documents

Publication Publication Date Title
JP4804398B2 (en) Imaging apparatus and imaging method
TWI514847B (en) Image processing device, image processing method, and recording medium
US8155432B2 (en) Photographing apparatus
US9215370B2 (en) Digital photographing apparatus and method of controlling the same to increase continuous shooting speed for capturing panoramic photographs
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
JP2006201282A (en) Digital camera
KR101989152B1 (en) Apparatus and method for capturing still image during moving image photographing or reproducing
JP2011166442A (en) Imaging device
JP5578442B2 (en) Imaging apparatus, image composition method, and program
US20070237513A1 (en) Photographing method and photographing apparatus
JP2007215091A (en) Imaging apparatus and program therefor
US8988545B2 (en) Digital photographing apparatus and method of controlling the same
JP4767838B2 (en) Imaging apparatus and imaging method
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP2006303961A (en) Imaging apparatus
JP2009124644A (en) Image processing device, imaging device, and image reproduction device
JP4806470B2 (en) Imaging device
KR101630304B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP4717867B2 (en) Imaging apparatus and imaging method
JP4806471B2 (en) Imaging device
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP2005086219A (en) Digital camera and photographing control method
JP4368783B2 (en) Imaging device
JP2011142645A (en) Imaging apparatus

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110812

R151 Written notification of patent or utility model registration

Ref document number: 4806471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250