JP2008227918A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2008227918A
JP2008227918A JP2007063282A JP2007063282A JP2008227918A JP 2008227918 A JP2008227918 A JP 2008227918A JP 2007063282 A JP2007063282 A JP 2007063282A JP 2007063282 A JP2007063282 A JP 2007063282A JP 2008227918 A JP2008227918 A JP 2008227918A
Authority
JP
Japan
Prior art keywords
face recognition
area
frect
angle
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007063282A
Other languages
Japanese (ja)
Inventor
Takashi Kajiyama
貴司 梶山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007063282A priority Critical patent/JP2008227918A/en
Publication of JP2008227918A publication Critical patent/JP2008227918A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Lens Barrels (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device which is improved in convenience by reducing user's burden by more highly automating framing of a group photo, etc. <P>SOLUTION: N pieces of face recognition regions are acquired (S11) and are stored as an array of structures Frect(i) (i=0 to N-1) of the recognized N pieces of face recognition regions. Then, the array of structures is sorted based on the area (height Ydim by width Xdim) of the face recognition region of each structure (S12) to be rearranged into Frect(0)>Frect(1)>...>Frect(N-1) according to the sizes. The face recognition regions are evaluated based on the ratio of their areas to the face recognition region Frect(0) having the largest area multiplied by a predetermined threshold value ThS (0<ThS<1), that is, the area of the individual face recognition regions from Frect(1) to Frect(N-1) is compared with the reference area (face recognition region Frect(0)×ThS). Then, k pieces (1≤k≤N, at least one (Frect(0))) of face recognition regions having an area larger than the reference area are determined as important subjects (S14). Then, a normalized frame wherein a rectangular region containing the face recognition regions determined as the important subjects is fit, is determined and then is zoomed in. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置における顔認識機能に係り、特に、顔認識する手段を有する撮像装置において、複数の顔を認識した場合にフレーミングを自動化する機能を有する撮像装置に関するものである。   The present invention relates to a face recognition function in an imaging apparatus, and more particularly to an imaging apparatus having a function of automating framing when a plurality of faces are recognized in an imaging apparatus having a face recognition means.

近年の電子スチルカメラなど撮像装置の主用途の1つに、ポートレート撮影、すなわち人物の顔を主被写体として撮影することが挙げられる。また、複数人が並んだ状態で撮影する集合写真の撮影も頻繁に行われている。これらの撮影用途は、背景にあたる部分の重要性は比較的低く、一方で被写体となる人物の顔の重要性は比較的高い。   One of the main uses of an imaging apparatus such as an electronic still camera in recent years is portrait photography, that is, photographing a person's face as a main subject. In addition, group photographs are often taken where a plurality of people are lined up. In these photographing applications, the importance of the portion corresponding to the background is relatively low, while the importance of the face of the person serving as the subject is relatively high.

そして、被写体に対して適切な画角を得られるようにする発明としては、特許文献1のように顔を認識して警告を与えてフレーミングを再度行うよう促す発明や、特許文献2のように認識した領域について、大きさを計測し適正、かつ自動的にズームさせ、さらに顔が中心になるよう手振れ補正レンズを駆動させる、あるいは電子ズームを用いて画角を調節する発明もなされている。
特開平11−008788号公報 特開2004−320286号公報
As an invention for obtaining an appropriate angle of view with respect to a subject, an invention for recognizing a face and giving a warning to urge framing again as in Patent Document 1, There has also been an invention in which the size of a recognized area is measured appropriately and automatically zoomed, and a camera shake correction lens is driven so that the face is centered, or the angle of view is adjusted using electronic zoom.
JP-A-11-008788 JP 2004-320286 A

しかしながら、特許文献1に記載された構成は、手作業で再度フレーミングするために、ズーム操作を含む手作業による調節が必要であり、操作性が悪く面倒である。また特許文献2に記載された構成は、特に被写体となる人物が複数ある場合に、一人一人に対して画角を調節する機能が提供されているが、集合写真を意図した撮影を含め、顔認識する領域が広く分散する場合、それらのうち撮影に適した複数の人数に対して1枚の画像に収めるための適切な対応が示されていないとう課題があった。   However, the configuration described in Patent Document 1 requires manual adjustment including a zoom operation in order to perform framing again manually, which is inconvenient and troublesome. The configuration described in Patent Document 2 provides a function for adjusting the angle of view for each person, particularly when there are a plurality of persons as subjects. When the recognition area is widely dispersed, there is a problem that an appropriate correspondence for accommodating a plurality of persons suitable for photographing in one image is not shown.

本発明は、前記従来技術の問題を解決することに指向するものであり、顔を含む人物被写体の撮影、特に集合写真において、フレーミングをより高度に自動化することでユーザの負荷を軽減し、利便性を高めた撮像装置を提供することを目的とする。   The present invention is directed to solving the above-described problems of the prior art, and reduces the burden on the user by automating framing to a higher degree in photographing a human subject including a face, particularly in a group photo. An object of the present invention is to provide an imaging device with improved performance.

前記の目的を達成するために、本発明に係る請求項1に記載した撮像装置は、撮像面を所定の範囲内で移動する移動手段と、光学的に焦点距離を変更するズーム手段と、モニタリング中の画像データから複数の顔を認識し、顔認識領域を抽出する抽出手段とを有する撮像装置において、画像データから複数の顔認識領域を抽出した場合、各々認識した顔認識領域の面積または周長に基づいて、画角に含むべき顔の領域とするか判定する判定手段と、画角に含むべき顔の領域の一部またはすべてを含む画角になるように自動的にズームするまたは撮像面を移動する駆動手段と、を備えたことにより、集合写真のように複数の顔がある場合に最適なズーミングを自動的に行うことができる。   In order to achieve the above object, an imaging apparatus according to claim 1 of the present invention includes a moving unit that moves an imaging surface within a predetermined range, a zoom unit that optically changes a focal length, and monitoring. In an imaging apparatus having an extraction unit that recognizes a plurality of faces from image data and extracts a face recognition area, when the plurality of face recognition areas are extracted from the image data, the area or circumference of each recognized face recognition area Based on the length, determination means for determining whether the face area should be included in the angle of view, and automatically zooming or imaging so that the angle of view includes a part or all of the face area to be included in the angle of view By providing the driving means for moving the surface, it is possible to automatically perform optimum zooming when there are a plurality of faces as in a group photo.

また、請求項2に記載した撮像装置は、請求項1の撮像装置であって、判定手段は、抽出した複数の顔認識領域の中で最大の面積となる顔認識領域に対する所定の比率を閾値とした顔認識領域面積の比較により判定することにより、集合写真の特徴である、顔認識領域の比較的近似する被写体環境で、ズーム動作の適合率を向上することができる
また、請求項3に記載した撮像装置は、請求項1,2の撮像装置であって、ズーム手段により望遠側にズーム動作するまたは移動手段により撮像面の移動位置を決定するための顔認識処理の実行前に、最も広角側にズーム動作を行うことにより、最も広い画角から顔認識領域を抽出することで、ズーム動作の適合率を向上させることができる。
The image pickup apparatus according to claim 2 is the image pickup apparatus according to claim 1, wherein the determination unit sets a predetermined ratio with respect to the face recognition area having the maximum area among the plurality of extracted face recognition areas as a threshold value. By making a comparison by comparing the areas of the face recognition areas, it is possible to improve the precision of zoom operation in a subject environment that is a characteristic of the group photo and that is relatively close to the face recognition area. The described imaging apparatus is the imaging apparatus according to claim 1 or 2, wherein the zooming unit zooms to the telephoto side or the moving unit determines the moving position of the imaging surface before performing the face recognition process. By performing the zoom operation to the wide angle side, the face recognition area is extracted from the widest field angle, thereby improving the zoom operation precision.

また、請求項4,5に記載した撮像装置は、請求項1〜3の撮像装置であって、画像データから複数の顔認識領域を抽出した場合、順次画角に含まれる顔の数が減少するように望遠側にズーム動作すること、さらに、順次画角に含まれる顔の数が増加するように広角側にズーム動作することにより、注目したい顔の数に応じて、ユーザの意図する構図の候補を段階的に、かつ容易な操作で自動的に設定できる。   Further, the imaging device according to claims 4 and 5 is the imaging device according to claims 1 to 3, wherein when a plurality of face recognition regions are extracted from the image data, the number of faces included in the angle of view sequentially decreases. The zooming operation to the telephoto side and the zooming operation to the wide-angle side so that the number of faces included in the angle of view sequentially increases, so that the composition intended by the user according to the number of faces to be noticed. Candidates can be automatically set in a stepwise and easy manner.

本発明によれば、集合写真等の複数の顔がある被写体に対して最適なズーミングを自動的に行うことができるという効果を奏する。   According to the present invention, it is possible to automatically perform optimal zooming on a subject having a plurality of faces such as a group photo.

以下、図面を参照して本発明における実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の実施の形態における撮像装置の概略構成を示すブロック図である。図1において、100A,100Bはズーム/フォーカス機能を有する撮影レンズとそれを駆動するモータである。101A,101BはCCD103へ露光する光量を制御する絞り兼シャッタとそれを駆動するモータである。モータ100B,101BはCPU200の制御信号に基づき、モータドライバ102によって駆動を制御される。   FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention. In FIG. 1, reference numerals 100A and 100B denote a photographing lens having a zoom / focus function and a motor for driving the photographing lens. Reference numerals 101A and 101B denote a diaphragm / shutter for controlling the amount of light to be exposed to the CCD 103 and a motor for driving the diaphragm / shutter. The motors 100 </ b> B and 101 </ b> B are controlled by a motor driver 102 based on a control signal from the CPU 200.

ズームポジションは(表1)に示すようにZp0(広角側)ないしZp8(望遠側)の全9段階ある。ここで、Zp0(広角側)におけるモニタリング中の画像データ(幅320×高さ240ピクセル)の座標空間を基準として、各ズームポジションZpにおける画角に相当する領域を正規化フレームF(0)〜F(8)として定義する。概念例として、図2に正規化フレームF(0),F(4),F(8)の領域例を示した。   As shown in (Table 1), there are nine zoom positions from Zp0 (wide angle side) to Zp8 (telephoto side). Here, with reference to the coordinate space of the image data (width 320 × height 240 pixels) being monitored at Zp0 (wide angle side), the area corresponding to the angle of view at each zoom position Zp is normalized frame F (0) to Define as F (8). As a conceptual example, FIG. 2 shows an example of regions of normalized frames F (0), F (4), and F (8).

Figure 2008227918
撮像部はCCD103によって生成される画像信号に対し、増幅器104Aで信号を増幅された後にA/D変換器104Bでデジタル画像信号に変換される。以上の各回路の同期はシグナルジェネレータ105により制御する。また、デジタル画像信号はVRAMコントローラ106を経由してVRAM107にピクセルごとの輝度色差画像データとして格納される。
Figure 2008227918
The imaging unit amplifies the signal generated by the CCD 103 with the amplifier 104A and then converts the image signal into a digital image signal with the A / D converter 104B. The synchronization of the above circuits is controlled by the signal generator 105. The digital image signal is stored as luminance color difference image data for each pixel in the VRAM 107 via the VRAM controller 106.

CCD103は、CCD駆動機構103Aによって光軸と垂直な平面上を一定の範囲内で連続的に移動することができる。また、CCD駆動機構103Aは、例えばセンサにホール素子、アクチュエータにボイスコイルと永久磁石を用いて、モータドライバ102により撮像面の駆動をサーボ制御する公知の手振れ補正機構を流用することで充当する。   The CCD 103 can be continuously moved within a certain range on a plane perpendicular to the optical axis by the CCD drive mechanism 103A. The CCD drive mechanism 103A is applied by using a known camera shake correction mechanism that servo-controls driving of the imaging surface by the motor driver 102 using, for example, a hall element as a sensor and a voice coil and a permanent magnet as an actuator.

撮像系を含む全体の制御はCPU200が行う。CPU200にはバスがあり、そこにVRAM107、画像データを拡大縮小するリサイズモジュール200A、画像データをJPEGコードに圧縮変換するJPEGコーダ200B、汎用メモリのSDRAM200C、DMA制御を行うDMAコントローラ200D、着脱が可能なメモリカード201との書き込み/読み出しを制御するカードコントローラ200E、LCDモニタ202へ出力するビデオ信号を生成するビデオコントローラ200F、および制御プログラムやシーン別に画像データが格納されたフラッシュメモリ200Gが接続されている。   The CPU 200 performs overall control including the imaging system. The CPU 200 has a bus, in which there is a VRAM 107, a resizing module 200A for enlarging / reducing image data, a JPEG coder 200B for compressing and converting image data into JPEG code, a SDRAM 200C for general-purpose memory, a DMA controller 200D for performing DMA control, and detachable. Are connected to a card controller 200E that controls writing / reading to / from the memory card 201, a video controller 200F that generates a video signal to be output to the LCD monitor 202, and a flash memory 200G in which image data is stored for each control program and scene. Yes.

また、CPU200への割り込み信号として、撮影記録を指向するレリーズキー120、および撮影シーンを設定するシーンボタン121等が操作ユニット109に設けられ、またタイマ割り込みを実施するためのクロックジェネレータ108がある。   Further, as an interrupt signal to the CPU 200, a release key 120 for directing shooting and recording, a scene button 121 for setting a shooting scene, and the like are provided in the operation unit 109, and there is a clock generator 108 for performing a timer interrupt.

本実施の形態における撮像装置の顔認識の判断には、モニタリング中に1フレームごとに更新されるVRAM107にある画像データをもとに所定時間ごとに行う。顔に相当すると思われる領域は、所定の局所窓をテンプレートとして、画素値に基づいた評価値算出によって検出する。以下にその方法について説明する。   In the present embodiment, the face recognition of the imaging apparatus is determined at predetermined time intervals based on image data in the VRAM 107 that is updated every frame during monitoring. A region that seems to correspond to a face is detected by evaluation value calculation based on pixel values using a predetermined local window as a template. The method will be described below.

判定評価する画像データ内の一部分に相当する位置および大きさに関して任意の矩形領域xに対し、領域の顔認識評価値f(x)を求める。f(x)の導出には、図3で示す4つのパターンA,B,C,Dからなる矩形領域xの局所窓iを用いる。   A face recognition evaluation value f (x) of an area is obtained for an arbitrary rectangular area x with respect to a position and size corresponding to a part in image data to be evaluated. For deriving f (x), the local window i of the rectangular region x composed of the four patterns A, B, C, and D shown in FIG. 3 is used.

なお、局所窓iの大きさ、領域内の相対位置は同一のパターンも含めて複数あり、それぞれ検出する顔の部位が異なるため、独立して特徴量を評価する。それぞれの局所窓iは2つの領域で構成され、正領域Apと逆領域Anがある(正逆の標記は識別のための便宜的なもので、正逆を反対に割り当てても同義である)。各局所窓iの特徴量h(i)は、局所窓iの正領域Apにおける画素値の総和s(i,Ap)と、逆領域Anにおける画素値の総和s(i,An)の差分、すなわち(数1)   Since there are a plurality of local windows i and relative positions in the region including the same pattern, and the detected face parts are different, the feature amounts are evaluated independently. Each local window i is composed of two regions, and includes a normal region Ap and a reverse region An (the forward / reverse notation is for convenience of identification, and it is synonymous to assign forward / reverse). . The feature value h (i) of each local window i is the difference between the sum s (i, Ap) of pixel values in the normal area Ap of the local window i and the sum s (i, An) of pixel values in the reverse area An, That is, (Equation 1)

Figure 2008227918
で求める。
Figure 2008227918
Ask for.

すべての局所窓iにおいて、特徴量h(i)が求まれば、局所窓iごとに所定の重み係数a(i)を用いて、領域の顔認識評価値fを局所窓iに関する加重総和を(数2)   If the feature value h (i) is obtained for all the local windows i, the face recognition evaluation value f of the area is calculated as a weighted sum related to the local window i using a predetermined weight coefficient a (i) for each local window i. (Equation 2)

Figure 2008227918
にて求める。各局所窓iの大きさ、相対位置、重み係数a(i)は予め顔画像のデータベースから学習によって得たデータを与える。例えば、本実施の形態では、(表2)のようなデータ群を与え、プログラム上では、それぞれ(表2)のS50に示すような等価な構造体の形式で扱う。
Figure 2008227918
Ask for. The size, relative position, and weighting factor a (i) of each local window i give data obtained by learning from a face image database in advance. For example, in the present embodiment, a data group as shown in (Table 2) is given and handled in the program in the form of an equivalent structure as shown in S50 of (Table 2).

Figure 2008227918
そして、本実施の形態では、図2に示した画像データを320×240ピクセル、評価する顔認識領域の最小サイズを40×40ピクセル、同最大サイズ240×240ピクセルとして、4ピクセル単位で評価する(図4参照)。また、(表2)に示す局所窓フレームの適用概念を図5に示す。
Figure 2008227918
In this embodiment, the image data shown in FIG. 2 is evaluated in units of 4 pixels, with 320 × 240 pixels, the minimum size of the face recognition area to be evaluated is 40 × 40 pixels, and the maximum size is 240 × 240 pixels. (See FIG. 4). Moreover, the application concept of the local window frame shown in (Table 2) is shown in FIG.

また、図6,図7は顔認識領域を判定して登録する処理の流れを示したフローチャートである。図6のフローチャートは顔認識領域のサイズが小さい領域から順次大きい領域へ、また画像の左上から順次右下へ、評価対象とする矩形領域xを決定する処理であり、図7のフローチャートは評価対象となる矩形領域xについて、(数2)により顔認識評価値f(x)を算出し、所定の閾値Thより大きい場合に顔認識領域としてデータ構造Frectの配列として追加登録する手続きを示している。   6 and 7 are flowcharts showing the flow of processing for determining and registering the face recognition area. The flowchart of FIG. 6 is a process for determining the rectangular area x to be evaluated from the area where the face recognition area is small to the large area, and from the upper left to the lower right of the image. The flowchart of FIG. For the rectangular area x, the face recognition evaluation value f (x) is calculated by (Equation 2), and when it is larger than a predetermined threshold Th, a procedure for additionally registering it as an array of the data structure Fract as a face recognition area is shown. .

本処理では画像空間の位置、サイズについて多様な部分領域について独立して評価するため、顔認識領域は複数抽出されることもある。すなわち、本実施の形態では、認識手法が想定する効果の範囲内で、複数の顔を認識することが可能である。   In this process, since various partial areas are independently evaluated with respect to the position and size of the image space, a plurality of face recognition areas may be extracted. That is, in the present embodiment, it is possible to recognize a plurality of faces within the range of effects assumed by the recognition method.

そして、以上の処理により顔認識領域として抽出したN個の顔認識領域は、構造体の配列Frect(i)(i=0,1,2,…,N)として格納される。また、各顔認識判定領域Frect(i)のデータ形式は図8で示すように、起点となる画像空間の左上の座標(Xb,Yb)、矩形の幅および高さ(Xdim,Ydim)、前記処理で得られた顔認識評価値Vにより構成される。   The N face recognition areas extracted as face recognition areas by the above processing are stored as a structure array Fract (i) (i = 0, 1, 2,..., N). Further, as shown in FIG. 8, the data format of each face recognition determination area Fract (i) is the upper left coordinates (Xb, Yb) of the starting image space, the width and height of the rectangle (Xdim, Ydim), It is comprised by the face recognition evaluation value V obtained by the process.

さらに、ズーム位置Zpを決定するためには、認識した顔認識領域から、その一部を重要被写体として決定する処理を行う。重要被写体の決定方法として、本実施の形態では、第1に顔認識領域の面積に基づく方法、第2に顔認識評価値に基づく方法を提示する。これらの方法はいずれの方法を用いても構わない。   Further, in order to determine the zoom position Zp, processing for determining a part of the recognized face recognition area as an important subject is performed. As a method for determining an important subject, in this embodiment, a method based on the area of the face recognition area is first presented, and a method based on the face recognition evaluation value is presented second. Any of these methods may be used.

以後は、便宜的にFrect(i)のパラメータ(起点(Xb,Yb)、サイズ(Xdim,Ydim)、評価値VをそれぞれFrect(i).Xbという形で表現する。)
第1の方法として、図9のフローチャートに示すように、所定の閾値ThS(0<ThS<1であり、代表的にはThS=0.5とする)を用いた領域の面積比で評価する。まず、前述した図7に示したフローチャートに基づきN個の顔認識領域を取得し(S11)、認識したN個の顔認識領域の構造体Frect(i):(i=0〜N−1)のソートを行う(S12)。ソートの基準は各構造体の領域縦横サイズ(Xdim,Ydim)から求まる領域の面積(Xdim×Ydim)で判定する。その結果、構造体が面積に応じてFrect(0)>Frect(1)>…>Frect(N−1)に並び変えられる。
Thereafter, for the sake of convenience, Fract (i) parameters (start point (Xb, Yb), size (Xdim, Ydim), and evaluation value V are expressed in the form of Fract (i) .Xb, respectively).
As a first method, as shown in the flowchart of FIG. 9, the evaluation is performed by the area ratio of a region using a predetermined threshold ThS (0 <ThS <1, typically ThS = 0.5). . First, N face recognition areas are acquired based on the flowchart shown in FIG. 7 (S11), and the structure Fect (i) of the recognized N face recognition areas: (i = 0 to N−1). Are sorted (S12). The sorting criterion is determined by the area (Xdim × Ydim) of the area obtained from the area vertical and horizontal sizes (Xdim, Ydim) of each structure. As a result, the structures are rearranged in the order of Fract (0)> Flect (1)>...> Flect (N-1) according to the area.

この時点で、面積が最大となる顔認識領域は、Frect(0)となるので、Frect(1)〜Frect(N−1)の各々の面積(Frect(i).Xdim×Frect(i).Ydim)と判定面積(Frect(0).Xdim×Frect(0).Ydim×ThS)を比較する(S13)。後者より前者が大きなk個(1≦k≦N、少なくとも1個(Frect(0))は条件を満たす)の顔認識領域Frect(0),Frect(1),…,Frect(k−1)を重要被写体と判定する(S14)。   At this time, the face recognition area having the maximum area is Fract (0), and therefore each area (Flect (i) .Xdim × Flect (i). Ydim) is compared with the determination area (Flect (0) .Xdim × Fect (0) .Ydim × ThS) (S13). The former is larger than the latter k (1 ≦ k ≦ N, and at least one (Fect (0)) satisfies the condition) face recognition regions Fect (0), Fract (1),..., Fect (k−1) Are determined to be important subjects (S14).

なお、前述した第2の顔認識評価値に基づく処理においても、図10に示すフローチャートのように、顔認識評価値Vを用いて図9のフローチャートと同様な処理行う。   In the process based on the second face recognition evaluation value described above, the same process as the flowchart of FIG. 9 is performed using the face recognition evaluation value V as in the flowchart shown in FIG.

そして、図11は重要被写体として認識した領域を含むようにズームポジションを決定する処理を示すフローチャート、図12(a)〜(d),図13(a)〜(d),図14が状態遷移図である。   FIG. 11 is a flowchart showing a process for determining a zoom position so as to include an area recognized as an important subject. FIGS. 12A to 12D, 13A to 13D, and FIG. FIG.

図11のフローチャートに示すように、集合写真のズーム処理として、まず、広角側(Zp0)へズームさせる(図12(a)に示す初期状態)(S21)。これは、顔認識評価するためのモニタリング画像を取得することを目的とする。この後、モニタリング画像から、評価する(320×240ピクセル)の画像データを取得する(S22)。次に重要被写体領域を取得するための重要被写体を判定するフローチャート(図9または図10)に入り、重要被写体となる顔認識領域の構造体Frect(0),Frect(1),…,Frect(k)を取得する(S23)。   As shown in the flowchart of FIG. 11, in the zoom process of the group photo, first, the zoom is performed to the wide angle side (Zp0) (initial state shown in FIG. 12A) (S21). The purpose of this is to acquire a monitoring image for face recognition evaluation. Thereafter, image data to be evaluated (320 × 240 pixels) is acquired from the monitoring image (S22). Next, a flowchart (FIG. 9 or FIG. 10) for determining an important subject for acquiring an important subject area is entered, and the structures Fect (0), Fract (1),... k) is acquired (S23).

この後、Frect(0)ないしFrect(k−1)を含むすべての領域を包含する最も広角側のズーム位置Zpを判定するため矩形領域Rを計算する(図12(b)参照)。さらに、(表1)に示す各ズーム位置Zp(0ないし8の9段階)に対応する前述の正規化フレームF(Zp)を用いて、矩形領域Rが収まる正規化フレームを判定する(図12(c)参照)(S24)。最後に、判定したズーム位置Zpへズームして、完了となる(図12(d)に示すZp1までズームした状態1)(S25)。   Thereafter, the rectangular area R is calculated in order to determine the zoom position Zp on the widest angle side including all areas including Fract (0) to Fract (k−1) (see FIG. 12B). Further, using the above-described normalized frame F (Zp) corresponding to each zoom position Zp (9 levels from 0 to 8) shown in (Table 1), a normalized frame in which the rectangular region R is accommodated is determined (FIG. 12). (See (c)) (S24). Finally, the zoom is made to the determined zoom position Zp, and the process is completed (Zoom 1 up to Zp1 shown in FIG. 12D) (S25).

また、本実施の形態では、Frect(0)のみを重要被写体として、前記と同様の方法により例えばFrect(0)の領域を包含する最も広角側のズーム位置Zpへ駆動する方法(図13(a)〜(d)参照)も提供する。この場合にモニタリング画像データで認識した顔認識領域において、複数の中の1つを選択し、これを矩形領域Rとし前述した処理を行うことで、ユーザの意図する重要被写体のズーム処理を行うことができる。   Further, in the present embodiment, a method of driving only Fract (0) as an important subject and driving to the zoom position Zp on the widest angle side including, for example, the Fract (0) region by the same method as described above (FIG. 13A). )-(D)). In this case, in the face recognition area recognized by the monitoring image data, one of a plurality of face recognition areas is selected, and this is set as a rectangular area R, and the above-described processing is performed to perform zoom processing of the important subject intended by the user. Can do.

この動作を、「WIDEキー」と「TELEキー」を用いて、図14に示すように双方向の状態遷移をすることで、特徴とする顔の数に応じた多段階のズームを提供することができる。   This operation is performed by using the “WIDE key” and the “TELE key” to perform bidirectional state transition as shown in FIG. 14 to provide multi-stage zooming according to the number of characteristic faces. Can do.

また、前述した処理において、矩形領域Rの収まる正規化フレームを判定してズーム処理を行ったが、矩形領域Rの中心位置を求めて、移動手段による撮像面の移動可能な範囲で画角の中央に移動させ、移動した矩形領域Rの収まる正規化フレームを判定してズーム処理を行ってもよく、ユーザの意図する重要被写体を中央に配置したズームを行うことができる。   In the above-described processing, the normalized frame in which the rectangular area R is accommodated is determined and zoom processing is performed. The center position of the rectangular area R is obtained, and the angle of view is within the movable range of the imaging surface by the moving means. The zoom processing may be performed by moving to the center and determining the normalized frame in which the moved rectangular area R is accommodated, and the zoom can be performed with the important subject intended by the user placed at the center.

本発明に係る撮像装置は、集合写真等の複数の顔がある被写体に対して最適なズーミングを自動的に行うことができ、顔認識手段を有する撮像装置において、複数の顔を認識した場合にフレーミングを自動化する機能として有用である。   The imaging apparatus according to the present invention can automatically perform optimum zooming on a subject having a plurality of faces such as a group photo, and when the imaging apparatus having face recognition means recognizes a plurality of faces. This is useful as a function for automating framing.

本発明の実施の形態における撮像装置の概略構成を示すブロック図1 is a block diagram illustrating a schematic configuration of an imaging device according to an embodiment of the present invention. 正規化フレームの概念を示す図Diagram showing the concept of normalized frames 顔認識判定フレームのパターンを示す図The figure which shows the pattern of the face recognition judgment frame 内部処理データの構造例を示す図Diagram showing an example of the structure of internal processing data 顔認識判定フレームの適用概念を示す図The figure which shows the application concept of a face recognition determination frame 顔認識領域を判定して登録する処理における評価対象領域の取得処理を示すフローチャートFlowchart showing an evaluation target area acquisition process in a process of determining and registering a face recognition area 顔認識領域を判定して登録する処理における顔認識領域の取得処理を示すフローチャートThe flowchart which shows the acquisition process of the face recognition area in the process which determines and registers a face recognition area 顔認識矩形領域のデータ構造例を示す図The figure which shows the example of a data structure of a face recognition rectangular area 重要被写体判定処理を示すフローチャートFlow chart showing important subject determination processing 別の重要被写体判定処理を示すフローチャートFlowchart showing another important subject determination process 自動ズーム処理を示すフローチャートFlow chart showing automatic zoom processing 自動ズーム処理した状態遷移(a)〜(d)を示す図The figure which shows the state transition (a)-(d) which carried out the automatic zoom process 図12からさらに自動ズーム処理した状態遷移(a)〜(d)を示す図The figure which shows the state transition (a)-(d) which carried out the automatic zoom process further from FIG. 「WIDEキー」、「TELEキー」を用いた双方向の状態遷移を説明する図Diagram illustrating bidirectional state transition using “WIDE key” and “TELE key”

符号の説明Explanation of symbols

100A ズーム/フォーカスレンズ
100B,101B モータ
101A シャッタ/絞り
102 モータドライバ
103 CCD
103A CCD駆動機構
104A 増幅器
104b A/D変換器
105 シグナルジェネレータ
106 VRAMコントローラ
107 VRAM
108 クロックジェネレータ
109 操作ユニット
200 CPU
200A リサイズモジュール
200B JPEGコーダ
200C SDRAM
200D DMAコントローラ
200E カードコントローラ
200F ビデオコントローラ
201 メモリカード
202 LCDモニタ
100A Zoom / focus lens 100B, 101B Motor 101A Shutter / aperture 102 Motor driver 103 CCD
103A CCD drive mechanism 104A Amplifier 104b A / D converter 105 Signal generator 106 VRAM controller 107 VRAM
108 Clock generator 109 Operation unit 200 CPU
200A Resize module 200B JPEG coder 200C SDRAM
200D DMA controller 200E Card controller 200F Video controller 201 Memory card 202 LCD monitor

Claims (5)

撮像面を所定の範囲内で移動する移動手段と、光学的に焦点距離を変更するズーム手段と、モニタリング中の画像データから複数の顔を認識し、顔認識領域を抽出する抽出手段とを有する撮像装置において、
前記画像データから複数の顔認識領域を抽出した場合、各々認識した顔認識領域の面積または周長に基づいて、画角に含むべき顔の領域とするか判定する判定手段と、
前記画角に含むべき顔の領域の一部またはすべてを含む画角になるように自動的にズームするまたは撮像面を移動する駆動手段と、
を備えたことを特徴とする撮像装置。
A moving unit that moves the imaging surface within a predetermined range; a zoom unit that optically changes a focal length; and an extracting unit that recognizes a plurality of faces from the image data being monitored and extracts a face recognition area. In the imaging device,
When extracting a plurality of face recognition areas from the image data, based on the area or circumference of each recognized face recognition area, determination means for determining whether the face area should be included in the angle of view;
Driving means for automatically zooming or moving the imaging surface so that the angle of view includes a part or all of the face area to be included in the angle of view;
An imaging apparatus comprising:
前記判定手段は、抽出した複数の顔認識領域の中で最大の面積となる顔認識領域に対する所定の比率を閾値とした顔認識領域面積の比較により判定することを特徴とする請求項1の撮像装置。   2. The imaging according to claim 1, wherein the determination unit makes a determination by comparing face recognition area areas with a predetermined ratio to a face recognition area having a maximum area among the plurality of extracted face recognition areas as a threshold value. apparatus. 前記ズーム手段により望遠側にズーム動作するまたは前記移動手段により撮像面の移動位置を決定するための顔認識処理の実行前に、最も広角側にズーム動作を行うことを特徴とする請求項1または2記載の撮像装置。   The zoom operation is performed to the widest angle side before performing a face recognition process for performing a zoom operation on the telephoto side by the zoom unit or determining a moving position of the imaging surface by the moving unit. 2. The imaging device according to 2. 前記画像データから複数の顔認識領域を抽出した場合、順次画角に含まれる顔の数が減少するように望遠側にズーム動作することを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   4. The zoom operation according to claim 1, wherein when a plurality of face recognition areas are extracted from the image data, the zoom operation is performed toward the telephoto side so that the number of faces included in the angle of view sequentially decreases. The imaging device described. 前記画像データから複数の顔認識領域を抽出した場合、順次画角に含まれる顔の数が増加するように広角側にズーム動作することを特徴とする請求項4記載の撮像装置。   5. The image pickup apparatus according to claim 4, wherein when a plurality of face recognition areas are extracted from the image data, the zoom operation is performed to the wide angle side so that the number of faces included in the angle of view sequentially increases.
JP2007063282A 2007-03-13 2007-03-13 Imaging device Pending JP2008227918A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007063282A JP2008227918A (en) 2007-03-13 2007-03-13 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007063282A JP2008227918A (en) 2007-03-13 2007-03-13 Imaging device

Publications (1)

Publication Number Publication Date
JP2008227918A true JP2008227918A (en) 2008-09-25

Family

ID=39845994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007063282A Pending JP2008227918A (en) 2007-03-13 2007-03-13 Imaging device

Country Status (1)

Country Link
JP (1) JP2008227918A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113129A (en) * 2008-11-06 2010-05-20 Nikon Corp Image tracking device, focusing device, and image capturing apparatus
JP2010278797A (en) * 2009-05-29 2010-12-09 Canon Inc Image encoder
WO2011016322A1 (en) * 2009-08-04 2011-02-10 オリンパス株式会社 Imaging device, editing device, and imaging system
JP2011034311A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
US8009205B2 (en) 2007-02-13 2011-08-30 Ricoh Company, Ltd. Imaging device and control method of imaging device
US8269858B2 (en) 2008-05-21 2012-09-18 Panasonic Corporation Image pickup device, image pickup method, and integrated circuit
CN106231200A (en) * 2016-08-29 2016-12-14 广东欧珀移动通信有限公司 A kind of photographic method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0898083A (en) * 1994-09-27 1996-04-12 Sony Corp Controlling method for signal extract area of image pickup device
JP2004193933A (en) * 2002-12-11 2004-07-08 Canon Inc Image enlargement display method, its apparatus, and medium program
JP2005182196A (en) * 2003-12-16 2005-07-07 Canon Inc Image display method and image display device
JP2005354333A (en) * 2004-06-10 2005-12-22 Casio Comput Co Ltd Image reproducer and program
JP2006148344A (en) * 2004-11-17 2006-06-08 Fuji Photo Film Co Ltd Edit condition setting apparatus and edit condition setting program for photo movie
JP2006197505A (en) * 2005-01-17 2006-07-27 Sony Corp Camera controller, camera system, electronic conference system and camera control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0898083A (en) * 1994-09-27 1996-04-12 Sony Corp Controlling method for signal extract area of image pickup device
JP2004193933A (en) * 2002-12-11 2004-07-08 Canon Inc Image enlargement display method, its apparatus, and medium program
JP2005182196A (en) * 2003-12-16 2005-07-07 Canon Inc Image display method and image display device
JP2005354333A (en) * 2004-06-10 2005-12-22 Casio Comput Co Ltd Image reproducer and program
JP2006148344A (en) * 2004-11-17 2006-06-08 Fuji Photo Film Co Ltd Edit condition setting apparatus and edit condition setting program for photo movie
JP2006197505A (en) * 2005-01-17 2006-07-27 Sony Corp Camera controller, camera system, electronic conference system and camera control method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8009205B2 (en) 2007-02-13 2011-08-30 Ricoh Company, Ltd. Imaging device and control method of imaging device
US8269858B2 (en) 2008-05-21 2012-09-18 Panasonic Corporation Image pickup device, image pickup method, and integrated circuit
JP2010113129A (en) * 2008-11-06 2010-05-20 Nikon Corp Image tracking device, focusing device, and image capturing apparatus
JP2010278797A (en) * 2009-05-29 2010-12-09 Canon Inc Image encoder
JP2011034311A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
WO2011016322A1 (en) * 2009-08-04 2011-02-10 オリンパス株式会社 Imaging device, editing device, and imaging system
CN106231200A (en) * 2016-08-29 2016-12-14 广东欧珀移动通信有限公司 A kind of photographic method and device

Similar Documents

Publication Publication Date Title
JP4290100B2 (en) Imaging apparatus and control method thereof
EP3499863B1 (en) Method and device for image processing
US7672580B2 (en) Imaging apparatus and method for controlling display device
US7801432B2 (en) Imaging apparatus and method for controlling the same
US8885091B2 (en) Imaging device and distance information detecting method
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP1522952B1 (en) Digital camera
JP2006211139A (en) Imaging apparatus
US8411159B2 (en) Method of detecting specific object region and digital camera
US7957633B2 (en) Focus adjusting apparatus and focus adjusting method
JP2006208558A (en) Imaging device
JP4624947B2 (en) Image trimming method, apparatus and program
JP2003344891A (en) Automatic photographing mode setting camera
JP2008271241A (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2008227918A (en) Imaging device
JP2008176152A (en) Imaging apparatus
JP2007324965A (en) Digital camera, photography control method, and image output system
JP4853707B2 (en) Imaging apparatus and program thereof
US20070002463A1 (en) Image capturing apparatus
CN108289170B (en) Photographing apparatus, method and computer readable medium capable of detecting measurement area
JP2007150602A (en) Electronic camera
KR101094648B1 (en) Auto Photograph Robot for Taking a Composed Picture and Method Thereof
US20130044212A1 (en) Imaging device and distance information detecting method
JP2010028446A (en) Imaging apparatus, imaging method, and program
JP2006301172A (en) Imaging apparatus and method for controling imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100614

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120117