JP2008301162A - Photography device, and photographing method - Google Patents

Photography device, and photographing method Download PDF

Info

Publication number
JP2008301162A
JP2008301162A JP2007144534A JP2007144534A JP2008301162A JP 2008301162 A JP2008301162 A JP 2008301162A JP 2007144534 A JP2007144534 A JP 2007144534A JP 2007144534 A JP2007144534 A JP 2007144534A JP 2008301162 A JP2008301162 A JP 2008301162A
Authority
JP
Japan
Prior art keywords
face
image
motion vector
extracted
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007144534A
Other languages
Japanese (ja)
Inventor
Daiki Miura
大樹 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007144534A priority Critical patent/JP2008301162A/en
Publication of JP2008301162A publication Critical patent/JP2008301162A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photography device which photographs a person who moves in a distance direction while stably tracking him/her. <P>SOLUTION: When a face is extracted, processing by a face extraction circuit 75 stops. A zoom lens 41 is controlled on the basis of size of the extracted face and the face is kept to fixed size in an image. In addition, the attitude of a monitoring camera 21 is controlled on the basis of the motion vector of the face, the face is tracked in the image and kept to a fixed position. Photography while tracking the face is sequentially performed on the basis of motion vectors obtained by each frame. When the motion vector of the face becomes no longer detected, the processing by the face extraction circuit 75 is started again. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、移動する人物を追跡しながら撮影する撮影装置、及び撮影方法に関する。   The present invention relates to a photographing apparatus and a photographing method for photographing while tracking a moving person.

近年、店舗その他の施設、公共の場などに監視カメラが設置されることが多くなっている。監視カメラとはその周囲を動画撮影する撮影装置のことであり、動画撮影された画像を記録したりモニタで監視したりすることができる。   In recent years, surveillance cameras are often installed in stores, other facilities, and public places. The surveillance camera is an imaging device that captures a moving image of the surroundings, and can record an image captured by the moving image or monitor it with a monitor.

このような撮影装置には、一定方向を撮影する固定式のもの(例えば、特許文献1参照)、上下左右に旋回して方向可変に撮影する全方位式のもの(例えば、特許文献2参照)、焦点距離を周期的に変化させて撮影する焦点距離可変式のもの(例えば、特許文献3参照)などがある。   As such an imaging apparatus, a fixed type that captures a certain direction (see, for example, Patent Document 1), and an omnidirectional type that rotates in the up, down, left, and right directions to capture a variable direction (for example, see Patent Document 2) There is a variable focal length type (for example, refer to Patent Document 3) that shoots by changing the focal length periodically.

また、最近では、移動する人物を追跡しながらの撮影を可能にした撮影装置がある(例えば、特許文献4,5参照)。人物の追跡には、動画撮影された画像から検出される動きベクトルが利用されている。なお、動きベクトルは、フレーム間で画像同士を比較して同一被写体として対応する画素を識別した上で検出される。
特開2005−239313号公報 特開2001−094838号公報 特開2006−262225号公報 特開2001−268425号公報 特開平06−339056号公報
In addition, recently, there is a photographing apparatus that enables photographing while tracking a moving person (see, for example, Patent Documents 4 and 5). For tracking a person, a motion vector detected from a moving image is used. The motion vector is detected after comparing the images between frames and identifying corresponding pixels as the same subject.
JP 2005-239313 A JP 2001-094838 A JP 2006-262225 A JP 2001-268425 A Japanese Patent Laid-Open No. 06-339056

しかしながら、特許文献4,5記載の撮影装置では、遠近方向に移動して画像内で拡縮する人物に関し、動きベクトルが検出できず追跡できない虞がある。   However, in the photographing apparatuses described in Patent Documents 4 and 5, there is a possibility that a motion vector cannot be detected and tracked with respect to a person who moves in the perspective direction and scales in the image.

本発明は、上記課題を鑑みてなされたものであり、遠近方向に移動する人物を安定的に追跡しながら撮影する撮影装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus that captures an image while stably tracking a person who moves in the perspective direction.

上記目的を達成するために、本発明の撮影装置は、移動する人物を追跡しながら撮影する撮影装置であって、動画撮影して画像を取得する撮影手段と、画像から人物の顔を抽出する処理を間欠的に繰り返す顔抽出手段と、顔抽出手段によって抽出された顔の移動量及び方向を示す動きベクトルを検出する動き検出手段と、動きベクトルに基づいて撮影手段の姿勢を制御する姿勢制御手段とを備えたことを特徴とする。   In order to achieve the above object, an imaging apparatus of the present invention is an imaging apparatus that captures images while tracking a moving person, and captures a moving image to acquire an image, and extracts a person's face from the image. Face extraction means for intermittently repeating the process, motion detection means for detecting a motion vector indicating the amount and direction of movement of the face extracted by the face extraction means, and posture control for controlling the posture of the photographing means based on the motion vector Means.

なお、焦点距離を変化させる焦点距離調節手段と、顔抽出手段によって抽出される顔の大きさに基づいて焦点距離調節手段の駆動を制御する駆動制御手段とを備えていることが好ましい。   It is preferable to include a focal length adjusting unit that changes the focal length and a drive control unit that controls the driving of the focal length adjusting unit based on the size of the face extracted by the face extracting unit.

また、動きベクトルが検出されなくなると、顔抽出手段は、顔の抽出を再度行うことが好ましい。   Further, when no motion vector is detected, it is preferable that the face extraction unit performs face extraction again.

本発明の撮影方法は、移動する人物を追跡しながら撮影する撮影方法であって、動画撮影によって取得される画像から人物の顔を抽出することを間欠的に繰り返すとともに、抽出された顔の移動量及び方向を示す動きベクトルを検出し、その動きベクトルに基づいて撮影方向を制御することを特徴とする。   The photographing method of the present invention is a photographing method of photographing while tracking a moving person, and intermittently repeats extracting a person's face from an image acquired by moving image photographing and moves the extracted face. A motion vector indicating the amount and direction is detected, and the shooting direction is controlled based on the motion vector.

なお、抽出される顔の大きさに基づいて焦点距離を制御することが好ましい。   Note that it is preferable to control the focal length based on the size of the extracted face.

また、動きベクトルが検出されなくなったときに顔の抽出を再度行うことが好ましい。   It is also preferable to perform face extraction again when no motion vector is detected.

本発明の撮影装置、及び撮影方法によれば、動画撮影によって取得される画像から人物の顔を抽出することを間欠的に繰り返すとともに、抽出された顔の動きベクトルを検出し、その動きベクトルに基づいて撮影方向を制御するので、人物が遠近方向に移動する場合であっても人物を安定的に追跡しながら撮影することができる。   According to the photographing apparatus and the photographing method of the present invention, the extraction of a person's face from an image acquired by moving image photographing is repeated intermittently, the motion vector of the extracted face is detected, and the motion vector is extracted. Since the shooting direction is controlled based on this, it is possible to take a picture while stably tracking the person even when the person moves in the perspective direction.

また、抽出される被写体の大きさに基づいて焦点距離を制御するので、遠近方向に移動する人物を画像内で一定の大きさに保ちつつ追跡することができる。   In addition, since the focal length is controlled based on the size of the extracted subject, it is possible to track a person moving in the perspective direction while maintaining a constant size in the image.

以下、本発明の監視カメラ(撮影装置)21について、図面を参照しながら説明する。図1に示すように、監視カメラ21のハウジング22前面には、撮影レンズ51(図2参照)を保護する透明な保護プレート23が設けられている。ハウジング22の下面には、取付けアーム24の先端に設けられた姿勢制御機構25が接続されている。姿勢制御機構25は、ハウジング22を上下方向(U,D)及び左右方向(L,R)に回動させ、監視カメラ21の姿勢を制御する。なお、このような姿勢制御機構25は周知技術であり、具体的な説明は省略する。   Hereinafter, the surveillance camera (imaging device) 21 of the present invention will be described with reference to the drawings. As shown in FIG. 1, a transparent protective plate 23 that protects the photographing lens 51 (see FIG. 2) is provided on the front surface of the housing 22 of the monitoring camera 21. An attitude control mechanism 25 provided at the tip of the mounting arm 24 is connected to the lower surface of the housing 22. The attitude control mechanism 25 controls the attitude of the monitoring camera 21 by rotating the housing 22 in the vertical direction (U, D) and the horizontal direction (L, R). Note that such a posture control mechanism 25 is a well-known technique and will not be described in detail.

図2に示すように、監視カメラ21には、ズームレンズ41、絞り42、フォーカスレンズ43、及びCCDイメージセンサ44が設けられている。ズームレンズ(焦点距離調節手段)41は、変倍用レンズモータ45の駆動によって変倍する。絞り42は、アイリスモータ46の駆動によって口径を変える。フォーカスレンズ43は、合焦用レンズモータ47の駆動によってピントを調整する。これらモータ45〜47は、CPU48に接続されたモータドライバ49を介して駆動が制御される。モータドライバ49には、上記モータ45〜47の他、姿勢制御機構25を駆動する姿勢制御用モータ50が接続されている。姿勢制御機構25は、姿勢制御用モータ50の駆動によって監視カメラ21の姿勢を制御する。なお、ズームレンズ41、絞り42、及びフォーカスレンズ43によって撮影レンズ51が構成される。   As shown in FIG. 2, the monitoring camera 21 is provided with a zoom lens 41, a diaphragm 42, a focus lens 43, and a CCD image sensor 44. The zoom lens (focal length adjusting means) 41 changes magnification by driving a magnification changing lens motor 45. The aperture 42 changes its aperture by driving the iris motor 46. The focus lens 43 adjusts the focus by driving the focusing lens motor 47. Driving of these motors 45 to 47 is controlled via a motor driver 49 connected to the CPU 48. In addition to the motors 45 to 47, the motor driver 49 is connected to a posture control motor 50 that drives the posture control mechanism 25. The attitude control mechanism 25 controls the attitude of the monitoring camera 21 by driving the attitude control motor 50. The zoom lens 41, the aperture 42, and the focus lens 43 constitute a photographing lens 51.

CCDイメージセンサ44には、CPU48によって制御されるタイミングジェネレータ(TG)53が接続されている。CCDイメージセンサ(撮影手段)44は、タイミングジェネレータ53から入力されるタイミング信号(クロックパルス)により駆動し、被写体光を結像させて撮像する。   A timing generator (TG) 53 controlled by the CPU 48 is connected to the CCD image sensor 44. The CCD image sensor (photographing means) 44 is driven by a timing signal (clock pulse) input from the timing generator 53 to form an image of subject light and image it.

CCDイメージセンサ44から得られる撮像信号は、CDS(相関二重サンプリング回路)54、AMP(増幅器)55に入力される。CDS54は、CCDイメージセンサ44の各セルの蓄積電荷量に正確に対応したR,G,Bの画像データを出力し、AMP55は、画像データを増幅する。増幅された画像データは、A/D変換器56でデジタル信号に変換される。   An imaging signal obtained from the CCD image sensor 44 is input to a CDS (correlated double sampling circuit) 54 and an AMP (amplifier) 55. The CDS 54 outputs R, G, B image data that accurately corresponds to the amount of charge stored in each cell of the CCD image sensor 44, and the AMP 55 amplifies the image data. The amplified image data is converted into a digital signal by the A / D converter 56.

画像入力コントローラ57は、データバス58を介してCPU48に接続され、CPU48の制御命令に応じてCCDイメージセンサ44、CDS54、AMP55、及びA/D変換器56を制御する。A/D変換器56から出力される画像データは、所定間隔毎に出力され、SDRAM59に一時的に格納される。SDRAM59は、作業用メモリである。   The image input controller 57 is connected to the CPU 48 via the data bus 58, and controls the CCD image sensor 44, the CDS 54, the AMP 55, and the A / D converter 56 in accordance with a control command from the CPU 48. The image data output from the A / D converter 56 is output at predetermined intervals and temporarily stored in the SDRAM 59. The SDRAM 59 is a working memory.

画像信号処理回路60は、SDRAM59から画像データを読み出して、階調変換、ホワイトバランス(WB)補正、γ補正などの各種画像処理を施し、この画像データを再度SDRAM59に格納する。YC変換処理回路61は、画像信号処理回路60で各種処理の施された画像データをSDRAM59から読み出して、輝度信号Yと色差信号C,Cとに変換する。 The image signal processing circuit 60 reads the image data from the SDRAM 59, performs various image processing such as gradation conversion, white balance (WB) correction, and γ correction, and stores the image data in the SDRAM 59 again. The YC conversion processing circuit 61 reads the image data subjected to various processes by the image signal processing circuit 60 from the SDRAM 59 and converts it into a luminance signal Y and color difference signals C r and C b .

VRAM62は、通信I/F63を介して接続される外部機器のモニタ(図示せず)にスルー画像を出力するためのメモリであり、画像信号処理回路60、YC変換処理回路61を経た画像データが格納される。このVRAM62には、画像データの書込みと読出しとを並行して行えるように、2フレーム分のメモリが確保されている。VRAM62に格納された画像データは、モニタドライバ(図示せず)でアナログのコンポジット信号に変換され、モニタにスルー画像として表示される。   The VRAM 62 is a memory for outputting a through image to a monitor (not shown) of an external device connected via the communication I / F 63, and image data that has passed through the image signal processing circuit 60 and the YC conversion processing circuit 61 is stored in the VRAM 62. Stored. The VRAM 62 has a memory for two frames so that image data can be written and read in parallel. The image data stored in the VRAM 62 is converted into an analog composite signal by a monitor driver (not shown) and displayed as a through image on the monitor.

通信I/F63には、電源制御回路64が接続されている。電源制御回路64は、例えば、電源ノイズを除去するためのフィルタや過電流を防止するためのリミッタなどから構成され、通信I/F63を介して外部機器から供給されるバスパワーを、DC/DCコンバータ65を通して監視カメラ21の各部に供給する。また、各種画像処理が施された後、VRAM62に格納された画像データは、通信I/F63に出力され、外部機器に送信される。   A power supply control circuit 64 is connected to the communication I / F 63. The power supply control circuit 64 includes, for example, a filter for removing power supply noise and a limiter for preventing overcurrent. The power supply control circuit 64 converts the bus power supplied from the external device via the communication I / F 63 to DC / DC. This is supplied to each part of the monitoring camera 21 through the converter 65. In addition, after various image processing is performed, the image data stored in the VRAM 62 is output to the communication I / F 63 and transmitted to an external device.

圧縮伸長処理回路66は、YC変換処理回路61でYC変換された画像データに対して、所定の圧縮形式(例えば、MPEG形式)で画像圧縮を施す。圧縮された画像データは、通信I/F63を介して接続される外部機器の記録媒体(図示せず)に記録される。なお、圧縮伸長処理回路66は、動きベクトルを検出する動き検出器67と、動きベクトルを利用した動き補償処理をする動き補償器68とを構成に含む。   The compression / decompression processing circuit 66 performs image compression on the image data YC converted by the YC conversion processing circuit 61 in a predetermined compression format (for example, MPEG format). The compressed image data is recorded on a recording medium (not shown) of an external device connected via the communication I / F 63. Note that the compression / decompression processing circuit 66 includes a motion detector 67 that detects a motion vector and a motion compensator 68 that performs motion compensation processing using the motion vector.

動き検出器(動き検出手段)67は、第Nフレームの画像に関し、直前の第(N−1)フレームの画像とパターンマッチングにより比較して動きベクトルを検出する。動きベクトルとは、フレーム間で同一のパターンを有したマクロブロック(例えば、8×8画素)の空間的距離及び方向を表すものである。   The motion detector (motion detection means) 67 detects the motion vector by comparing the image of the Nth frame with the image of the immediately preceding (N−1) frame by pattern matching. The motion vector represents the spatial distance and direction of a macroblock (for example, 8 × 8 pixels) having the same pattern between frames.

例えば、図3(A)に示す第(N−1)フレームの画像と、図3(B)に示す第Nフレームの画像とに関し、画像フレームの上端からn個目、左端からm個目の画素をan−1,m−1とすると、第Nフレームにおけるa0,0〜a0,7,a1,0〜a1,7,a2,0〜a2,7,a3,0〜a3,7,a4,0〜a4,7,a5,0〜a5,7,a6,0〜a6,7,a7,0〜a7,7の画素から構成されるマクロブロック101は、第(N−1)フレームにおけるa3,4〜a3,11,a4,4〜a4,11,a5,4〜a5,11,a6,4〜a6,11,a7,4〜a7,11,a8,4〜a8,11,a9,4〜a9,11,a10,4〜a10,11の画素から構成されるマクロブロック102と同一のパターンを有しており、同一被写体として対応する。つまり、第Nフレームにおけるマクロブロック101の動きベクトル103は、左方向に4画素分、上方向に3画素分の距離及び方向を表す。 For example, regarding the (N-1) th frame image shown in FIG. 3A and the Nth frame image shown in FIG. 3B, the nth frame from the upper end of the image frame and the mth frame from the left end. If the pixel is a n-1, m-1 , a 0,0 ~a 0,7 in the n frame, a 1,0 ~a 1,7, a 2,0 ~a 2,7, a 3, 0 to a 3,7 , a 4,0 to a 4,7 , a 5,0 to a 5,7 , a 6,0 to a 6,7 , a 7,0 to a 7,7 The macroblocks 101 are a 3,4 to a 3,11 , a 4,4 to a 4,11 , a 5,4 to a 5,11 , a 6,4 to, in the (N-1) th frame. a 6,11, a 7,4 ~a 7,11, a 8,4 ~a 8,11, a 9,4 ~a 9,11, composed of pixels of a 10, 4 ~a 10, 11 Black blocks 102 have the same pattern as the corresponding as the same subject. That is, the motion vector 103 of the macroblock 101 in the Nth frame represents the distance and direction for four pixels in the left direction and three pixels in the upward direction.

動き補償器68は、第(N−1)フレームの画像(図3(A)参照)と、動き検出器67によって検出される第Nフレームの動きベクトル103(図3(B)参照)とを受けてフレーム間で空間的に移動する被写体を追従し、第Nフレームの画像を予測してフレーム間の差分画像を求める。   The motion compensator 68 generates an image of the (N−1) th frame (see FIG. 3A) and a motion vector 103 of the Nth frame detected by the motion detector 67 (see FIG. 3B). In response, a subject moving spatially between frames is followed, and an image of the Nth frame is predicted to obtain a difference image between frames.

ここで、撮影距離に変動を生じさせない方向に移動する被写体が撮影される場合を例に説明する。なお、画像は4×4個のマクロブロックBLK0〜BLK15に分割されているとする。また、監視カメラ21は一定の方向を撮影していると仮定する。図4(A)に示す第(N−1)フレームのマクロブロックBLK5に映る人物の顔104は、マクロブロックBLK5の動きベクトル105(図4(B)参照)によって追従され、図4(B)に示す第Nフレームの画像が予測されてフレーム間の差分画像が求められる。このようにフレーム間で共通するデータを差し引いてその差分画像を求めることで、高い圧縮効率を得ることができる。   Here, a case where a subject moving in a direction that does not cause a change in the shooting distance is shot will be described as an example. It is assumed that the image is divided into 4 × 4 macroblocks BLK0 to BLK15. Further, it is assumed that the monitoring camera 21 is shooting in a certain direction. The human face 104 shown in the macroblock BLK5 of the (N-1) th frame shown in FIG. 4A is followed by the motion vector 105 (see FIG. 4B) of the macroblock BLK5, and FIG. The image of the Nth frame shown in Fig. 6 is predicted, and a difference image between frames is obtained. Thus, high compression efficiency can be obtained by subtracting data that is common between frames and obtaining the difference image.

一方、撮影距離に変動を生じさせる方向に移動する被写体が撮影される場合を例に説明する。なお、画像は4×4個のマクロブロックBLK0〜BLK15に分割されているとする。また、監視カメラ21は一定の方向を撮影していると仮定する。図5(A)に示す第(N−1)フレームのマクロブロックBLK5に映る人物の顔104は、図5(B)に示す第Nフレームでは拡大されてマクロブロックBLK6,BLK10に映る。つまり、動き検出器67は、パターンマッチングによる画像同士の比較では、被写体の拡縮により人物の顔104として対応するマクロブロックを認識することができず、その動きベクトルを検出することもできない。動きベクトルを検出することができないので、動き補償器68は、第Nフレームの画像を予測することができず、フレーム間の差分画像を求めることができない。なお、検出することができない動きベクトルは、詳しくは後述する顔抽出回路75による処理によって補間される。   On the other hand, an example will be described in which a subject moving in a direction that causes a change in the shooting distance is shot. It is assumed that the image is divided into 4 × 4 macroblocks BLK0 to BLK15. Further, it is assumed that the monitoring camera 21 is shooting in a certain direction. The human face 104 shown in the macroblock BLK5 of the (N-1) th frame shown in FIG. 5A is enlarged and shown in the macroblocks BLK6 and BLK10 in the Nth frame shown in FIG. 5B. In other words, the motion detector 67 cannot recognize the corresponding macroblock as the human face 104 due to the scaling of the subject and cannot detect the motion vector in the comparison of the images by pattern matching. Since the motion vector cannot be detected, the motion compensator 68 cannot predict the image of the Nth frame and cannot obtain a difference image between the frames. Note that motion vectors that cannot be detected are interpolated by processing by a face extraction circuit 75 described later in detail.

CPU48には、モータドライバ49などの他、EEPROM69が接続されている。EEPROM69には、各種制御用プログラムや設定情報などが記録されている。CPU48は、これらの情報をEEPROM69からSDRAM59に読み出して、各種処理を実行する。   In addition to the motor driver 49 and the like, an EEPROM 69 is connected to the CPU 48. In the EEPROM 69, various control programs and setting information are recorded. The CPU 48 reads these pieces of information from the EEPROM 69 to the SDRAM 59 and executes various processes.

データバス58には、ズームレンズ41の合焦位置が適切か否かを検出するAF検出回路72と、CCDイメージセンサ44の撮影感度や、絞り42の絞り値といった露光条件が撮影に適切か否かを検出するAE検出回路73と、ホワイトバランス補正が撮影に適切か否かを検出するAWB検出回路74とが接続されている。   The data bus 58 includes an AF detection circuit 72 that detects whether or not the focus position of the zoom lens 41 is appropriate, and whether or not the exposure conditions such as the imaging sensitivity of the CCD image sensor 44 and the aperture value of the aperture 42 are appropriate for imaging. Are connected to an AE detection circuit 73 for detecting whether or not white balance correction is appropriate for photographing.

各検出回路72〜74は、データバス58を介してCPU48に検出結果を逐次送信する。CPU48は、各検出回路72〜74から送信される検出結果に基づいて、ズームレンズ41、絞り42、フォーカスレンズ43、CCDイメージセンサ44などの動作を個別に制御する。   Each of the detection circuits 72 to 74 sequentially transmits detection results to the CPU 48 via the data bus 58. The CPU 48 individually controls operations of the zoom lens 41, the diaphragm 42, the focus lens 43, the CCD image sensor 44, and the like based on the detection results transmitted from the detection circuits 72 to 74.

AF検出回路72は、コントラスト検出方式によりフォーカス制御を行う。先ず、画像の合焦状態を評価するために予め設定された1つ又は複数の合焦評価領域(AFエリア)に基づいて人物の顔など被写体までの撮影距離を算出し、フォーカスレンズ43の合焦位置を決定する。   The AF detection circuit 72 performs focus control by a contrast detection method. First, a shooting distance to a subject such as a person's face is calculated based on one or a plurality of focus evaluation areas (AF areas) set in advance to evaluate the in-focus state of the image. Determine the focal position.

AE・AWB検出回路73,74は、所定間隔毎にVRAM62に格納された画像データの輝度情報に基づいて適正な露光値、及びホワイトバランスの補正量を算出し、これらの情報をCPU48に送る。CPU48は、得られる情報に基づいて絞り42や画像処理の制御を連続的に行う。   The AE / AWB detection circuits 73 and 74 calculate appropriate exposure values and white balance correction amounts based on the luminance information of the image data stored in the VRAM 62 at predetermined intervals, and send these pieces of information to the CPU 48. The CPU 48 continuously controls the aperture 42 and image processing based on the obtained information.

また、データバス58には、画像から人物の顔を抽出する顔抽出回路(顔抽出手段)75が接続されている。顔抽出回路75は、スルー画像として外部機器のモニタ(図示せず)に表示される画像データをVRAM62から読み出して、人物の両眼を抽出することによって人物の顔を抽出する。   The data bus 58 is connected to a face extraction circuit (face extraction means) 75 that extracts a human face from an image. The face extraction circuit 75 reads out image data displayed on a monitor (not shown) of an external device as a through image from the VRAM 62, and extracts a person's face by extracting both eyes of the person.

具体的には、人物の両眼を抽出するに際し、画像データを格子状に分割し(例えば、16×16)、各分割領域に含まれるR,G,Bの各色信号の信号レベルから皮膚と推定される肌色の画素を多く含む分割領域を抽出する。そして、抽出された領域から眼部の白色の画素と瞳と推定される黒色の画素を有する領域を選別し、その領域から画像上の人物の両眼の位置を求め、両眼の位置の中点を代表点として顔の位置と定める。顔抽出回路75は、顔の位置と定めた周囲の肌色の画素を多く含む領域を顔領域として抽出する。   Specifically, when extracting both eyes of a person, image data is divided into a grid (for example, 16 × 16), and the skin level is determined from the signal levels of the R, G, and B color signals included in each divided region. A divided region including many estimated skin color pixels is extracted. Then, an area having white pixels of the eye part and black pixels estimated to be pupils is selected from the extracted area, and the positions of both eyes of the person on the image are obtained from the areas, and the positions of both eyes are determined. The point is defined as the face position with the representative point. The face extraction circuit 75 extracts an area including a lot of surrounding skin color pixels determined as the face position as a face area.

図5(A)及び図5(B)に示したように、人物の顔104に関して動きベクトルが検出できなくなった場合に、顔抽出回路75が人物の顔104を抽出することで、その動きベクトルを補間することができる。撮影対象を人物の顔に限定することで、その人物の顔が撮影距離に変動を生じさせる方向に移動する場合であっても追従することができる。また、顔抽出回路75を、所定のフレーム置きに駆動させて人物の顔を抽出させることで、安定的に追従させることができる。   As shown in FIGS. 5A and 5B, when a motion vector cannot be detected for the human face 104, the face extraction circuit 75 extracts the human face 104 so that the motion vector can be detected. Can be interpolated. By limiting the shooting target to a person's face, it is possible to follow even if the person's face moves in a direction in which the shooting distance varies. Further, the face extraction circuit 75 can be driven at predetermined frame intervals to extract a person's face, thereby stably following the face.

モータドライバ49は、顔抽出回路75によって抽出された人物の顔の大きさに基づくCPU48の指令を受け、変倍用レンズモータ45を駆動する。変倍用レンズモータ45の駆動によってズームレンズ41は変倍し、遠近方向に移動する人物の顔を画像内で一定の大きさに保つことができる。また、モータドライバ49は、顔抽出回路75によって抽出された人物の顔の動きベクトルに基づくCPU48の指令を受け、姿勢制御用モータ50を駆動する。その動きベクトルの分だけ撮影範囲が移動するように監視カメラ21の姿勢を制御することで、人物の顔を画像内で一定の位置に保つことができる。このようにすることで、監視カメラ21は、遠近方向に移動する場合であっても人物の顔を追跡しながら撮影することができる。   The motor driver 49 receives a command from the CPU 48 based on the size of the person's face extracted by the face extraction circuit 75 and drives the zoom lens motor 45. The zoom lens 41 is zoomed by driving the zoom lens motor 45, and the face of the person who moves in the perspective direction can be kept constant in the image. Further, the motor driver 49 receives a command from the CPU 48 based on the motion vector of the person's face extracted by the face extraction circuit 75 and drives the posture control motor 50. By controlling the posture of the monitoring camera 21 so that the shooting range moves by the motion vector, the face of the person can be kept at a certain position in the image. In this way, the monitoring camera 21 can take an image while tracking the face of a person even when moving in the perspective direction.

以下、上記実施形態の監視カメラ21(図1参照)について図6を参照しながら説明する。撮影が開始されると、顔抽出回路75が駆動して人物の顔を抽出する処理が開始される。人物の顔が抽出されると、顔抽出回路75による処理は停止する。抽出された顔の大きさに基づいてズームレンズ41の変倍が制御され、人物の顔は画像内で一定の大きさに保たれる。また、人物の顔の動きベクトルに基づいて監視カメラ21の姿勢が制御され、人物の顔は画像内で追跡されて一定の位置(例えば、画像中央)に保たれる。人物の顔を追跡しながらの撮影はフレーム毎に得られる動きベクトルに基づいて逐次行われる。なお、人物の顔の動きベクトルが検出されなくなった場合には、再度、顔抽出回路75による処理が開始される。   Hereinafter, the monitoring camera 21 (see FIG. 1) of the above embodiment will be described with reference to FIG. When shooting is started, the face extraction circuit 75 is driven to start extracting a person's face. When a person's face is extracted, the processing by the face extraction circuit 75 stops. Based on the size of the extracted face, zooming of the zoom lens 41 is controlled, and the face of the person is kept constant in the image. Further, the posture of the monitoring camera 21 is controlled based on the motion vector of the person's face, and the person's face is tracked in the image and kept at a certain position (for example, the center of the image). Shooting while tracking a person's face is sequentially performed based on a motion vector obtained for each frame. Note that when the motion vector of the person's face is no longer detected, the processing by the face extraction circuit 75 is started again.

所定のフレーム数(例えば、5フレーム)だけ処理が行われると、人物の顔を追跡しながらの撮影とともに、顔抽出回路75による処理が開始される。人物の顔が抽出され直すと、新たに抽出された顔の大きさに基づいてズームレンズ41の変倍が制御され、人物の顔は画像内で一定の大きさに保たれる。そして、新たに抽出された顔の動きベクトルに基づいて監視カメラ21の姿勢が制御され、人物の顔は画像内で一定の位置に保たれる。撮影が終了するまで上記処理は繰り返される。このように、監視カメラ21は、人物の顔が撮影距離に変動を生じさせる方向に移動した場合であっても、人物の顔を追跡しながら撮影することができる。   When processing is performed for a predetermined number of frames (for example, 5 frames), processing by the face extraction circuit 75 is started along with shooting while tracking the face of a person. When the person's face is extracted again, zooming of the zoom lens 41 is controlled based on the newly extracted face size, and the person's face is maintained at a constant size in the image. Then, the posture of the monitoring camera 21 is controlled based on the newly extracted face motion vector, and the face of the person is kept at a fixed position in the image. The above process is repeated until shooting is completed. In this way, the surveillance camera 21 can shoot while tracking the face of the person even when the face of the person moves in a direction that causes a change in the shooting distance.

なお、上記実施形態において、フレーム間における画像同士をパターンマッチングにより比較する場合を例に説明したが、動きベクトルが検出することができれば良く、別の方法によって検出するのであっても構わない。   In the above-described embodiment, the case where images between frames are compared by pattern matching has been described as an example. However, it is only necessary that a motion vector can be detected, and another method may be used.

また、上記実施形態において、顔抽出回路75による顔の抽出は、肌色を抽出して顔領域を抽出する場合を例に説明したが、顔領域が抽出できれば良く、例えば、テンプレートを利用したパターン認識によって顔領域を抽出するのでも構わない。   Further, in the above embodiment, the face extraction by the face extraction circuit 75 has been described by taking the case where the face area is extracted by extracting the skin color. However, it is only necessary that the face area can be extracted, for example, pattern recognition using a template. The face area may be extracted by

また、上記実施形態において、マクロブロック単位の動きベクトルを検出する場合を例に説明したが、これに限定されるのではなく、画素単位の動きベクトルを検出するのでも良い。   In the above embodiment, the case where a motion vector in units of macroblocks is detected has been described as an example. However, the present invention is not limited to this, and a motion vector in units of pixels may be detected.

監視カメラの外観斜視図である。It is an external appearance perspective view of a surveillance camera. 監視カメラの電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of a surveillance camera. 動きベクトルの検出方法を説明するための図であり、(A)は第(N−1)フレームの画像を、(B)は第Nフレームの画像をそれぞれ示す。It is a figure for demonstrating the detection method of a motion vector, (A) shows the image of the (N-1) th frame, (B) shows the image of the Nth frame, respectively. 動きベクトルが検出される例を示す図であり、(A)は第(N−1)フレームの画像を、(B)は第Nフレームの画像をそれぞれ示す。It is a figure which shows the example in which a motion vector is detected, (A) shows the image of the (N-1) th frame, (B) shows the image of the Nth frame, respectively. 動きベクトルが検出されない例を示す図であり、(A)は第(N−1)フレームの画像を、(B)は第Nフレームの画像をそれぞれ示す。It is a figure which shows the example in which a motion vector is not detected, (A) shows the image of the (N-1) th frame, (B) shows the image of the Nth frame, respectively. 監視カメラの撮影処理手順を示すフローチャートである。It is a flowchart which shows the imaging | photography process sequence of a surveillance camera.

符号の説明Explanation of symbols

21 監視カメラ(撮影装置)
25 姿勢制御機構(姿勢制御手段)
41 ズームレンズ(焦点距離調節手段)
44 CCDイメージセンサ(撮影手段)
45 変倍用レンズモータ(駆動制御手段)
67 動き検出器(動き検出手段)
75 顔抽出回路(顔抽出手段)
21 Surveillance camera (photographing device)
25 Attitude control mechanism (Attitude control means)
41 Zoom lens (focal length adjusting means)
44 CCD image sensor (photographing means)
45 Zoom lens motor (drive control means)
67 Motion detector (motion detection means)
75 Face extraction circuit (face extraction means)

Claims (6)

移動する人物を追跡しながら撮影する撮影装置において、
動画撮影して画像を取得する撮影手段と、
前記画像から人物の顔を抽出する処理を間欠的に繰り返す顔抽出手段と、
前記顔抽出手段によって抽出された顔の移動量及び方向を示す動きベクトルを検出する動き検出手段と、
前記動きベクトルに基づいて前記撮影手段の姿勢を制御する姿勢制御手段とを備えたことを特徴とする撮影装置。
In an imaging device that shoots while tracking a moving person,
Shooting means for capturing videos and capturing images;
Face extraction means for intermittently repeating the process of extracting a human face from the image;
Motion detection means for detecting a motion vector indicating the amount and direction of movement of the face extracted by the face extraction means;
An imaging apparatus comprising: an attitude control unit that controls an attitude of the imaging unit based on the motion vector.
焦点距離を変化させる焦点距離調節手段と、
前記顔抽出手段によって抽出される顔の大きさに基づいて前記焦点距離調節手段の駆動を制御する駆動制御手段とを備えたことを特徴とする請求項1記載の撮影装置。
A focal length adjusting means for changing the focal length;
The photographing apparatus according to claim 1, further comprising: a drive control unit that controls driving of the focal length adjustment unit based on a face size extracted by the face extraction unit.
前記動きベクトルが検出されなくなると、前記顔抽出手段は、顔の抽出を再度行うことを特徴とする請求項1又は2記載の撮影装置。   3. The photographing apparatus according to claim 1, wherein when the motion vector is no longer detected, the face extracting unit performs face extraction again. 移動する人物を追跡しながら撮影する撮影方法において、
動画撮影によって取得される画像から人物の顔を抽出することを間欠的に繰り返すとともに、抽出された顔の移動量及び方向を示す動きベクトルを検出し、前記動きベクトルに基づいて撮影方向を制御することを特徴とする撮影方法。
In the shooting method of shooting while tracking a moving person,
Extracting a person's face from an image obtained by moving image shooting is repeated intermittently, and a motion vector indicating the amount and direction of movement of the extracted face is detected, and the shooting direction is controlled based on the motion vector. An imaging method characterized by the above.
抽出される顔の大きさに基づいて焦点距離を制御することを特徴とする請求項4記載の撮影方法。   5. The photographing method according to claim 4, wherein the focal length is controlled based on the size of the extracted face. 前記動きベクトルが検出されなくなったときに顔の抽出を再度行うことを特徴とする請求項4又は5記載の撮影方法。   6. The photographing method according to claim 4, wherein the face is extracted again when the motion vector is no longer detected.
JP2007144534A 2007-05-31 2007-05-31 Photography device, and photographing method Pending JP2008301162A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007144534A JP2008301162A (en) 2007-05-31 2007-05-31 Photography device, and photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007144534A JP2008301162A (en) 2007-05-31 2007-05-31 Photography device, and photographing method

Publications (1)

Publication Number Publication Date
JP2008301162A true JP2008301162A (en) 2008-12-11

Family

ID=40174256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007144534A Pending JP2008301162A (en) 2007-05-31 2007-05-31 Photography device, and photographing method

Country Status (1)

Country Link
JP (1) JP2008301162A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154374A (en) * 2008-12-26 2010-07-08 Canon Inc Image capturing apparatus and subject tracking method
US8456567B2 (en) 2009-04-22 2013-06-04 Casio Computer Co., Ltd Imaging apparatus, imaging method, and computer-readable storage medium storing program therein
JP2013179614A (en) * 2013-04-09 2013-09-09 Canon Inc Imaging apparatus
US8675082B2 (en) 2009-09-16 2014-03-18 Olympus Imaging Corp. Imaging device and imaging device control method
JP2014225854A (en) * 2013-04-25 2014-12-04 キヤノン株式会社 Imaging device and method for controlling the same
CN104363408A (en) * 2014-11-20 2015-02-18 山东女子学院 Portable video session omni-directional tracking camera system
JP2016212615A (en) * 2015-05-08 2016-12-15 雅之 澤田 Target discovery system using face image intermittent segmentation control mechanism for identical person

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154374A (en) * 2008-12-26 2010-07-08 Canon Inc Image capturing apparatus and subject tracking method
US8456567B2 (en) 2009-04-22 2013-06-04 Casio Computer Co., Ltd Imaging apparatus, imaging method, and computer-readable storage medium storing program therein
US8675082B2 (en) 2009-09-16 2014-03-18 Olympus Imaging Corp. Imaging device and imaging device control method
JP2013179614A (en) * 2013-04-09 2013-09-09 Canon Inc Imaging apparatus
JP2014225854A (en) * 2013-04-25 2014-12-04 キヤノン株式会社 Imaging device and method for controlling the same
CN104363408A (en) * 2014-11-20 2015-02-18 山东女子学院 Portable video session omni-directional tracking camera system
JP2016212615A (en) * 2015-05-08 2016-12-15 雅之 澤田 Target discovery system using face image intermittent segmentation control mechanism for identical person

Similar Documents

Publication Publication Date Title
JP4434151B2 (en) Imaging device
JP6049448B2 (en) Subject area tracking device, control method thereof, and program
TW201119365A (en) Image selection device and method for selecting image
JP2008109336A (en) Image processor and imaging apparatus
JP2008301162A (en) Photography device, and photographing method
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
JP4127521B2 (en) Digital camera and control method thereof
JP6391304B2 (en) Imaging apparatus, control method, and program
TWI477887B (en) Image processing device, image processing method and recording medium
JP6890944B2 (en) Image blur correction device and its control method, imaging device
JP5397078B2 (en) Imaging device
JP5423186B2 (en) Imaging apparatus, area detection method, and program
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2009302794A (en) Imaging apparatus
JP2008301161A (en) Image processing device, digital camera, and image processing method
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP4278429B2 (en) Imaging device
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2013009435A (en) Imaging apparatus, object tracking zooming method and object tracking zooming program
JP5835207B2 (en) Imaging apparatus, imaging control method, and program
JP2013003471A (en) Imaging apparatus
KR101905813B1 (en) Device for comparing image files
JP2007108093A (en) Device for measuring distance to object to be photographed and method thereof
JP2009077066A (en) Method of capturing image of imaging device, and imaging device using the method
JP5181806B2 (en) Imaging device