JP2009207063A - Video camera - Google Patents

Video camera Download PDF

Info

Publication number
JP2009207063A
JP2009207063A JP2008049663A JP2008049663A JP2009207063A JP 2009207063 A JP2009207063 A JP 2009207063A JP 2008049663 A JP2008049663 A JP 2008049663A JP 2008049663 A JP2008049663 A JP 2008049663A JP 2009207063 A JP2009207063 A JP 2009207063A
Authority
JP
Japan
Prior art keywords
imaging
image
movement
moving
designated area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008049663A
Other languages
Japanese (ja)
Other versions
JP5121505B2 (en
Inventor
Mitsuaki Kurokawa
光章 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008049663A priority Critical patent/JP5121505B2/en
Publication of JP2009207063A publication Critical patent/JP2009207063A/en
Application granted granted Critical
Publication of JP5121505B2 publication Critical patent/JP5121505B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enhance the precision of adjustment of an imaging condition to improve the quality of an output image. <P>SOLUTION: An image sensor 16 has an imaging face on which an optical image in a field is projected, and repeatedly outputs a field image generated on the imaging face. An LCD driver 38 displays a moving image on an LCD monitor 40, based on a partial field image belonging to an extraction area EX among field images output from the image sensor 16. A CPU 28 adjusts an imaging condition, based on a partial field image belonging to an evaluation area EA of the field image output from the image sensor 16. The CPU 28 also detects the move of the imaging face in the direction perpendicular to the optical axis. Further, the CPU 28 moves the extraction area EX in response to a detected move, thus moves the evaluation area EA in relation with the process of moving the extraction area EX. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、ビデオカメラに関し、特に撮像面で生成された被写界像に基づいて撮像条件を調整する、ビデオカメラに関する。   The present invention relates to a video camera, and more particularly to a video camera that adjusts imaging conditions based on an object scene image generated on an imaging surface.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、映像信号の高域周波数成分が、ハイパスフィルタによって抽出される。ゲート回路は、抽出された高周波成分のうちAF領域に属する高周波成分を抜き出し、ピント検出回路は、抜き出された高周波成分に基づいてフォーカス調整のためのピント情報を検出する。
特開平5−236327号公報
An example of this type of device is disclosed in Patent Document 1. According to this background art, a high frequency component of a video signal is extracted by a high pass filter. The gate circuit extracts a high-frequency component belonging to the AF area from the extracted high-frequency components, and the focus detection circuit detects focus information for focus adjustment based on the extracted high-frequency components.
JP-A-5-236327

しかし、背景技術では、AF領域の位置が撮像面の手振れに応じて変更されることがなく、出力画像の品質に限界がある。   However, in the background art, the position of the AF area is not changed according to the camera shake on the imaging surface, and the quality of the output image is limited.

それゆえに、この発明の主たる目的は、出力画像の品質を改善することができる、ビデオカメラを提供することである。   Therefore, a main object of the present invention is to provide a video camera capable of improving the quality of an output image.

この発明に従うビデオカメラ(10:実施例で相当する参照符号。以下同じ)は、被写界の光学像が照射される撮像面を有し、撮像面で生成された被写界像を繰り返し出力する撮像手段(16)、撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段(38, 40)、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整手段(S3, S7, S9, S15, S17)、光軸に直交する方向における撮像面の動きを検出する検出手段(S33)、検出手段によって検出された動きに対応して第1指定エリアを移動させる第1移動手段(S39)、および第1移動手段の移動処理に関連して第2指定エリアを移動させる第2移動手段(S41, S43)を備える。   The video camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) has an imaging surface on which an optical image of the object scene is irradiated, and repeatedly outputs the object scene image generated on the imaging surface. Imaging means (16), display means (38, 40) for displaying a moving image based on a partial scene image belonging to the first designated area among the scene images output from the imaging means, and output from the imaging means Adjusting means (S3, S7, S9, S15, S17) for adjusting the imaging condition based on the partial object scene image belonging to the second designated area among the received object scene images, the image pickup surface in the direction orthogonal to the optical axis Detection means (S33) for detecting the movement of the first movement means, first movement means (S39) for moving the first designated area corresponding to the movement detected by the detection means, and movement processing of the first movement means. 2 A second moving means (S41, S43) for moving the designated area is provided.

撮像手段は、被写界の光学像が照射される撮像面を有し、撮像面で生成された被写界像を繰り返し出力する。表示手段は、撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する。調整手段は、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する。光軸に直交する方向における撮像面の動きは、検出手段によって検出される。第1指定エリアは、検出手段によって検出された動きに対応して、第1移動手段によって移動される。第2指定エリアは、第1移動手段の移動処理に関連して、第2移動手段によって移動される。   The imaging unit has an imaging surface on which an optical image of the object scene is irradiated, and repeatedly outputs the object scene image generated on the imaging surface. The display means displays a moving image based on a partial scene image belonging to the first designated area among the scene images output from the imaging means. The adjusting unit adjusts the imaging condition based on the partial scene image belonging to the second designated area among the scene images output from the imaging unit. The movement of the imaging surface in the direction orthogonal to the optical axis is detected by the detection means. The first designated area is moved by the first moving means in response to the movement detected by the detecting means. The second designated area is moved by the second moving means in association with the moving process of the first moving means.

したがって、撮像条件の調整のために参照される第2指定エリアは、動画像の出力のために参照される第1指定エリアに追従するように移動する。これによって、撮像条件の調整精度が向上し、出力画像の品質の改善が図られる。   Accordingly, the second designated area that is referred to for adjustment of the imaging condition moves so as to follow the first designated area that is referred to for output of the moving image. Thereby, the adjustment accuracy of the imaging condition is improved, and the quality of the output image is improved.

好ましくは、第2移動手段は、検出手段によって検出された動きに基づいて撮像面の未来の動きを予測する予測手段(41)、および予測手段によって予測された動きに対応して第2指定エリアを移動させるエリア移動手段(S43)を含む。これによって、第2指定エリアの追従性が向上する。   Preferably, the second moving means predicts a future movement of the imaging surface based on the movement detected by the detecting means, and a second designated area corresponding to the movement predicted by the prediction means. Includes area moving means (S43). This improves the followability of the second designated area.

さらに好ましくは、撮像手段はフォーカルプレーン電子シャッタ方式の露光動作を行い、検出手段は、撮像手段から出力された被写界像に垂直方向に並ぶ複数のブロックを割り当てる割り当て手段(50~56)、および割り当て手段によって割り当てられた複数のブロックに属する複数のブロック画像の動きベクトルを個別に生成する動きベクトル生成手段(58~74)を含み、予測手段は動きベクトル生成手段によって生成された複数の動きベクトルに基づいて撮像面の未来の動きを予測する。   More preferably, the imaging unit performs an exposure operation of a focal plane electronic shutter system, and the detection unit allocates a plurality of blocks arranged in the vertical direction in the object scene image output from the imaging unit (50 to 56), And motion vector generation means (58-74) for individually generating motion vectors of a plurality of block images belonging to the plurality of blocks assigned by the assignment means, and the prediction means includes a plurality of motions generated by the motion vector generation means Predict future movement of the imaging surface based on the vector.

より好ましくは、割り当て手段によって垂直方向に割り当てられるブロックの数は撮像手段の撮像周期と撮像面の振動周波数とに基づいて決定される。   More preferably, the number of blocks assigned in the vertical direction by the assigning unit is determined based on the imaging period of the imaging unit and the vibration frequency of the imaging surface.

好ましくは、撮像手段から出力された被写界像をメモリに書き込む書き込み手段(20)、および書き込み手段によってメモリに格納された被写界像のうち第1指定エリアに属する部分被写界像を表示手段の表示処理のために読み出す読み出し手段(38)をさらに備える。   Preferably, writing means (20) for writing the object scene image output from the imaging means to the memory, and a partial object scene image belonging to the first designated area among the object scene images stored in the memory by the writing means. A reading means (38) for reading for display processing of the display means is further provided.

この発明に従う撮像制御プログラムは、被写界の光学像が照射される撮像面を有し、被写界像を繰り返し出力する撮像手段(16)、および撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段(38, 40)を備えるビデオカメラ(10)のプロセッサ(28)に、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ(S3, S7, S9, S15, S17)、光軸に直交する方向における撮像面の動きを検出する検出ステップ(S33, S35)、検出ステップによって検出された動きに対応して第1指定エリアを移動させる第1移動ステップ(S39)、および第1移動ステップの移動処理に関連して第2指定エリアを移動させる第2移動ステップ(S41, S43)を実行させるための、撮像制御プログラムである。   An imaging control program according to the present invention has an imaging surface on which an optical image of a scene is illuminated, an imaging means (16) that repeatedly outputs the scene image, and an image of the scene image output from the imaging means Of these, the scene output from the imaging means to the processor (28) of the video camera (10) provided with the display means (38, 40) for displaying a moving image based on the partial scene image belonging to the first designated area. An adjustment step (S3, S7, S9, S15, S17) for adjusting the imaging condition based on the partial object scene image belonging to the second designated area in the image, and detecting the movement of the imaging surface in the direction orthogonal to the optical axis A detection step (S33, S35), a first movement step (S39) for moving the first designated area corresponding to the movement detected in the detection step, and a second designated area in relation to the movement process of the first movement step. For moving the second movement step (S41, S43) , An imaging control program.

この発明に従う撮像制御方法は、被写界の光学像が照射される撮像面を有し、被写界像を繰り返し出力する撮像手段(16)、および撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段(38, 40)を備えるビデオカメラ(10)によって実行される撮像制御方法であって、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ(S3, S7, S9, S15, S17)、光軸に直交する方向における撮像面の動きを検出する検出ステップ(S33, S35)、検出ステップによって検出された動きに対応して第1指定エリアを移動させる第1移動ステップ(S39)、および第1移動ステップの移動処理に関連して第2指定エリアを移動させる第2移動ステップ(S41, S43)を備える。   The imaging control method according to the present invention has an imaging surface on which an optical image of the object scene is irradiated, an image pickup means (16) that repeatedly outputs the object scene image, and an object scene image output from the image pickup means. An imaging control method executed by a video camera (10) including display means (38, 40) for displaying a moving image based on a partial scene image belonging to the first designated area, which is output from the imaging means Adjustment step (S3, S7, S9, S15, S17) for adjusting the imaging condition based on the partial object scene image belonging to the second designated area of the object scene image, the imaging surface in the direction orthogonal to the optical axis In relation to the detection steps (S33, S35) for detecting movement, the first movement step (S39) for moving the first designated area corresponding to the movement detected in the detection step, and the movement process of the first movement step The second movement step (S41, S43) to move the second designated area Obtain.

この発明によれば、撮像条件の調整のために参照される第2指定エリアは、動画像の出力のために参照される第1指定エリアに追従するように移動する。これによって、撮像条件の調整精度が向上し、出力画像の品質の改善が図られる。   According to the present invention, the second designated area that is referred to for adjustment of the imaging condition moves so as to follow the first designated area that is referred to for output of the moving image. Thereby, the adjustment accuracy of the imaging condition is improved, and the quality of the output image is improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のディジタルビデオカメラ10は、光学レンズ12および絞りユニット14を含む。被写界の光学像は、これらの部材を通してCMOS型のイメージセンサ16の撮像面に照射される。撮像面は、原色ベイヤ配列の色フィルタ(図示せず)によって覆われる。したがって、各画素では、R(Red),G(Green)およびB(Blue)のいずれか1つの色情報を有する電荷が光電変換によって生成される。   Referring to FIG. 1, a digital video camera 10 of this embodiment includes an optical lens 12 and an aperture unit 14. The optical image of the object scene is irradiated on the imaging surface of the CMOS image sensor 16 through these members. The imaging surface is covered by a primary color Bayer array color filter (not shown). Therefore, in each pixel, a charge having color information of any one of R (Red), G (Green), and B (Blue) is generated by photoelectric conversion.

電源が投入されると、CPU28は、動画取り込み処理を実行するべくドライバ18を起動する。ドライバ18は、1/60秒毎に発生する垂直同期信号Vsyncに応答して、撮像面をフォーカルプレーン電子シャッタ方式(露光タイミングが水平画素列によって異なる方式)で露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、被写界を表す生画像データが60fpsのフレームレートで出力される。   When the power is turned on, the CPU 28 activates the driver 18 to execute the moving image capturing process. In response to the vertical synchronization signal Vsync generated every 1/60 seconds, the driver 18 exposes the imaging surface by a focal plane electronic shutter method (a method in which the exposure timing differs depending on the horizontal pixel row), and is generated on the imaging surface. The charge is read out in a raster scanning manner. From the image sensor 16, raw image data representing the object scene is output at a frame rate of 60 fps.

前処理回路20は、イメージセンサ16からの生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これによって生成された生画像データは、メモリ制御回路32を通してSDRAM34の生画像エリア34a(図4参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data from the image sensor 16. The raw image data generated thereby is written into the raw image area 34a (see FIG. 4) of the SDRAM 34 through the memory control circuit 32.

撮像面には、図2に示す要領で抽出エリアEXが割り当てられる。後処理回路36は、生画像エリア24aに格納された生画像データのうち抽出エリアEXに属する一部の生画像データをメモリ制御回路32を通して1/60秒毎に読み出し、読み出された生画像データに色分離,白バランス調整,YUV変換などの処理を施す。この結果、YUV形式に対応する画像データが1/60秒毎に作成される。作成された画像データは、メモリ制御回路32を通してSDRAM34のYUV画像エリア34b(図4参照)に書き込まれる。   An extraction area EX is allocated to the imaging surface in the manner shown in FIG. The post-processing circuit 36 reads a part of the raw image data belonging to the extraction area EX from the raw image data stored in the raw image area 24a through the memory control circuit 32 every 1/60 seconds, and the read raw image The data is subjected to processing such as color separation, white balance adjustment, and YUV conversion. As a result, image data corresponding to the YUV format is created every 1/60 seconds. The created image data is written into the YUV image area 34b (see FIG. 4) of the SDRAM 34 through the memory control circuit 32.

LCDドライバ38は、YUV画像エリア34bに格納された画像データを繰り返し読み出し、読み出された画像データに基づいてLCDモニタ40を駆動する。この結果、被写界を表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 38 repeatedly reads the image data stored in the YUV image area 34b, and drives the LCD monitor 40 based on the read image data. As a result, a real-time moving image (through image) representing the scene is displayed on the monitor screen.

前処理回路20は、上述の処理に加えて、簡易Y生成処理および簡易RGB生成処理を実行する。生画像データは、簡易Y変換処理によってYデータに変換され、簡易RGB変換処理によってRGBデータ(各画素がR,GおよびBの全ての色情報を有するデータ)に変換される。簡易Y変換処理によって生成されたYデータは動き検出回路22およびAF評価回路24に与えられ、簡易RGB変換処理によって生成されたRGBデータはAE/AWB評価回路26に与えられる。   The preprocessing circuit 20 executes a simple Y generation process and a simple RGB generation process in addition to the above-described processes. The raw image data is converted into Y data by a simple Y conversion process, and converted into RGB data (data in which each pixel has all color information of R, G, and B) by a simple RGB conversion process. The Y data generated by the simple Y conversion process is supplied to the motion detection circuit 22 and the AF evaluation circuit 24, and the RGB data generated by the simple RGB conversion process is supplied to the AE / AWB evaluation circuit 26.

図2を参照して、撮像面には9つの動き検出ブロックMD1〜MD9が割り当てられる。動き検出ブロックMD1〜MD3は撮像面の上段に水平方向に並び、動き検出ブロックMD4〜MD6は撮像面の中断に水平方向に並び、動き検出ブロックMD7〜MD9は撮像面の下段に水平方向に並ぶ。垂直方向に割り当てるべき動き検出ブロックの最小数は、数1に従って決定される。
[数1]
MN=TM×SF×α
MN:垂直方向に割り当てるべき動き検出ブロックの最小数
TM:撮像周期(垂直同期信号Vsyncの発生周期)
SF:撮像面の振動周波数
α:定数(=18)
Referring to FIG. 2, nine motion detection blocks MD1 to MD9 are assigned to the imaging surface. The motion detection blocks MD1 to MD3 are arranged horizontally in the upper stage of the imaging surface, the motion detection blocks MD4 to MD6 are arranged horizontally in the interruption of the imaging surface, and the motion detection blocks MD7 to MD9 are arranged horizontally in the lower stage of the imaging surface. . The minimum number of motion detection blocks to be allocated in the vertical direction is determined according to Equation 1.
[Equation 1]
MN = TM × SF × α
MN: Minimum number of motion detection blocks to be assigned in the vertical direction TM: Imaging period (generation period of the vertical synchronization signal Vsync)
SF: imaging surface vibration frequency α: constant (= 18)

数1によれば、撮像周期と撮像面の振動周波数との掛算値に定数αを掛算することで、垂直方向に割り当てるべき動き検出ブロックの最小数が得られる。ここで、撮像面の振動周波数は操作者の手振れ周波数(=約10Hz)に相当する。したがって、この実施例のように撮像周期が“1/60秒”であれば、垂直方向に割り当てるべき動き検出ブロックの最小数は“3”となる。また、撮像周期が“1/30秒”であれば、垂直方向に割り当てるべき動き検出ブロックの最小数は“6”となる。   According to Equation 1, the minimum number of motion detection blocks to be assigned in the vertical direction can be obtained by multiplying the multiplication value of the imaging period and the vibration frequency of the imaging surface by a constant α. Here, the vibration frequency of the imaging surface corresponds to the hand vibration frequency (= about 10 Hz) of the operator. Therefore, if the imaging cycle is “1/60 seconds” as in this embodiment, the minimum number of motion detection blocks to be assigned in the vertical direction is “3”. If the imaging cycle is “1/30 seconds”, the minimum number of motion detection blocks to be assigned in the vertical direction is “6”.

動き検出回路22は、動き検出ブロックMD1〜MD9の各々における被写界の動きを表す部分動きベクトルを、前処理回路20から与えられたYデータに基づいて1/60秒毎に検出する。動き検出回路22はまた、動き検出ブロックMD1〜MD3の部分動きベクトルを合成して合成動きベクトルUVCを1/60秒毎に生成し、動き検出ブロックMD4〜MD6の部分動きベクトルを合成して合成動きベクトルMVCを1/60秒毎に生成し、そして動き検出ブロックMD7〜MD9の部分動きベクトルを合成して合成動きベクトルLVCを1/60秒毎に生成する。   The motion detection circuit 22 detects a partial motion vector representing the motion of the object scene in each of the motion detection blocks MD1 to MD9 based on the Y data given from the preprocessing circuit 20 every 1/60 seconds. The motion detection circuit 22 also combines the partial motion vectors of the motion detection blocks MD1 to MD3 to generate a combined motion vector UVC every 1/60 seconds, and combines and combines the partial motion vectors of the motion detection blocks MD4 to MD6. A motion vector MVC is generated every 1/60 seconds, and the combined motion vectors LVC are generated every 1/60 seconds by synthesizing the partial motion vectors of the motion detection blocks MD7 to MD9.

合成動きベクトルUVCは撮像面の上段における被写界の動きを表し、合成動きベクトルMVCは撮像面の中断における被写界の動きを表し、そして合成動きベクトルLVCは撮像面の下段における被写界の動きを表す。   The composite motion vector UVC represents the motion of the scene on the upper stage of the imaging surface, the composite motion vector MVC represents the motion of the scene on the interruption of the imaging surface, and the composite motion vector LVC represents the scene of the scene on the lower stage of the imaging surface. Represents the movement.

CPU28は、動き検出回路22から出力された合成動きベクトルUVC,MVCおよびLVCに基づいて全体動きベクトルを作成し、光軸に直交する方向における撮像面の動きが手振れおよびパン/チルト動作のいずれに起因するかを全体動きベクトルに基づいて判別し、そして撮像面の動きが手振れに起因するときに全体動きベクトルに沿って抽出エリアEXを移動させる。抽出エリアEXの位置は、手振れに起因する撮像面の動きが補償(相殺)されるように変更される。抽出エリアEXは、撮像面に手振れが生じたとき、図5(A)に示す要領で撮像面上を移動する。   The CPU 28 creates an overall motion vector based on the combined motion vectors UVC, MVC, and LVC output from the motion detection circuit 22, and the movement of the imaging surface in the direction orthogonal to the optical axis is either a camera shake or a pan / tilt operation. Whether it is caused or not is discriminated based on the entire motion vector, and the extraction area EX is moved along the entire motion vector when the motion of the imaging surface is caused by camera shake. The position of the extraction area EX is changed so that the movement of the imaging surface due to camera shake is compensated (cancelled). The extraction area EX moves on the imaging surface in the manner shown in FIG. 5A when camera shake occurs on the imaging surface.

図3を参照して、撮像面には評価エリアEAが割り当てられる。評価エリアEAは、垂直方向および水平方向の各々において8分割され、合計64個の部分評価エリアによって形成される。この64個の部分評価エリアには、座標値(X,Y)=(1,1)〜(8,8)がそれぞれ割り当てられる。   Referring to FIG. 3, an evaluation area EA is assigned to the imaging surface. The evaluation area EA is divided into eight in each of the vertical direction and the horizontal direction, and is formed by a total of 64 partial evaluation areas. Coordinate values (X, Y) = (1, 1) to (8, 8) are assigned to the 64 partial evaluation areas.

AF評価回路24は、前処理回路20から出力されたYデータのうち各部分評価エリアに属するYデータに注目し、注目するYデータの高周波成分を水平方向および垂直方向の各々について1/60秒毎に積分する。この結果、水平方向の高周波成分に関する64個の積分値HIh(1,1)〜HIh(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られ、垂直方向の高周波成分に関する64個の積分値HIv(1,1)〜HIv(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られる。CPU28は、AF評価回路24から出力されたこれらの積分値に基づいていわゆるコンティニュアスAF処理を実行し、光学レンズ12を合焦点に配置する。   The AF evaluation circuit 24 pays attention to the Y data belonging to each partial evaluation area among the Y data output from the preprocessing circuit 20, and sets the high frequency component of the noticed Y data in 1/60 seconds in each of the horizontal direction and the vertical direction. Integrate every time. As a result, 64 integral values HIh (1,1) to HIh (8,8) related to the high-frequency component in the horizontal direction are obtained corresponding to the 64 partial evaluation areas (1,1) to (8,8). 64 integrated values HIv (1,1) to HIv (8,8) related to the high frequency component in the vertical direction are obtained corresponding to the 64 partial evaluation areas (1,1) to (8,8). . The CPU 28 executes so-called continuous AF processing based on these integrated values output from the AF evaluation circuit 24, and places the optical lens 12 at the focal point.

AE/AWB評価回路24は、前処理回路20から出力されたRGBデータのうち各部分評価エリアに属するRGBデータに注目し、注目するRデータ,GデータおよびBデータの各々を1/60秒毎に積分する。この結果、Rデータに関する64個の積分値Ir(1,1)〜Ir(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られ、Gデータに関する64個の積分値Ig(1,1)〜Ig(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られ、そしてBデータに関する64個の積分値Ib(1,1)〜Ib(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られる。   The AE / AWB evaluation circuit 24 pays attention to the RGB data belonging to each partial evaluation area among the RGB data output from the preprocessing circuit 20, and converts each of the R data, G data, and B data to be noticed every 1/60 seconds. Integrate into. As a result, 64 integral values Ir (1,1) to Ir (8,8) related to the R data are obtained corresponding to the 64 partial evaluation areas (1,1) to (8,8). 64 integral values Ig (1,1) to Ig (8,8) for data are obtained corresponding to 64 partial evaluation areas (1,1) to (8,8), and 64 for B data. The integral values Ib (1,1) to Ib (8,8) are obtained corresponding to the 64 partial evaluation areas (1,1) to (8,8).

CPU28は、AE/AWB評価値から出力されたこれらの積分値に基づいて、適正露光量が得られるEV値と適正白バランスが得られる白バランス調整ゲインとを算出する。CPU28はさらに、算出されたEV値を定義する絞り量および露光時間を絞りユニットおよびドライバ18に設定し、算出された白バランス調整ゲインを後処理回路36に設定する。このようなAE処理およびAWB処理が実行された結果、LCDモニタ40から出力される動画像の明るさおよび白バランスが適度に調整される。   Based on these integrated values output from the AE / AWB evaluation value, the CPU 28 calculates an EV value for obtaining an appropriate exposure amount and a white balance adjustment gain for obtaining an appropriate white balance. Further, the CPU 28 sets the aperture amount and the exposure time that define the calculated EV value in the aperture unit and the driver 18, and sets the calculated white balance adjustment gain in the post-processing circuit 36. As a result of executing the AE process and the AWB process, the brightness and white balance of the moving image output from the LCD monitor 40 are appropriately adjusted.

上述のように、抽出エリアEXは、撮像面の手振れが補償されるように移動される。にもかかわらず、評価エリアEAを図3に示す位置に固定するようにすると、抽出エリアEXから外れた位置にある被写体が上述した撮像条件の調整動作に影響を及ぼすおそれがある。そこで、この実施例では、抽出エリアEXの移動処理に関連して評価エリアEAも移動させるようにしている。評価エリアEAは抽出エリアEXに追従して図5(B)に示すように移動し、これによって撮像条件の調整精度が向上する。   As described above, the extraction area EX is moved so that camera shake on the imaging surface is compensated. Nevertheless, if the evaluation area EA is fixed at the position shown in FIG. 3, the subject at a position outside the extraction area EX may affect the above-described adjustment operation of the imaging condition. Therefore, in this embodiment, the evaluation area EA is also moved in association with the movement process of the extraction area EX. The evaluation area EA moves as shown in FIG. 5B following the extraction area EX, thereby improving the adjustment accuracy of the imaging conditions.

ただし、前処理回路20から出力された生画像データがSDRAM34に一時的に格納されることから、後処理回路36による抽出エリアEXの移動については1フレームの猶予期間が与えられるのに対して、AF評価回路24およびAE/AWB評価回路26は動き検出回路22が注目するフレームと同じフレームに動き検出回路22が注目するタイミングと同じタイミングで注目するため、AF評価回路24およびAE/AWB評価回路26の動作についてはこのような猶予期間は存在しない。   However, since the raw image data output from the pre-processing circuit 20 is temporarily stored in the SDRAM 34, a one-frame grace period is provided for the movement of the extraction area EX by the post-processing circuit 36. Since the AF evaluation circuit 24 and the AE / AWB evaluation circuit 26 focus on the same frame as the frame on which the motion detection circuit 22 focuses on at the same timing as the timing on which the motion detection circuit 22 focuses on, the AF evaluation circuit 24 and the AE / AWB evaluation circuit There is no such grace period for 26 operations.

そこで、CPU28は、動き検出回路22から出力された合成動きベクトルUVC,MVCおよびLVCに基づいて次フレームつまり未来の全体動きベクトルを数2および数3に従って予測し、予測した全体動きベクトルに沿って評価エリアEAを移動させる。
[数2]
EVCx=2*LVCx−(ΔUMx*α+ΔMLx)/2
EVCx:予測された全体動きベクトルの水平成分
LVCx:合成動きベクトルLVCの水平成分
ΔUMx:合成動きベクトルUVCおよびMVCの水平成分の差分
ΔMLx:合成動きベクトルMVCおよびLVCの水平成分の差分
α:定数
[数3]
EVCy=2*LVCy−(ΔUMy*β+ΔMLy)/2
EVCy:予測された全体動きベクトルの垂直成分
LVCy:合成動きベクトルLVCの垂直成分
ΔUMy:合成動きベクトルUVCおよびMVCの垂直成分の差分
ΔMLy:合成動きベクトルMVCおよびLVCの垂直成分の差分
β:定数
Therefore, the CPU 28 predicts the next frame, that is, the future global motion vector based on the synthesized motion vectors UVC, MVC, and LVC output from the motion detection circuit 22 according to the equations 2 and 3, and follows the predicted global motion vector. The evaluation area EA is moved.
[Equation 2]
EVCx = 2 * LVCx− (ΔUMx * α + ΔMLx) / 2
EVCx: predicted horizontal component of overall motion vector LVCx: horizontal component of combined motion vector LVC ΔUMx: difference between horizontal components of combined motion vector UVC and MVC ΔMLx: difference between horizontal components of combined motion vectors MVC and LVC α: constant [ Equation 3]
EVCy = 2 * LVCy− (ΔUMy * β + ΔMLy) / 2
EVCy: predicted vertical component of the entire motion vector LVCy: vertical component of the combined motion vector LVC ΔUMy: difference between the vertical components of the combined motion vector UVC and MVC ΔMLy: difference between the vertical components of the combined motion vectors MVC and LVC β: constant

したがって、合成動きベクトルUVC,MVCおよびLVCの水平成分が図6(A)の上段に示す要領で変化した場合、全体動きベクトルの水平成分は図6(A)の下段に示す要領で予測される。また、合成動きベクトルUVC,MVCおよびLVCの垂直成分が図6(B)の上段に示す要領で変化した場合、全体動きベクトルの垂直成分は図6(B)の下段に示す要領で予測される。これによって、抽出エリアEXに対する評価エリアEAの追従性が向上する。   Therefore, when the horizontal components of the combined motion vectors UVC, MVC, and LVC change in the manner shown in the upper part of FIG. 6A, the horizontal component of the entire motion vector is predicted in the manner shown in the lower part of FIG. . When the vertical components of the combined motion vectors UVC, MVC, and LVC change in the manner shown in the upper part of FIG. 6B, the vertical component of the entire motion vector is predicted in the manner shown in the lower part of FIG. . Thereby, the followability of the evaluation area EA with respect to the extraction area EX is improved.

キー入力装置30によって記録開始操作が行われると、CPU28は、記録処理を開始するべくI/F42を起動する。I/F42は、YUV画像エリア34bに格納された画像データを1/60秒毎に読み出し、読み出された画像データを記録媒体44内の動画ファイルに圧縮状態で書き込む。I/F42は、キー入力装置30上で記録終了操作が行われたときにCPU28によって停止される。この結果、画像データの記録処理が終了される。   When a recording start operation is performed by the key input device 30, the CPU 28 activates the I / F 42 to start the recording process. The I / F 42 reads the image data stored in the YUV image area 34b every 1/60 seconds, and writes the read image data to the moving image file in the recording medium 44 in a compressed state. The I / F 42 is stopped by the CPU 28 when a recording end operation is performed on the key input device 30. As a result, the image data recording process is completed.

動き検出回路22は、図7に示すように構成される。Yデータは、フレームメモリ48および分配器50に与えられる。フレームメモリ48は1フレームに相当する容量を各々が有する2つのバンクによって形成され、与えられたYデータはこの2つのバンクに交互に書き込まれる。   The motion detection circuit 22 is configured as shown in FIG. The Y data is given to the frame memory 48 and the distributor 50. The frame memory 48 is formed by two banks each having a capacity corresponding to one frame, and the supplied Y data is alternately written into the two banks.

分配器50は、動き検出ブロックMD1,MD4およびMD7に属するYデータを分配器52に与え、動き検出ブロックMD2,MD5およびMD8に属するYデータを分配器54に与え、そして動き検出ブロックMD3,MD6およびMD9に属するYデータを分配器56に与える。   Distributor 50 provides Y data belonging to motion detection blocks MD1, MD4 and MD7 to distributor 52, Y data belonging to motion detection blocks MD2, MD5 and MD8 to distributor 54, and motion detection blocks MD3, MD6. Y data belonging to MD9 is applied to the distributor 56.

分配器52は、動き検出ブロックMD1に属するYデータを部分動きベクトル検出回路58に与え、動き検出ブロックMD4に属するYデータを部分動きベクトル検出回路64に与え、そして動き検出ブロックMD7に属するYデータを部分動きベクトル検出回路70に与える。分配器54は、動き検出ブロックMD2に属するYデータを部分動きベクトル検出回路60に与え、動き検出ブロックMD5に属するYデータを部分動きベクトル検出回路66に与え、そして動き検出ブロックMD8に属するYデータを部分動きベクトル検出回路72に与える。分配器56は、動き検出ブロックMD3に属するYデータを部分動きベクトル検出回路62に与え、動き検出ブロックMD6に属するYデータを部分動きベクトル検出回路68に与え、そして動き検出ブロックMD9に属するYデータを部分動きベクトル検出回路74に与える。   The distributor 52 gives Y data belonging to the motion detection block MD1 to the partial motion vector detection circuit 58, gives Y data belonging to the motion detection block MD4 to the partial motion vector detection circuit 64, and Y data belonging to the motion detection block MD7. Is supplied to the partial motion vector detection circuit 70. The distributor 54 provides Y data belonging to the motion detection block MD2 to the partial motion vector detection circuit 60, Y data belonging to the motion detection block MD5 to the partial motion vector detection circuit 66, and Y data belonging to the motion detection block MD8. Is given to the partial motion vector detection circuit 72. The distributor 56 gives Y data belonging to the motion detection block MD3 to the partial motion vector detection circuit 62, gives Y data belonging to the motion detection block MD6 to the partial motion vector detection circuit 68, and Y data belonging to the motion detection block MD9. Is supplied to the partial motion vector detection circuit 74.

部分動きベクトル検出回路58〜74の各々は、分配器52,54または56から与えられたYデータをフレームメモリ48に格納された前フレームのYデータと比較して、注目する動き検出ブロックにおける被写界の動きを表す部分動きベクトルを検出する。この結果、動き検出ブロックMD1〜MD9にそれぞれ対応する9つの部分動きベクトルが得られる。   Each of the partial motion vector detection circuits 58 to 74 compares the Y data supplied from the distributor 52, 54 or 56 with the Y data of the previous frame stored in the frame memory 48, and compares the Y data supplied from the distributor 52, 54 or 56 with the target motion detection block. A partial motion vector representing the motion of the scene is detected. As a result, nine partial motion vectors respectively corresponding to the motion detection blocks MD1 to MD9 are obtained.

合成動きベクトル生成回路76は、部分動きベクトル検出回路58,60および62でそれぞれ検出された3つの部分動きベクトルを合成し、撮像面の上段における被写界の動きを表す合成動きベクトルUVCを生成する。合成動きベクトル生成回路78は、部分動きベクトル検出回路64,66および68でそれぞれ検出された3つの部分動きベクトルを合成し、撮像面の中段における被写界の動きを表す合成動きベクトルMVCを生成する。合成動きベクトル生成回路80は、部分動きベクトル検出回路70,72および74でそれぞれ検出された3つの部分動きベクトルを合成し、撮像面の下段における被写界の動きを表す合成動きベクトルLVCを生成する。   The combined motion vector generation circuit 76 combines the three partial motion vectors detected by the partial motion vector detection circuits 58, 60 and 62, respectively, and generates a combined motion vector UVC representing the motion of the object scene on the upper stage of the imaging surface. To do. The combined motion vector generation circuit 78 combines the three partial motion vectors detected by the partial motion vector detection circuits 64, 66 and 68, respectively, and generates a combined motion vector MVC representing the motion of the object scene in the middle stage of the imaging surface. To do. The combined motion vector generation circuit 80 combines the three partial motion vectors detected by the partial motion vector detection circuits 70, 72, and 74, respectively, and generates a combined motion vector LVC representing the motion of the object scene on the lower stage of the imaging surface. To do.

AF評価回路24は、図8に示すように構成される。HPF82は前処理回路20から与えられたYデータの水平方向における高周波成分を抽出し、HPF92は前処理回路20から与えられたYデータの垂直方向における高周波成分を抽出する。積分回路8601〜8664は上述した64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応し、積分回路9601〜9664も上述の64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応する。   The AF evaluation circuit 24 is configured as shown in FIG. The HPF 82 extracts the high frequency component in the horizontal direction of the Y data supplied from the preprocessing circuit 20, and the HPF 92 extracts the high frequency component in the vertical direction of the Y data supplied from the preprocessing circuit 20. The integration circuits 8601 to 8664 respectively correspond to the 64 partial evaluation areas (1, 1) to (8, 8) described above, and the integration circuits 9601 to 9664 also correspond to the 64 partial evaluation areas (1, 1) to (64) described above. (8, 8) respectively.

分配器84は、HPF82によって抽出された高周波成分を取り込み、取り込まれた高周波成分が属する部分評価エリアを特定し、そして取り込まれた高周波成分を特定された部分評価エリアに対応する積分回路に与える。分配器92もまた、HPF94によって抽出された高周波成分を取り込み、取り込まれた高周波成分が属する部分評価エリアを特定し、そして取り込まれた高周波成分を特定された部分評価エリアに対応する積分回路に与える。分配器84および94の各々には、図3に示す評価エリアEAの左上座標を示す座標値が与えられる。分配器84および94のいずれも、この座標値を参照して部分評価エリアの特定処理を行う。   The distributor 84 takes in the high-frequency component extracted by the HPF 82, specifies a partial evaluation area to which the taken-in high-frequency component belongs, and supplies the taken-in high-frequency component to the integration circuit corresponding to the specified partial evaluation area. The distributor 92 also takes in the high-frequency component extracted by the HPF 94, specifies the partial evaluation area to which the taken-in high-frequency component belongs, and applies the taken-in high-frequency component to the integration circuit corresponding to the specified partial evaluation area. . Each of the distributors 84 and 94 is given a coordinate value indicating the upper left coordinate of the evaluation area EA shown in FIG. Each of the distributors 84 and 94 performs a partial evaluation area specifying process with reference to the coordinate values.

積分回路86**(**:01〜64)は、加算器88**およびレジスタ90**によって形成される。加算器88**は、分配器84から与えられたYデータ値をレジスタ90**の設定値と加算し、加算値をレジスタ88**に設定する。積分回路96**も、加算器98**およびレジスタ100**によって形成される。加算器98**は、分配器94から与えられたYデータ値をレジスタ100**の設定値と加算し、加算値をレジスタ98**に設定する。レジスタ88**および100**の設定値は、垂直同期信号Vsyncが発生する毎にクリアされる。   The integrating circuit 86 ** (**: 01 to 64) is formed by an adder 88 ** and a register 90 **. The adder 88 ** adds the Y data value given from the distributor 84 with the set value of the register 90 **, and sets the added value in the register 88 **. The integrating circuit 96 ** is also formed by the adder 98 ** and the register 100 **. The adder 98 ** adds the Y data value given from the distributor 94 to the set value of the register 100 **, and sets the added value in the register 98 **. The set values of the registers 88 ** and 100 ** are cleared every time the vertical synchronization signal Vsync is generated.

したがって、レジスタ90**の設定値は、現フレームの各分割評価エリアに属するYデータの水平方向における高周波成分の積分値を表わす。また、レジスタ100**の設定値は、現フレームの各分割評価エリアに属するYデータの垂直方向における高周波成分の積分値を表わす。   Therefore, the set value of register 90 ** represents the integral value of the high frequency component in the horizontal direction of the Y data belonging to each divided evaluation area of the current frame. The set value of the register 100 ** represents the integral value of the high frequency component in the vertical direction of the Y data belonging to each divided evaluation area of the current frame.

AE/AWB評価回路26は、図9に示すように構成される。前処理回路20から与えられたRデータ,GデータおよびBデータはそれぞれ、分配器102,110および118に与えられる。積分回路10401〜10464は64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応し、積分回路11201〜11264も64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応し、積分回路12001〜12064もまた64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応する。   The AE / AWB evaluation circuit 26 is configured as shown in FIG. The R data, G data, and B data supplied from the preprocessing circuit 20 are supplied to the distributors 102, 110, and 118, respectively. The integration circuits 10401 to 10464 correspond to 64 partial evaluation areas (1, 1) to (8, 8), respectively, and the integration circuits 111201 to 11264 also correspond to 64 partial evaluation areas (1, 1) to (8, 8). ) And the integration circuits 12001 to 12064 also correspond to the 64 partial evaluation areas (1, 1) to (8, 8), respectively.

分配器102は、与えられたRデータが属する部分評価エリアを特定し、特定した部分評価エリアに対応する積分回路にRデータを入力する。分配器110も、与えられたGデータが属する部分評価エリアを特定し、特定した部分評価エリアに対応する積分回路にGデータを入力する。分配器118もまた、与えられたBデータが属する部分評価エリアを特定し、特定した部分評価エリアに対応する積分回路にBデータを入力する。分配器102,110および118の各々にも、評価エリアEAの左上座標を示す座標値が与えられる。分配器102,110および118もまた、この座標値を参照して部分評価エリアの特定処理を行う。   The distributor 102 specifies the partial evaluation area to which the given R data belongs, and inputs the R data to the integration circuit corresponding to the specified partial evaluation area. The distributor 110 also identifies the partial evaluation area to which the given G data belongs, and inputs the G data to the integration circuit corresponding to the identified partial evaluation area. The distributor 118 also specifies the partial evaluation area to which the given B data belongs, and inputs the B data to the integration circuit corresponding to the specified partial evaluation area. Each of the distributors 102, 110, and 118 is also given a coordinate value indicating the upper left coordinate of the evaluation area EA. The distributors 102, 110, and 118 also perform processing for specifying the partial evaluation area with reference to the coordinate values.

積分回路104**は、加算器106**およびレジスタ108**によって形成される。加算器106**は、分配器102から与えられたRデータ値をレジスタ108**の設定値と加算し、加算値をレジスタ108**に設定する。積分回路112**も、加算器114**およびレジスタ116**によって形成される。加算器114**は、分配器110から与えられたGデータ値をレジスタ116**の設定値と加算し、加算値をレジスタ116**に設定する。積分回路120**もまた、加算器122**およびレジスタ124**によって形成される。加算器122**は、分配器118から与えられたBデータ値をレジスタ124**の設定値と加算し、加算値をレジスタ124**に設定する。レジスタ108**,116**および124**の設定値は、垂直同期信号Vsyncが発生する毎にクリアされる。   The integrating circuit 104 ** is formed by an adder 106 ** and a register 108 **. The adder 106 ** adds the R data value given from the distributor 102 to the set value of the register 108 **, and sets the added value in the register 108 **. The integrating circuit 112 ** is also formed by the adder 114 ** and the register 116 **. The adder 114 ** adds the G data value given from the distributor 110 to the set value of the register 116 **, and sets the added value in the register 116 **. The integrating circuit 120 ** is also formed by the adder 122 ** and the register 124 **. The adder 122 ** adds the B data value supplied from the distributor 118 with the set value of the register 124 **, and sets the added value in the register 124 **. The set values of the registers 108 **, 116 ** and 124 ** are cleared every time the vertical synchronization signal Vsync is generated.

したがって、レジスタ108**の設定値は、現フレームの各部分評価エリアに属するRデータの積分値を表わす。また、レジスタ116**の設定値は、現フレームの各部分評価エリアに属するGデータの積分値を表わす。さらに、レジスタ124**の設定値は、現フレームの各部分評価エリアに属するBデータの積分値を表わす。   Therefore, the set value of register 108 ** represents the integral value of R data belonging to each partial evaluation area of the current frame. The set value of the register 116 ** represents the integral value of G data belonging to each partial evaluation area of the current frame. Furthermore, the set value of the register 124 ** represents the integral value of B data belonging to each partial evaluation area of the current frame.

後処理回路36は、図10に示すように構成される。コントローラ126は、抽出エリアEXに属するYデータをSDRAM34の生画像エリア34aから読み出すべく、読み出し要求をメモリ制御回路32に向けて繰り返し発行する。これに応答して読み出された生画像データは、SRAM128を経て色分離回路130に与えられる。色分離回路130は、与えられた生画像データに基づいて各画素がR,GおよびBの全ての色情報を有するRGBデータを生成する。   The post-processing circuit 36 is configured as shown in FIG. The controller 126 repeatedly issues a read request to the memory control circuit 32 in order to read Y data belonging to the extraction area EX from the raw image area 34 a of the SDRAM 34. The raw image data read in response to this is given to the color separation circuit 130 via the SRAM 128. The color separation circuit 130 generates RGB data in which each pixel has all the R, G, and B color information based on the given raw image data.

生成されたRGBデータは、白バランス調整回路132によって白バランス調整処理を施された後、YUV変換回路134によってYUV形式の画像データに変換される。変換された画像データは、SRAM138に書き込まれる。コントローラ136は、SRAM138に蓄積された画像データを書き込み要求とともにメモリ制御回路32に出力する。出力された画像データは、メモリ制御回路32によってSDRAM34のYUV画像エリア34bに書き込まれる。   The generated RGB data is subjected to white balance adjustment processing by the white balance adjustment circuit 132 and then converted to YUV format image data by the YUV conversion circuit 134. The converted image data is written in the SRAM 138. The controller 136 outputs the image data stored in the SRAM 138 to the memory control circuit 32 together with a write request. The output image data is written into the YUV image area 34 b of the SDRAM 34 by the memory control circuit 32.

CPU28は、図11に示す動画撮像タスクおよび図12に示す手振れ補正タスクを含む複数のタスクを並列的に処理する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ46に記憶される。   The CPU 28 processes in parallel a plurality of tasks including the moving image capturing task shown in FIG. 11 and the camera shake correction task shown in FIG. Note that control programs corresponding to these tasks are stored in the flash memory 46.

図11を参照して、ステップS1では動画取り込み処理を実行し、ステップS5ではコンティニュアスAFタスクを起動する。ステップS1の処理によってスルー画像がLCDモニタ40から出力され、ステップS3の処理によってフォーカスが連続的に調整される。ステップS5では記録開始操作が行われたか否かを判別し、NOである限りステップS7のAE処理およびステップS9のAWB処理を繰り返す。これによって、露光量および白バランスが適度に調整される。記録開始操作が行わるとステップS11に進み、記録処理を開始するべくI/F42を起動する。ステップS13では記録終了操作が行われたか否かを判別し、NOである限りステップS15のAE処理およびステップS17のAWB処理を繰り返す。記録終了操作が行われるとステップS19に進み、記録処理を終了するべくI/F42を停止する。ステップS19の処理が完了すると、ステップS5に戻る。   Referring to FIG. 11, a moving image capturing process is executed in step S1, and a continuous AF task is activated in step S5. A through image is output from the LCD monitor 40 by the process of step S1, and the focus is continuously adjusted by the process of step S3. In step S5, it is determined whether or not a recording start operation has been performed. As long as the result is NO, the AE process in step S7 and the AWB process in step S9 are repeated. As a result, the exposure amount and the white balance are appropriately adjusted. When the recording start operation is performed, the process proceeds to step S11, and the I / F 42 is activated to start the recording process. In step S13, it is determined whether or not a recording end operation has been performed. As long as the result is NO, the AE process in step S15 and the AWB process in step S17 are repeated. When the recording end operation is performed, the process proceeds to step S19, and the I / F 42 is stopped to end the recording process. When the process of step S19 is completed, the process returns to step S5.

図12を参照して、ステップS31では垂直同期信号Vsyncが発生したか否かを判別し、YESであればステップS33で動き検出回路22から合成動きベクトルUVC,MVCおよびLVCを取り込む。ステップS35では、取り込まれた合成動きベクトルUVC,MVCおよびLVCに基づいて全体動きベクトルを作成する。続くステップS37では現時点の撮像面の動きがパン/チルト動作に起因するものであるか否かを全体動きベクトルに基づいて判別する。ここでYESであればそのままステップS31に戻り、NOであればステップS39に進む。   Referring to FIG. 12, in step S31, it is determined whether or not the vertical synchronization signal Vsync is generated. If YES, the combined motion vectors UVC, MVC and LVC are fetched from the motion detection circuit 22 in step S33. In step S35, an entire motion vector is created based on the fetched synthesized motion vectors UVC, MVC, and LVC. In subsequent step S37, it is determined based on the entire motion vector whether or not the current motion of the imaging surface is caused by the pan / tilt operation. If “YES” here, the process directly returns to the step S31, and if “NO”, the process proceeds to a step S39.

ステップS39では、ステップS35で作成された全体動きベクトルに沿って抽出エリアEXを移動させる。ステップS41では上述の数2および数3に従って次フレームの全体動きベクトルを予測し、ステップS43では予測された全体動きベクトルに沿って評価エリアEAを移動させる。ステップS43の処理の結果、AF評価回路24およびAE/AWB評価回路26によって参照される座標値が変化する。ステップS43の処理が完了すると、ステップS31に戻る。   In step S39, the extraction area EX is moved along the entire motion vector created in step S35. In step S41, the overall motion vector of the next frame is predicted according to the above-described equations 2 and 3, and in step S43, the evaluation area EA is moved along the predicted overall motion vector. As a result of the processing in step S43, the coordinate values referred to by the AF evaluation circuit 24 and the AE / AWB evaluation circuit 26 change. When the process of step S43 is completed, the process returns to step S31.

以上の説明からわかるように、イメージセンサ16は、被写界の光学像が照射される撮像面を有し、撮像面で生成された被写界像を繰り返し出力する。LCDドライバ38は、イメージセンサ16から出力された被写界像のうち抽出エリアEX(第1指定エリア)に属する部分被写界像に基づいて動画像をLCDモニタ40に表示する。CPU28は、イメージセンサ16から出力された被写界像のうち評価エリアEA(第2指定エリア)に属する部分被写界像に基づいて撮像条件を調整する(S3, S7, S9, S15, S17)。CPU28はまた、光軸に直交する方向における撮像面の動きを検出する(22, S33, S35)。CPU28はさらに、検出された動きに対応して抽出エリアEXを移動させ(S39)、抽出エリアEXの移動処理に関連して評価エリアEAを移動させる(S41, S43)。   As can be seen from the above description, the image sensor 16 has an imaging surface on which an optical image of the object scene is irradiated, and repeatedly outputs the object scene image generated on the imaging surface. The LCD driver 38 displays a moving image on the LCD monitor 40 based on the partial scene image belonging to the extraction area EX (first designated area) among the scene images output from the image sensor 16. The CPU 28 adjusts the imaging conditions based on the partial scene image belonging to the evaluation area EA (second designated area) among the scene images output from the image sensor 16 (S3, S7, S9, S15, S17). ). The CPU 28 also detects the movement of the imaging surface in the direction orthogonal to the optical axis (22, S33, S35). Further, the CPU 28 moves the extraction area EX in accordance with the detected movement (S39), and moves the evaluation area EA in relation to the movement process of the extraction area EX (S41, S43).

したがって、撮像条件の調整のために参照される評価エリアEAは、動画像の出力のために参照される抽出エリアEXに追従するように移動する。これによって、撮像条件の調整精度が向上し、出力画像の品質の改善が図られる。   Therefore, the evaluation area EA referred to for adjustment of the imaging condition moves so as to follow the extraction area EX referred to for moving image output. Thereby, the adjustment accuracy of the imaging condition is improved, and the quality of the output image is improved.

なお、この実施例では、イメージセンサ16としてCMOS型のイメージセンサを採用するようにしているが、これに代えてCCD型のイメージセンサを採用するようにしてもよい。ただし、この場合は、過去の数フレームの動きに基づいて次のフレームの動きを予測する必要がある。   In this embodiment, a CMOS type image sensor is adopted as the image sensor 16, but a CCD type image sensor may be adopted instead. However, in this case, it is necessary to predict the motion of the next frame based on the motion of several past frames.

この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 撮像面における抽出エリアおよび動き検出ブロックの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the extraction area and motion detection block in an imaging surface. 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 図1実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。It is an illustration figure which shows an example of the mapping state of SDRAM applied to FIG. 1 Example. (A)は手振れに応じた抽出エリアの移動処理の一例を示す図解図であり、(B)は手振れに応じた評価エリアの移動処理の一例を示す図解図である。(A) is an illustration figure which shows an example of the movement process of the extraction area according to hand movement, (B) is an illustration figure which shows an example of the movement process of the evaluation area according to hand movement. (A)は全体動きベクトルの水平成分を予測する処理の一例を示す図解図であり、(B)は全体動きベクトルの垂直成分を予測する処理の一例を示す図解図である。(A) is an illustration figure which shows an example of the process which estimates the horizontal component of a whole motion vector, (B) is an illustration figure which shows an example of the process which estimates the vertical component of a whole motion vector. 図1実施例に適用される動き検出回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the motion detection circuit applied to the FIG. 1 Example. 図1実施例に適用されるAF評価回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of AF evaluation circuit applied to the FIG. 1 Example. 図1実施例に適用されるAE/AWB評価回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the AE / AWB evaluation circuit applied to the FIG. 1 Example. 図1実施例に適用される後処理回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the post-processing circuit applied to FIG. 1 Example. 図1実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example.

符号の説明Explanation of symbols

10 …ディジタルビデオカメラ
16 …イメージセンサ
20 …前処理回路
22 …動き検出回路
28 …CPU
32 …メモリ制御回路
34 …SDRAM
36 …後処理回路
38 …LCDドライバ
DESCRIPTION OF SYMBOLS 10 ... Digital video camera 16 ... Image sensor 20 ... Pre-processing circuit 22 ... Motion detection circuit 28 ... CPU
32 ... Memory control circuit 34 ... SDRAM
36 ... Post-processing circuit 38 ... LCD driver

Claims (7)

被写界の光学像が照射される撮像面を有し、前記撮像面で生成された被写界像を繰り返し出力する撮像手段、
前記撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段、
前記撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整手段、
光軸に直交する方向における前記撮像面の動きを検出する検出手段、
前記検出手段によって検出された動きに対応して前記第1指定エリアを移動させる第1移動手段、および
前記第1移動手段の移動処理に関連して前記第2指定エリアを移動させる第2移動手段を備える、ビデオカメラ。
An imaging unit having an imaging surface on which an optical image of the object scene is irradiated, and repeatedly outputting the object scene image generated on the imaging surface;
Display means for displaying a moving image based on a partial scene image belonging to the first designated area among the scene images output from the imaging means;
Adjusting means for adjusting an imaging condition based on a partial scene image belonging to the second designated area among the scene images output from the imaging means;
Detecting means for detecting movement of the imaging surface in a direction perpendicular to the optical axis;
First moving means for moving the first designated area corresponding to the movement detected by the detecting means; and second moving means for moving the second designated area in relation to movement processing of the first moving means. With a video camera.
前記第2移動手段は、前記検出手段によって検出された動きに基づいて前記撮像面の未来の動きを予測する予測手段、および前記予測手段によって予測された動きに対応して前記第2指定エリアを移動させるエリア移動手段を含む、請求項1記載のビデオカメラ。   The second moving unit predicts a future movement of the imaging surface based on the movement detected by the detecting unit, and the second designated area corresponding to the movement predicted by the prediction unit. The video camera according to claim 1, further comprising an area moving means for moving. 前記撮像手段はフォーカルプレーン電子シャッタ方式の露光動作を行い、
前記検出手段は、前記撮像手段から出力された被写界像に垂直方向に並ぶ複数のブロックを割り当てる割り当て手段、および前記割り当て手段によって割り当てられた複数のブロックに属する複数のブロック画像の動きベクトルを個別に生成する動きベクトル生成手段を含み、
前記予測手段は前記動きベクトル生成手段によって生成された複数の動きベクトルに基づいて前記撮像面の未来の動きを予測する、請求項2記載のビデオカメラ。
The imaging means performs an exposure operation of a focal plane electronic shutter system,
The detection means assigns a plurality of blocks arranged in the vertical direction to the object scene image output from the imaging means, and motion vectors of a plurality of block images belonging to the plurality of blocks assigned by the assignment means. Including individually generated motion vector generating means,
The video camera according to claim 2, wherein the predicting unit predicts a future motion of the imaging surface based on a plurality of motion vectors generated by the motion vector generating unit.
前記割り当て手段によって前記垂直方向に割り当てられるブロックの数を前記撮像手段の撮像周期と前記撮像面の振動周波数とに基づいて決定するようにした、請求項3記載のビデオカメラ。   The video camera according to claim 3, wherein the number of blocks assigned in the vertical direction by the assigning unit is determined based on an imaging period of the imaging unit and a vibration frequency of the imaging surface. 前記撮像手段から出力された被写界像をメモリに書き込む書き込み手段、および
前記書き込み手段によって前記メモリに格納された被写界像のうち前記第1指定エリアに属する部分被写界像を前記表示手段の表示処理のために読み出す読み出し手段をさらに備える、請求項1ないし4のいずれかに記載のビデオカメラ。
Write means for writing the object scene image output from the image pickup means into a memory, and display the partial object scene image belonging to the first designated area among the object scene images stored in the memory by the writing means 5. The video camera according to claim 1, further comprising reading means for reading out for display processing of the means.
被写界の光学像が照射される撮像面を有し、被写界像を繰り返し出力する撮像手段、および前記撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段を備えるビデオカメラのプロセッサに、
前記撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ、
光軸に直交する方向における前記撮像面の動きを検出する検出ステップ、
前記検出ステップによって検出された動きに対応して前記第1指定エリアを移動させる第1移動ステップ、および
前記第1移動ステップの移動処理に関連して前記第2指定エリアを移動させる第2移動ステップを実行させるための、撮像制御プログラム。
An imaging unit having an imaging surface on which an optical image of the object scene is irradiated and outputting the object scene image repeatedly, and a partial object belonging to the first designated area among the object scene images output from the imaging unit In a video camera processor having display means for displaying a moving image based on a field image,
An adjustment step of adjusting an imaging condition based on a partial scene image belonging to the second designated area among the scene images output from the imaging means;
A detection step of detecting movement of the imaging surface in a direction orthogonal to the optical axis;
A first movement step for moving the first designated area corresponding to the movement detected by the detection step; and a second movement step for moving the second designated area in relation to the movement process of the first movement step. An imaging control program for executing
被写界の光学像が照射される撮像面を有し、被写界像を繰り返し出力する撮像手段、および前記撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段を備えるビデオカメラによって実行される撮像制御方法であって、
前記撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ、
光軸に直交する方向における前記撮像面の動きを検出する検出ステップ、
前記検出ステップによって検出された動きに対応して前記第1指定エリアを移動させる第1移動ステップ、および
前記第1移動ステップの移動処理に関連して前記第2指定エリアを移動させる第2移動ステップを備える、撮像制御方法。
An imaging unit having an imaging surface on which an optical image of the object scene is irradiated and outputting the object scene image repeatedly, and a partial object belonging to the first designated area among the object scene images output from the imaging unit An imaging control method executed by a video camera including display means for displaying a moving image based on a field image,
An adjustment step of adjusting an imaging condition based on a partial scene image belonging to the second designated area among the scene images output from the imaging means;
A detection step of detecting movement of the imaging surface in a direction orthogonal to the optical axis;
A first movement step for moving the first designated area corresponding to the movement detected by the detection step; and a second movement step for moving the second designated area in relation to the movement process of the first movement step. An imaging control method comprising:
JP2008049663A 2008-02-29 2008-02-29 Video camera Expired - Fee Related JP5121505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008049663A JP5121505B2 (en) 2008-02-29 2008-02-29 Video camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008049663A JP5121505B2 (en) 2008-02-29 2008-02-29 Video camera

Publications (2)

Publication Number Publication Date
JP2009207063A true JP2009207063A (en) 2009-09-10
JP5121505B2 JP5121505B2 (en) 2013-01-16

Family

ID=41148853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008049663A Expired - Fee Related JP5121505B2 (en) 2008-02-29 2008-02-29 Video camera

Country Status (1)

Country Link
JP (1) JP5121505B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050457A (en) * 2004-08-06 2006-02-16 Canon Inc Imaging apparatus
JP2007074031A (en) * 2005-09-02 2007-03-22 Canon Inc Imaging device, and image processing apparatus and method therefor
JP2007281555A (en) * 2006-04-03 2007-10-25 Seiko Epson Corp Imaging apparatus
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050457A (en) * 2004-08-06 2006-02-16 Canon Inc Imaging apparatus
JP2007074031A (en) * 2005-09-02 2007-03-22 Canon Inc Imaging device, and image processing apparatus and method therefor
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment
JP2007281555A (en) * 2006-04-03 2007-10-25 Seiko Epson Corp Imaging apparatus

Also Published As

Publication number Publication date
JP5121505B2 (en) 2013-01-16

Similar Documents

Publication Publication Date Title
US7956899B2 (en) Imaging device and image processing apparatus
JP4720859B2 (en) Image processing apparatus, image processing method, and program
US8253812B2 (en) Video camera which adopts a focal-plane electronic shutter system
KR20090071471A (en) Imaging device and its shutter drive mode selection method
JP2013165485A (en) Image processing apparatus, image capturing apparatus, and computer program
JP5207955B2 (en) Electronic camera
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
JP5197064B2 (en) Video camera
JP2016111568A (en) Image blur correction control device, imaging apparatus, control method and program thereof
US8120668B2 (en) Electronic camera for adjusting a parameter for regulating an image quality based on the image data outputted from an image sensor
US20220321743A1 (en) Image processing apparatus and method, and image capturing apparatus
JP5121505B2 (en) Video camera
JP2009021909A (en) Image adder, method, and program
JP2015177303A (en) Imaging device and control method therefor
JP2009027437A (en) Image processor, image processing method and imaging device
JP2010245582A (en) Electronic camera
JP2015041869A (en) Imaging apparatus, information processing method, and program
US11206344B2 (en) Image pickup apparatus and storage medium
US8270673B2 (en) Motion detecting apparatus
JP5929362B2 (en) Imaging apparatus and imaging method
JP5301690B2 (en) Imaging apparatus, method, and program
JP5127731B2 (en) Video camera
JP2022042829A (en) Notification device, imaging apparatus, notification method, and program
JP4989524B2 (en) Electronic camera
JP2022188690A (en) Imaging device, image processing device, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees