JP2009207063A - Video camera - Google Patents
Video camera Download PDFInfo
- Publication number
- JP2009207063A JP2009207063A JP2008049663A JP2008049663A JP2009207063A JP 2009207063 A JP2009207063 A JP 2009207063A JP 2008049663 A JP2008049663 A JP 2008049663A JP 2008049663 A JP2008049663 A JP 2008049663A JP 2009207063 A JP2009207063 A JP 2009207063A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- movement
- moving
- designated area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
この発明は、ビデオカメラに関し、特に撮像面で生成された被写界像に基づいて撮像条件を調整する、ビデオカメラに関する。 The present invention relates to a video camera, and more particularly to a video camera that adjusts imaging conditions based on an object scene image generated on an imaging surface.
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、映像信号の高域周波数成分が、ハイパスフィルタによって抽出される。ゲート回路は、抽出された高周波成分のうちAF領域に属する高周波成分を抜き出し、ピント検出回路は、抜き出された高周波成分に基づいてフォーカス調整のためのピント情報を検出する。
しかし、背景技術では、AF領域の位置が撮像面の手振れに応じて変更されることがなく、出力画像の品質に限界がある。 However, in the background art, the position of the AF area is not changed according to the camera shake on the imaging surface, and the quality of the output image is limited.
それゆえに、この発明の主たる目的は、出力画像の品質を改善することができる、ビデオカメラを提供することである。 Therefore, a main object of the present invention is to provide a video camera capable of improving the quality of an output image.
この発明に従うビデオカメラ(10:実施例で相当する参照符号。以下同じ)は、被写界の光学像が照射される撮像面を有し、撮像面で生成された被写界像を繰り返し出力する撮像手段(16)、撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段(38, 40)、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整手段(S3, S7, S9, S15, S17)、光軸に直交する方向における撮像面の動きを検出する検出手段(S33)、検出手段によって検出された動きに対応して第1指定エリアを移動させる第1移動手段(S39)、および第1移動手段の移動処理に関連して第2指定エリアを移動させる第2移動手段(S41, S43)を備える。 The video camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) has an imaging surface on which an optical image of the object scene is irradiated, and repeatedly outputs the object scene image generated on the imaging surface. Imaging means (16), display means (38, 40) for displaying a moving image based on a partial scene image belonging to the first designated area among the scene images output from the imaging means, and output from the imaging means Adjusting means (S3, S7, S9, S15, S17) for adjusting the imaging condition based on the partial object scene image belonging to the second designated area among the received object scene images, the image pickup surface in the direction orthogonal to the optical axis Detection means (S33) for detecting the movement of the first movement means, first movement means (S39) for moving the first designated area corresponding to the movement detected by the detection means, and movement processing of the first movement means. 2 A second moving means (S41, S43) for moving the designated area is provided.
撮像手段は、被写界の光学像が照射される撮像面を有し、撮像面で生成された被写界像を繰り返し出力する。表示手段は、撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する。調整手段は、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する。光軸に直交する方向における撮像面の動きは、検出手段によって検出される。第1指定エリアは、検出手段によって検出された動きに対応して、第1移動手段によって移動される。第2指定エリアは、第1移動手段の移動処理に関連して、第2移動手段によって移動される。 The imaging unit has an imaging surface on which an optical image of the object scene is irradiated, and repeatedly outputs the object scene image generated on the imaging surface. The display means displays a moving image based on a partial scene image belonging to the first designated area among the scene images output from the imaging means. The adjusting unit adjusts the imaging condition based on the partial scene image belonging to the second designated area among the scene images output from the imaging unit. The movement of the imaging surface in the direction orthogonal to the optical axis is detected by the detection means. The first designated area is moved by the first moving means in response to the movement detected by the detecting means. The second designated area is moved by the second moving means in association with the moving process of the first moving means.
したがって、撮像条件の調整のために参照される第2指定エリアは、動画像の出力のために参照される第1指定エリアに追従するように移動する。これによって、撮像条件の調整精度が向上し、出力画像の品質の改善が図られる。 Accordingly, the second designated area that is referred to for adjustment of the imaging condition moves so as to follow the first designated area that is referred to for output of the moving image. Thereby, the adjustment accuracy of the imaging condition is improved, and the quality of the output image is improved.
好ましくは、第2移動手段は、検出手段によって検出された動きに基づいて撮像面の未来の動きを予測する予測手段(41)、および予測手段によって予測された動きに対応して第2指定エリアを移動させるエリア移動手段(S43)を含む。これによって、第2指定エリアの追従性が向上する。 Preferably, the second moving means predicts a future movement of the imaging surface based on the movement detected by the detecting means, and a second designated area corresponding to the movement predicted by the prediction means. Includes area moving means (S43). This improves the followability of the second designated area.
さらに好ましくは、撮像手段はフォーカルプレーン電子シャッタ方式の露光動作を行い、検出手段は、撮像手段から出力された被写界像に垂直方向に並ぶ複数のブロックを割り当てる割り当て手段(50~56)、および割り当て手段によって割り当てられた複数のブロックに属する複数のブロック画像の動きベクトルを個別に生成する動きベクトル生成手段(58~74)を含み、予測手段は動きベクトル生成手段によって生成された複数の動きベクトルに基づいて撮像面の未来の動きを予測する。 More preferably, the imaging unit performs an exposure operation of a focal plane electronic shutter system, and the detection unit allocates a plurality of blocks arranged in the vertical direction in the object scene image output from the imaging unit (50 to 56), And motion vector generation means (58-74) for individually generating motion vectors of a plurality of block images belonging to the plurality of blocks assigned by the assignment means, and the prediction means includes a plurality of motions generated by the motion vector generation means Predict future movement of the imaging surface based on the vector.
より好ましくは、割り当て手段によって垂直方向に割り当てられるブロックの数は撮像手段の撮像周期と撮像面の振動周波数とに基づいて決定される。 More preferably, the number of blocks assigned in the vertical direction by the assigning unit is determined based on the imaging period of the imaging unit and the vibration frequency of the imaging surface.
好ましくは、撮像手段から出力された被写界像をメモリに書き込む書き込み手段(20)、および書き込み手段によってメモリに格納された被写界像のうち第1指定エリアに属する部分被写界像を表示手段の表示処理のために読み出す読み出し手段(38)をさらに備える。 Preferably, writing means (20) for writing the object scene image output from the imaging means to the memory, and a partial object scene image belonging to the first designated area among the object scene images stored in the memory by the writing means. A reading means (38) for reading for display processing of the display means is further provided.
この発明に従う撮像制御プログラムは、被写界の光学像が照射される撮像面を有し、被写界像を繰り返し出力する撮像手段(16)、および撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段(38, 40)を備えるビデオカメラ(10)のプロセッサ(28)に、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ(S3, S7, S9, S15, S17)、光軸に直交する方向における撮像面の動きを検出する検出ステップ(S33, S35)、検出ステップによって検出された動きに対応して第1指定エリアを移動させる第1移動ステップ(S39)、および第1移動ステップの移動処理に関連して第2指定エリアを移動させる第2移動ステップ(S41, S43)を実行させるための、撮像制御プログラムである。 An imaging control program according to the present invention has an imaging surface on which an optical image of a scene is illuminated, an imaging means (16) that repeatedly outputs the scene image, and an image of the scene image output from the imaging means Of these, the scene output from the imaging means to the processor (28) of the video camera (10) provided with the display means (38, 40) for displaying a moving image based on the partial scene image belonging to the first designated area. An adjustment step (S3, S7, S9, S15, S17) for adjusting the imaging condition based on the partial object scene image belonging to the second designated area in the image, and detecting the movement of the imaging surface in the direction orthogonal to the optical axis A detection step (S33, S35), a first movement step (S39) for moving the first designated area corresponding to the movement detected in the detection step, and a second designated area in relation to the movement process of the first movement step. For moving the second movement step (S41, S43) , An imaging control program.
この発明に従う撮像制御方法は、被写界の光学像が照射される撮像面を有し、被写界像を繰り返し出力する撮像手段(16)、および撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段(38, 40)を備えるビデオカメラ(10)によって実行される撮像制御方法であって、撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ(S3, S7, S9, S15, S17)、光軸に直交する方向における撮像面の動きを検出する検出ステップ(S33, S35)、検出ステップによって検出された動きに対応して第1指定エリアを移動させる第1移動ステップ(S39)、および第1移動ステップの移動処理に関連して第2指定エリアを移動させる第2移動ステップ(S41, S43)を備える。 The imaging control method according to the present invention has an imaging surface on which an optical image of the object scene is irradiated, an image pickup means (16) that repeatedly outputs the object scene image, and an object scene image output from the image pickup means. An imaging control method executed by a video camera (10) including display means (38, 40) for displaying a moving image based on a partial scene image belonging to the first designated area, which is output from the imaging means Adjustment step (S3, S7, S9, S15, S17) for adjusting the imaging condition based on the partial object scene image belonging to the second designated area of the object scene image, the imaging surface in the direction orthogonal to the optical axis In relation to the detection steps (S33, S35) for detecting movement, the first movement step (S39) for moving the first designated area corresponding to the movement detected in the detection step, and the movement process of the first movement step The second movement step (S41, S43) to move the second designated area Obtain.
この発明によれば、撮像条件の調整のために参照される第2指定エリアは、動画像の出力のために参照される第1指定エリアに追従するように移動する。これによって、撮像条件の調整精度が向上し、出力画像の品質の改善が図られる。 According to the present invention, the second designated area that is referred to for adjustment of the imaging condition moves so as to follow the first designated area that is referred to for output of the moving image. Thereby, the adjustment accuracy of the imaging condition is improved, and the quality of the output image is improved.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のディジタルビデオカメラ10は、光学レンズ12および絞りユニット14を含む。被写界の光学像は、これらの部材を通してCMOS型のイメージセンサ16の撮像面に照射される。撮像面は、原色ベイヤ配列の色フィルタ(図示せず)によって覆われる。したがって、各画素では、R(Red),G(Green)およびB(Blue)のいずれか1つの色情報を有する電荷が光電変換によって生成される。
Referring to FIG. 1, a
電源が投入されると、CPU28は、動画取り込み処理を実行するべくドライバ18を起動する。ドライバ18は、1/60秒毎に発生する垂直同期信号Vsyncに応答して、撮像面をフォーカルプレーン電子シャッタ方式(露光タイミングが水平画素列によって異なる方式)で露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、被写界を表す生画像データが60fpsのフレームレートで出力される。
When the power is turned on, the
前処理回路20は、イメージセンサ16からの生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これによって生成された生画像データは、メモリ制御回路32を通してSDRAM34の生画像エリア34a(図4参照)に書き込まれる。
The preprocessing
撮像面には、図2に示す要領で抽出エリアEXが割り当てられる。後処理回路36は、生画像エリア24aに格納された生画像データのうち抽出エリアEXに属する一部の生画像データをメモリ制御回路32を通して1/60秒毎に読み出し、読み出された生画像データに色分離,白バランス調整,YUV変換などの処理を施す。この結果、YUV形式に対応する画像データが1/60秒毎に作成される。作成された画像データは、メモリ制御回路32を通してSDRAM34のYUV画像エリア34b(図4参照)に書き込まれる。
An extraction area EX is allocated to the imaging surface in the manner shown in FIG. The
LCDドライバ38は、YUV画像エリア34bに格納された画像データを繰り返し読み出し、読み出された画像データに基づいてLCDモニタ40を駆動する。この結果、被写界を表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。
The
前処理回路20は、上述の処理に加えて、簡易Y生成処理および簡易RGB生成処理を実行する。生画像データは、簡易Y変換処理によってYデータに変換され、簡易RGB変換処理によってRGBデータ(各画素がR,GおよびBの全ての色情報を有するデータ)に変換される。簡易Y変換処理によって生成されたYデータは動き検出回路22およびAF評価回路24に与えられ、簡易RGB変換処理によって生成されたRGBデータはAE/AWB評価回路26に与えられる。
The preprocessing
図2を参照して、撮像面には9つの動き検出ブロックMD1〜MD9が割り当てられる。動き検出ブロックMD1〜MD3は撮像面の上段に水平方向に並び、動き検出ブロックMD4〜MD6は撮像面の中断に水平方向に並び、動き検出ブロックMD7〜MD9は撮像面の下段に水平方向に並ぶ。垂直方向に割り当てるべき動き検出ブロックの最小数は、数1に従って決定される。
[数1]
MN=TM×SF×α
MN:垂直方向に割り当てるべき動き検出ブロックの最小数
TM:撮像周期(垂直同期信号Vsyncの発生周期)
SF:撮像面の振動周波数
α:定数(=18)
Referring to FIG. 2, nine motion detection blocks MD1 to MD9 are assigned to the imaging surface. The motion detection blocks MD1 to MD3 are arranged horizontally in the upper stage of the imaging surface, the motion detection blocks MD4 to MD6 are arranged horizontally in the interruption of the imaging surface, and the motion detection blocks MD7 to MD9 are arranged horizontally in the lower stage of the imaging surface. . The minimum number of motion detection blocks to be allocated in the vertical direction is determined according to Equation 1.
[Equation 1]
MN = TM × SF × α
MN: Minimum number of motion detection blocks to be assigned in the vertical direction TM: Imaging period (generation period of the vertical synchronization signal Vsync)
SF: imaging surface vibration frequency α: constant (= 18)
数1によれば、撮像周期と撮像面の振動周波数との掛算値に定数αを掛算することで、垂直方向に割り当てるべき動き検出ブロックの最小数が得られる。ここで、撮像面の振動周波数は操作者の手振れ周波数(=約10Hz)に相当する。したがって、この実施例のように撮像周期が“1/60秒”であれば、垂直方向に割り当てるべき動き検出ブロックの最小数は“3”となる。また、撮像周期が“1/30秒”であれば、垂直方向に割り当てるべき動き検出ブロックの最小数は“6”となる。 According to Equation 1, the minimum number of motion detection blocks to be assigned in the vertical direction can be obtained by multiplying the multiplication value of the imaging period and the vibration frequency of the imaging surface by a constant α. Here, the vibration frequency of the imaging surface corresponds to the hand vibration frequency (= about 10 Hz) of the operator. Therefore, if the imaging cycle is “1/60 seconds” as in this embodiment, the minimum number of motion detection blocks to be assigned in the vertical direction is “3”. If the imaging cycle is “1/30 seconds”, the minimum number of motion detection blocks to be assigned in the vertical direction is “6”.
動き検出回路22は、動き検出ブロックMD1〜MD9の各々における被写界の動きを表す部分動きベクトルを、前処理回路20から与えられたYデータに基づいて1/60秒毎に検出する。動き検出回路22はまた、動き検出ブロックMD1〜MD3の部分動きベクトルを合成して合成動きベクトルUVCを1/60秒毎に生成し、動き検出ブロックMD4〜MD6の部分動きベクトルを合成して合成動きベクトルMVCを1/60秒毎に生成し、そして動き検出ブロックMD7〜MD9の部分動きベクトルを合成して合成動きベクトルLVCを1/60秒毎に生成する。
The
合成動きベクトルUVCは撮像面の上段における被写界の動きを表し、合成動きベクトルMVCは撮像面の中断における被写界の動きを表し、そして合成動きベクトルLVCは撮像面の下段における被写界の動きを表す。 The composite motion vector UVC represents the motion of the scene on the upper stage of the imaging surface, the composite motion vector MVC represents the motion of the scene on the interruption of the imaging surface, and the composite motion vector LVC represents the scene of the scene on the lower stage of the imaging surface. Represents the movement.
CPU28は、動き検出回路22から出力された合成動きベクトルUVC,MVCおよびLVCに基づいて全体動きベクトルを作成し、光軸に直交する方向における撮像面の動きが手振れおよびパン/チルト動作のいずれに起因するかを全体動きベクトルに基づいて判別し、そして撮像面の動きが手振れに起因するときに全体動きベクトルに沿って抽出エリアEXを移動させる。抽出エリアEXの位置は、手振れに起因する撮像面の動きが補償(相殺)されるように変更される。抽出エリアEXは、撮像面に手振れが生じたとき、図5(A)に示す要領で撮像面上を移動する。
The
図3を参照して、撮像面には評価エリアEAが割り当てられる。評価エリアEAは、垂直方向および水平方向の各々において8分割され、合計64個の部分評価エリアによって形成される。この64個の部分評価エリアには、座標値(X,Y)=(1,1)〜(8,8)がそれぞれ割り当てられる。 Referring to FIG. 3, an evaluation area EA is assigned to the imaging surface. The evaluation area EA is divided into eight in each of the vertical direction and the horizontal direction, and is formed by a total of 64 partial evaluation areas. Coordinate values (X, Y) = (1, 1) to (8, 8) are assigned to the 64 partial evaluation areas.
AF評価回路24は、前処理回路20から出力されたYデータのうち各部分評価エリアに属するYデータに注目し、注目するYデータの高周波成分を水平方向および垂直方向の各々について1/60秒毎に積分する。この結果、水平方向の高周波成分に関する64個の積分値HIh(1,1)〜HIh(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られ、垂直方向の高周波成分に関する64個の積分値HIv(1,1)〜HIv(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られる。CPU28は、AF評価回路24から出力されたこれらの積分値に基づいていわゆるコンティニュアスAF処理を実行し、光学レンズ12を合焦点に配置する。
The
AE/AWB評価回路24は、前処理回路20から出力されたRGBデータのうち各部分評価エリアに属するRGBデータに注目し、注目するRデータ,GデータおよびBデータの各々を1/60秒毎に積分する。この結果、Rデータに関する64個の積分値Ir(1,1)〜Ir(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られ、Gデータに関する64個の積分値Ig(1,1)〜Ig(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られ、そしてBデータに関する64個の積分値Ib(1,1)〜Ib(8,8)が64個の部分評価エリア(1,1)〜(8,8)に対応して得られる。
The AE /
CPU28は、AE/AWB評価値から出力されたこれらの積分値に基づいて、適正露光量が得られるEV値と適正白バランスが得られる白バランス調整ゲインとを算出する。CPU28はさらに、算出されたEV値を定義する絞り量および露光時間を絞りユニットおよびドライバ18に設定し、算出された白バランス調整ゲインを後処理回路36に設定する。このようなAE処理およびAWB処理が実行された結果、LCDモニタ40から出力される動画像の明るさおよび白バランスが適度に調整される。
Based on these integrated values output from the AE / AWB evaluation value, the
上述のように、抽出エリアEXは、撮像面の手振れが補償されるように移動される。にもかかわらず、評価エリアEAを図3に示す位置に固定するようにすると、抽出エリアEXから外れた位置にある被写体が上述した撮像条件の調整動作に影響を及ぼすおそれがある。そこで、この実施例では、抽出エリアEXの移動処理に関連して評価エリアEAも移動させるようにしている。評価エリアEAは抽出エリアEXに追従して図5(B)に示すように移動し、これによって撮像条件の調整精度が向上する。 As described above, the extraction area EX is moved so that camera shake on the imaging surface is compensated. Nevertheless, if the evaluation area EA is fixed at the position shown in FIG. 3, the subject at a position outside the extraction area EX may affect the above-described adjustment operation of the imaging condition. Therefore, in this embodiment, the evaluation area EA is also moved in association with the movement process of the extraction area EX. The evaluation area EA moves as shown in FIG. 5B following the extraction area EX, thereby improving the adjustment accuracy of the imaging conditions.
ただし、前処理回路20から出力された生画像データがSDRAM34に一時的に格納されることから、後処理回路36による抽出エリアEXの移動については1フレームの猶予期間が与えられるのに対して、AF評価回路24およびAE/AWB評価回路26は動き検出回路22が注目するフレームと同じフレームに動き検出回路22が注目するタイミングと同じタイミングで注目するため、AF評価回路24およびAE/AWB評価回路26の動作についてはこのような猶予期間は存在しない。
However, since the raw image data output from the
そこで、CPU28は、動き検出回路22から出力された合成動きベクトルUVC,MVCおよびLVCに基づいて次フレームつまり未来の全体動きベクトルを数2および数3に従って予測し、予測した全体動きベクトルに沿って評価エリアEAを移動させる。
[数2]
EVCx=2*LVCx−(ΔUMx*α+ΔMLx)/2
EVCx:予測された全体動きベクトルの水平成分
LVCx:合成動きベクトルLVCの水平成分
ΔUMx:合成動きベクトルUVCおよびMVCの水平成分の差分
ΔMLx:合成動きベクトルMVCおよびLVCの水平成分の差分
α:定数
[数3]
EVCy=2*LVCy−(ΔUMy*β+ΔMLy)/2
EVCy:予測された全体動きベクトルの垂直成分
LVCy:合成動きベクトルLVCの垂直成分
ΔUMy:合成動きベクトルUVCおよびMVCの垂直成分の差分
ΔMLy:合成動きベクトルMVCおよびLVCの垂直成分の差分
β:定数
Therefore, the
[Equation 2]
EVCx = 2 * LVCx− (ΔUMx * α + ΔMLx) / 2
EVCx: predicted horizontal component of overall motion vector LVCx: horizontal component of combined motion vector LVC ΔUMx: difference between horizontal components of combined motion vector UVC and MVC ΔMLx: difference between horizontal components of combined motion vectors MVC and LVC α: constant [ Equation 3]
EVCy = 2 * LVCy− (ΔUMy * β + ΔMLy) / 2
EVCy: predicted vertical component of the entire motion vector LVCy: vertical component of the combined motion vector LVC ΔUMy: difference between the vertical components of the combined motion vector UVC and MVC ΔMLy: difference between the vertical components of the combined motion vectors MVC and LVC β: constant
したがって、合成動きベクトルUVC,MVCおよびLVCの水平成分が図6(A)の上段に示す要領で変化した場合、全体動きベクトルの水平成分は図6(A)の下段に示す要領で予測される。また、合成動きベクトルUVC,MVCおよびLVCの垂直成分が図6(B)の上段に示す要領で変化した場合、全体動きベクトルの垂直成分は図6(B)の下段に示す要領で予測される。これによって、抽出エリアEXに対する評価エリアEAの追従性が向上する。 Therefore, when the horizontal components of the combined motion vectors UVC, MVC, and LVC change in the manner shown in the upper part of FIG. 6A, the horizontal component of the entire motion vector is predicted in the manner shown in the lower part of FIG. . When the vertical components of the combined motion vectors UVC, MVC, and LVC change in the manner shown in the upper part of FIG. 6B, the vertical component of the entire motion vector is predicted in the manner shown in the lower part of FIG. . Thereby, the followability of the evaluation area EA with respect to the extraction area EX is improved.
キー入力装置30によって記録開始操作が行われると、CPU28は、記録処理を開始するべくI/F42を起動する。I/F42は、YUV画像エリア34bに格納された画像データを1/60秒毎に読み出し、読み出された画像データを記録媒体44内の動画ファイルに圧縮状態で書き込む。I/F42は、キー入力装置30上で記録終了操作が行われたときにCPU28によって停止される。この結果、画像データの記録処理が終了される。
When a recording start operation is performed by the
動き検出回路22は、図7に示すように構成される。Yデータは、フレームメモリ48および分配器50に与えられる。フレームメモリ48は1フレームに相当する容量を各々が有する2つのバンクによって形成され、与えられたYデータはこの2つのバンクに交互に書き込まれる。
The
分配器50は、動き検出ブロックMD1,MD4およびMD7に属するYデータを分配器52に与え、動き検出ブロックMD2,MD5およびMD8に属するYデータを分配器54に与え、そして動き検出ブロックMD3,MD6およびMD9に属するYデータを分配器56に与える。
分配器52は、動き検出ブロックMD1に属するYデータを部分動きベクトル検出回路58に与え、動き検出ブロックMD4に属するYデータを部分動きベクトル検出回路64に与え、そして動き検出ブロックMD7に属するYデータを部分動きベクトル検出回路70に与える。分配器54は、動き検出ブロックMD2に属するYデータを部分動きベクトル検出回路60に与え、動き検出ブロックMD5に属するYデータを部分動きベクトル検出回路66に与え、そして動き検出ブロックMD8に属するYデータを部分動きベクトル検出回路72に与える。分配器56は、動き検出ブロックMD3に属するYデータを部分動きベクトル検出回路62に与え、動き検出ブロックMD6に属するYデータを部分動きベクトル検出回路68に与え、そして動き検出ブロックMD9に属するYデータを部分動きベクトル検出回路74に与える。
The
部分動きベクトル検出回路58〜74の各々は、分配器52,54または56から与えられたYデータをフレームメモリ48に格納された前フレームのYデータと比較して、注目する動き検出ブロックにおける被写界の動きを表す部分動きベクトルを検出する。この結果、動き検出ブロックMD1〜MD9にそれぞれ対応する9つの部分動きベクトルが得られる。
Each of the partial motion
合成動きベクトル生成回路76は、部分動きベクトル検出回路58,60および62でそれぞれ検出された3つの部分動きベクトルを合成し、撮像面の上段における被写界の動きを表す合成動きベクトルUVCを生成する。合成動きベクトル生成回路78は、部分動きベクトル検出回路64,66および68でそれぞれ検出された3つの部分動きベクトルを合成し、撮像面の中段における被写界の動きを表す合成動きベクトルMVCを生成する。合成動きベクトル生成回路80は、部分動きベクトル検出回路70,72および74でそれぞれ検出された3つの部分動きベクトルを合成し、撮像面の下段における被写界の動きを表す合成動きベクトルLVCを生成する。
The combined motion
AF評価回路24は、図8に示すように構成される。HPF82は前処理回路20から与えられたYデータの水平方向における高周波成分を抽出し、HPF92は前処理回路20から与えられたYデータの垂直方向における高周波成分を抽出する。積分回路8601〜8664は上述した64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応し、積分回路9601〜9664も上述の64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応する。
The
分配器84は、HPF82によって抽出された高周波成分を取り込み、取り込まれた高周波成分が属する部分評価エリアを特定し、そして取り込まれた高周波成分を特定された部分評価エリアに対応する積分回路に与える。分配器92もまた、HPF94によって抽出された高周波成分を取り込み、取り込まれた高周波成分が属する部分評価エリアを特定し、そして取り込まれた高周波成分を特定された部分評価エリアに対応する積分回路に与える。分配器84および94の各々には、図3に示す評価エリアEAの左上座標を示す座標値が与えられる。分配器84および94のいずれも、この座標値を参照して部分評価エリアの特定処理を行う。
The
積分回路86**(**:01〜64)は、加算器88**およびレジスタ90**によって形成される。加算器88**は、分配器84から与えられたYデータ値をレジスタ90**の設定値と加算し、加算値をレジスタ88**に設定する。積分回路96**も、加算器98**およびレジスタ100**によって形成される。加算器98**は、分配器94から与えられたYデータ値をレジスタ100**の設定値と加算し、加算値をレジスタ98**に設定する。レジスタ88**および100**の設定値は、垂直同期信号Vsyncが発生する毎にクリアされる。
The integrating circuit 86 ** (**: 01 to 64) is formed by an adder 88 ** and a register 90 **. The adder 88 ** adds the Y data value given from the
したがって、レジスタ90**の設定値は、現フレームの各分割評価エリアに属するYデータの水平方向における高周波成分の積分値を表わす。また、レジスタ100**の設定値は、現フレームの各分割評価エリアに属するYデータの垂直方向における高周波成分の積分値を表わす。
Therefore, the set value of register 90 ** represents the integral value of the high frequency component in the horizontal direction of the Y data belonging to each divided evaluation area of the current frame. The set value of the
AE/AWB評価回路26は、図9に示すように構成される。前処理回路20から与えられたRデータ,GデータおよびBデータはそれぞれ、分配器102,110および118に与えられる。積分回路10401〜10464は64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応し、積分回路11201〜11264も64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応し、積分回路12001〜12064もまた64個の部分評価エリア(1,1)〜(8,8)にそれぞれ対応する。
The AE /
分配器102は、与えられたRデータが属する部分評価エリアを特定し、特定した部分評価エリアに対応する積分回路にRデータを入力する。分配器110も、与えられたGデータが属する部分評価エリアを特定し、特定した部分評価エリアに対応する積分回路にGデータを入力する。分配器118もまた、与えられたBデータが属する部分評価エリアを特定し、特定した部分評価エリアに対応する積分回路にBデータを入力する。分配器102,110および118の各々にも、評価エリアEAの左上座標を示す座標値が与えられる。分配器102,110および118もまた、この座標値を参照して部分評価エリアの特定処理を行う。
The
積分回路104**は、加算器106**およびレジスタ108**によって形成される。加算器106**は、分配器102から与えられたRデータ値をレジスタ108**の設定値と加算し、加算値をレジスタ108**に設定する。積分回路112**も、加算器114**およびレジスタ116**によって形成される。加算器114**は、分配器110から与えられたGデータ値をレジスタ116**の設定値と加算し、加算値をレジスタ116**に設定する。積分回路120**もまた、加算器122**およびレジスタ124**によって形成される。加算器122**は、分配器118から与えられたBデータ値をレジスタ124**の設定値と加算し、加算値をレジスタ124**に設定する。レジスタ108**,116**および124**の設定値は、垂直同期信号Vsyncが発生する毎にクリアされる。
The integrating circuit 104 ** is formed by an adder 106 ** and a register 108 **. The adder 106 ** adds the R data value given from the
したがって、レジスタ108**の設定値は、現フレームの各部分評価エリアに属するRデータの積分値を表わす。また、レジスタ116**の設定値は、現フレームの各部分評価エリアに属するGデータの積分値を表わす。さらに、レジスタ124**の設定値は、現フレームの各部分評価エリアに属するBデータの積分値を表わす。 Therefore, the set value of register 108 ** represents the integral value of R data belonging to each partial evaluation area of the current frame. The set value of the register 116 ** represents the integral value of G data belonging to each partial evaluation area of the current frame. Furthermore, the set value of the register 124 ** represents the integral value of B data belonging to each partial evaluation area of the current frame.
後処理回路36は、図10に示すように構成される。コントローラ126は、抽出エリアEXに属するYデータをSDRAM34の生画像エリア34aから読み出すべく、読み出し要求をメモリ制御回路32に向けて繰り返し発行する。これに応答して読み出された生画像データは、SRAM128を経て色分離回路130に与えられる。色分離回路130は、与えられた生画像データに基づいて各画素がR,GおよびBの全ての色情報を有するRGBデータを生成する。
The
生成されたRGBデータは、白バランス調整回路132によって白バランス調整処理を施された後、YUV変換回路134によってYUV形式の画像データに変換される。変換された画像データは、SRAM138に書き込まれる。コントローラ136は、SRAM138に蓄積された画像データを書き込み要求とともにメモリ制御回路32に出力する。出力された画像データは、メモリ制御回路32によってSDRAM34のYUV画像エリア34bに書き込まれる。
The generated RGB data is subjected to white balance adjustment processing by the white
CPU28は、図11に示す動画撮像タスクおよび図12に示す手振れ補正タスクを含む複数のタスクを並列的に処理する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ46に記憶される。
The
図11を参照して、ステップS1では動画取り込み処理を実行し、ステップS5ではコンティニュアスAFタスクを起動する。ステップS1の処理によってスルー画像がLCDモニタ40から出力され、ステップS3の処理によってフォーカスが連続的に調整される。ステップS5では記録開始操作が行われたか否かを判別し、NOである限りステップS7のAE処理およびステップS9のAWB処理を繰り返す。これによって、露光量および白バランスが適度に調整される。記録開始操作が行わるとステップS11に進み、記録処理を開始するべくI/F42を起動する。ステップS13では記録終了操作が行われたか否かを判別し、NOである限りステップS15のAE処理およびステップS17のAWB処理を繰り返す。記録終了操作が行われるとステップS19に進み、記録処理を終了するべくI/F42を停止する。ステップS19の処理が完了すると、ステップS5に戻る。
Referring to FIG. 11, a moving image capturing process is executed in step S1, and a continuous AF task is activated in step S5. A through image is output from the
図12を参照して、ステップS31では垂直同期信号Vsyncが発生したか否かを判別し、YESであればステップS33で動き検出回路22から合成動きベクトルUVC,MVCおよびLVCを取り込む。ステップS35では、取り込まれた合成動きベクトルUVC,MVCおよびLVCに基づいて全体動きベクトルを作成する。続くステップS37では現時点の撮像面の動きがパン/チルト動作に起因するものであるか否かを全体動きベクトルに基づいて判別する。ここでYESであればそのままステップS31に戻り、NOであればステップS39に進む。
Referring to FIG. 12, in step S31, it is determined whether or not the vertical synchronization signal Vsync is generated. If YES, the combined motion vectors UVC, MVC and LVC are fetched from the
ステップS39では、ステップS35で作成された全体動きベクトルに沿って抽出エリアEXを移動させる。ステップS41では上述の数2および数3に従って次フレームの全体動きベクトルを予測し、ステップS43では予測された全体動きベクトルに沿って評価エリアEAを移動させる。ステップS43の処理の結果、AF評価回路24およびAE/AWB評価回路26によって参照される座標値が変化する。ステップS43の処理が完了すると、ステップS31に戻る。
In step S39, the extraction area EX is moved along the entire motion vector created in step S35. In step S41, the overall motion vector of the next frame is predicted according to the above-described equations 2 and 3, and in step S43, the evaluation area EA is moved along the predicted overall motion vector. As a result of the processing in step S43, the coordinate values referred to by the
以上の説明からわかるように、イメージセンサ16は、被写界の光学像が照射される撮像面を有し、撮像面で生成された被写界像を繰り返し出力する。LCDドライバ38は、イメージセンサ16から出力された被写界像のうち抽出エリアEX(第1指定エリア)に属する部分被写界像に基づいて動画像をLCDモニタ40に表示する。CPU28は、イメージセンサ16から出力された被写界像のうち評価エリアEA(第2指定エリア)に属する部分被写界像に基づいて撮像条件を調整する(S3, S7, S9, S15, S17)。CPU28はまた、光軸に直交する方向における撮像面の動きを検出する(22, S33, S35)。CPU28はさらに、検出された動きに対応して抽出エリアEXを移動させ(S39)、抽出エリアEXの移動処理に関連して評価エリアEAを移動させる(S41, S43)。
As can be seen from the above description, the
したがって、撮像条件の調整のために参照される評価エリアEAは、動画像の出力のために参照される抽出エリアEXに追従するように移動する。これによって、撮像条件の調整精度が向上し、出力画像の品質の改善が図られる。 Therefore, the evaluation area EA referred to for adjustment of the imaging condition moves so as to follow the extraction area EX referred to for moving image output. Thereby, the adjustment accuracy of the imaging condition is improved, and the quality of the output image is improved.
なお、この実施例では、イメージセンサ16としてCMOS型のイメージセンサを採用するようにしているが、これに代えてCCD型のイメージセンサを採用するようにしてもよい。ただし、この場合は、過去の数フレームの動きに基づいて次のフレームの動きを予測する必要がある。
In this embodiment, a CMOS type image sensor is adopted as the
10 …ディジタルビデオカメラ
16 …イメージセンサ
20 …前処理回路
22 …動き検出回路
28 …CPU
32 …メモリ制御回路
34 …SDRAM
36 …後処理回路
38 …LCDドライバ
DESCRIPTION OF
32 ...
36 ...
Claims (7)
前記撮像手段から出力された被写界像のうち第1指定エリアに属する部分被写界像に基づいて動画像を表示する表示手段、
前記撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整手段、
光軸に直交する方向における前記撮像面の動きを検出する検出手段、
前記検出手段によって検出された動きに対応して前記第1指定エリアを移動させる第1移動手段、および
前記第1移動手段の移動処理に関連して前記第2指定エリアを移動させる第2移動手段を備える、ビデオカメラ。 An imaging unit having an imaging surface on which an optical image of the object scene is irradiated, and repeatedly outputting the object scene image generated on the imaging surface;
Display means for displaying a moving image based on a partial scene image belonging to the first designated area among the scene images output from the imaging means;
Adjusting means for adjusting an imaging condition based on a partial scene image belonging to the second designated area among the scene images output from the imaging means;
Detecting means for detecting movement of the imaging surface in a direction perpendicular to the optical axis;
First moving means for moving the first designated area corresponding to the movement detected by the detecting means; and second moving means for moving the second designated area in relation to movement processing of the first moving means. With a video camera.
前記検出手段は、前記撮像手段から出力された被写界像に垂直方向に並ぶ複数のブロックを割り当てる割り当て手段、および前記割り当て手段によって割り当てられた複数のブロックに属する複数のブロック画像の動きベクトルを個別に生成する動きベクトル生成手段を含み、
前記予測手段は前記動きベクトル生成手段によって生成された複数の動きベクトルに基づいて前記撮像面の未来の動きを予測する、請求項2記載のビデオカメラ。 The imaging means performs an exposure operation of a focal plane electronic shutter system,
The detection means assigns a plurality of blocks arranged in the vertical direction to the object scene image output from the imaging means, and motion vectors of a plurality of block images belonging to the plurality of blocks assigned by the assignment means. Including individually generated motion vector generating means,
The video camera according to claim 2, wherein the predicting unit predicts a future motion of the imaging surface based on a plurality of motion vectors generated by the motion vector generating unit.
前記書き込み手段によって前記メモリに格納された被写界像のうち前記第1指定エリアに属する部分被写界像を前記表示手段の表示処理のために読み出す読み出し手段をさらに備える、請求項1ないし4のいずれかに記載のビデオカメラ。 Write means for writing the object scene image output from the image pickup means into a memory, and display the partial object scene image belonging to the first designated area among the object scene images stored in the memory by the writing means 5. The video camera according to claim 1, further comprising reading means for reading out for display processing of the means.
前記撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ、
光軸に直交する方向における前記撮像面の動きを検出する検出ステップ、
前記検出ステップによって検出された動きに対応して前記第1指定エリアを移動させる第1移動ステップ、および
前記第1移動ステップの移動処理に関連して前記第2指定エリアを移動させる第2移動ステップを実行させるための、撮像制御プログラム。 An imaging unit having an imaging surface on which an optical image of the object scene is irradiated and outputting the object scene image repeatedly, and a partial object belonging to the first designated area among the object scene images output from the imaging unit In a video camera processor having display means for displaying a moving image based on a field image,
An adjustment step of adjusting an imaging condition based on a partial scene image belonging to the second designated area among the scene images output from the imaging means;
A detection step of detecting movement of the imaging surface in a direction orthogonal to the optical axis;
A first movement step for moving the first designated area corresponding to the movement detected by the detection step; and a second movement step for moving the second designated area in relation to the movement process of the first movement step. An imaging control program for executing
前記撮像手段から出力された被写界像のうち第2指定エリアに属する部分被写界像に基づいて撮像条件を調整する調整ステップ、
光軸に直交する方向における前記撮像面の動きを検出する検出ステップ、
前記検出ステップによって検出された動きに対応して前記第1指定エリアを移動させる第1移動ステップ、および
前記第1移動ステップの移動処理に関連して前記第2指定エリアを移動させる第2移動ステップを備える、撮像制御方法。 An imaging unit having an imaging surface on which an optical image of the object scene is irradiated and outputting the object scene image repeatedly, and a partial object belonging to the first designated area among the object scene images output from the imaging unit An imaging control method executed by a video camera including display means for displaying a moving image based on a field image,
An adjustment step of adjusting an imaging condition based on a partial scene image belonging to the second designated area among the scene images output from the imaging means;
A detection step of detecting movement of the imaging surface in a direction orthogonal to the optical axis;
A first movement step for moving the first designated area corresponding to the movement detected by the detection step; and a second movement step for moving the second designated area in relation to the movement process of the first movement step. An imaging control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008049663A JP5121505B2 (en) | 2008-02-29 | 2008-02-29 | Video camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008049663A JP5121505B2 (en) | 2008-02-29 | 2008-02-29 | Video camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009207063A true JP2009207063A (en) | 2009-09-10 |
JP5121505B2 JP5121505B2 (en) | 2013-01-16 |
Family
ID=41148853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008049663A Expired - Fee Related JP5121505B2 (en) | 2008-02-29 | 2008-02-29 | Video camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5121505B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006050457A (en) * | 2004-08-06 | 2006-02-16 | Canon Inc | Imaging apparatus |
JP2007074031A (en) * | 2005-09-02 | 2007-03-22 | Canon Inc | Imaging device, and image processing apparatus and method therefor |
JP2007281555A (en) * | 2006-04-03 | 2007-10-25 | Seiko Epson Corp | Imaging apparatus |
JP2007282188A (en) * | 2006-03-15 | 2007-10-25 | Nikon Corp | Object tracker, object tracking method, object tracking program and optical equipment |
-
2008
- 2008-02-29 JP JP2008049663A patent/JP5121505B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006050457A (en) * | 2004-08-06 | 2006-02-16 | Canon Inc | Imaging apparatus |
JP2007074031A (en) * | 2005-09-02 | 2007-03-22 | Canon Inc | Imaging device, and image processing apparatus and method therefor |
JP2007282188A (en) * | 2006-03-15 | 2007-10-25 | Nikon Corp | Object tracker, object tracking method, object tracking program and optical equipment |
JP2007281555A (en) * | 2006-04-03 | 2007-10-25 | Seiko Epson Corp | Imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5121505B2 (en) | 2013-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7956899B2 (en) | Imaging device and image processing apparatus | |
JP4720859B2 (en) | Image processing apparatus, image processing method, and program | |
US8253812B2 (en) | Video camera which adopts a focal-plane electronic shutter system | |
KR20090071471A (en) | Imaging device and its shutter drive mode selection method | |
JP2013165485A (en) | Image processing apparatus, image capturing apparatus, and computer program | |
JP5207955B2 (en) | Electronic camera | |
JP2020017807A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP5197064B2 (en) | Video camera | |
JP2016111568A (en) | Image blur correction control device, imaging apparatus, control method and program thereof | |
US8120668B2 (en) | Electronic camera for adjusting a parameter for regulating an image quality based on the image data outputted from an image sensor | |
US20220321743A1 (en) | Image processing apparatus and method, and image capturing apparatus | |
JP5121505B2 (en) | Video camera | |
JP2009021909A (en) | Image adder, method, and program | |
JP2015177303A (en) | Imaging device and control method therefor | |
JP2009027437A (en) | Image processor, image processing method and imaging device | |
JP2010245582A (en) | Electronic camera | |
JP2015041869A (en) | Imaging apparatus, information processing method, and program | |
US11206344B2 (en) | Image pickup apparatus and storage medium | |
US8270673B2 (en) | Motion detecting apparatus | |
JP5929362B2 (en) | Imaging apparatus and imaging method | |
JP5301690B2 (en) | Imaging apparatus, method, and program | |
JP5127731B2 (en) | Video camera | |
JP2022042829A (en) | Notification device, imaging apparatus, notification method, and program | |
JP4989524B2 (en) | Electronic camera | |
JP2022188690A (en) | Imaging device, image processing device, image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120925 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121023 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |