JP2014145974A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2014145974A
JP2014145974A JP2013015511A JP2013015511A JP2014145974A JP 2014145974 A JP2014145974 A JP 2014145974A JP 2013015511 A JP2013015511 A JP 2013015511A JP 2013015511 A JP2013015511 A JP 2013015511A JP 2014145974 A JP2014145974 A JP 2014145974A
Authority
JP
Japan
Prior art keywords
imaging
unit
electronic image
imaging surface
image output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013015511A
Other languages
Japanese (ja)
Inventor
Takeshi Fujiwara
健 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2013015511A priority Critical patent/JP2014145974A/en
Publication of JP2014145974A publication Critical patent/JP2014145974A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve adaptive focus control considering movement of an imaging surface in a direction orthogonal to an optical axis.SOLUTION: An image sensor 16 has an imaging surface irradiated with an optical image representing an imaged scene and repeatedly outputs live image data. A correlation value calculation circuit provided in a motion detection circuit 22 calculates, as correlation values, brightness differences between a representative pixel on live image data of a previous frame and a plurality of peripheral pixels on live image data of a current frame. A CPU 28 sets a step width of a focus lens 12 to W_S or W_L on the basis of the calculated correlation values and changes the position of the focus lens 12 by W_S or W_L at a time on the basis of live image data outputted from the image sensor 16.

Description

この発明は、撮像機器に関し、特に、撮像装置から出力された電子画像の動きを検出する機能を有する、撮像機器に関する。   The present invention relates to an imaging device, and more particularly, to an imaging device having a function of detecting a motion of an electronic image output from an imaging device.

この種の撮像機器の一例が、特許文献1に開示されている。この背景技術によれば、光軸に直交する方向における撮像面の動きを示す動きベクトルが、撮像装置から出力された電子画像に基づいて作成される。撮像面の動きがパン/チルト動作に起因するものであるか否かは作成された動きベクトルに基づいて判別され、手振れ補正処理の起動/停止はこの判別結果に基づいて制御される。   An example of this type of imaging device is disclosed in Patent Document 1. According to this background art, a motion vector indicating the motion of the imaging surface in the direction orthogonal to the optical axis is created based on the electronic image output from the imaging device. Whether or not the movement of the imaging surface is caused by the pan / tilt operation is determined based on the created motion vector, and activation / stop of the camera shake correction process is controlled based on the determination result.

特開2009−239425号公報JP 2009-239425 A

しかし、背景技術では、光軸に直交する方向における撮像面の動き量がAF処理に反映されることはない。このため、背景技術では、AF性能に限界がある。   However, in the background art, the amount of movement of the imaging surface in the direction orthogonal to the optical axis is not reflected in the AF processing. For this reason, the background art has a limit in AF performance.

それゆえに、この発明の主たる目的は、光軸に直交する方向における撮像面の動きを考慮した適応的なフォーカス制御を実現できる、撮像機器を提供することである。   Therefore, a main object of the present invention is to provide an imaging apparatus capable of realizing adaptive focus control in consideration of the movement of the imaging surface in a direction orthogonal to the optical axis.

この発明に従う撮像機器(10:実施例で相当する参照符号。以下同じ)は、フォーカスレンズ(12)を通してシーンを捉える撮像面を有し、撮像面で生成された電子画像を繰り返し出力する撮像手段(16)、撮像手段から先行して出力された電子画像上の代表画素と撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段(62)、撮像手段から出力された電子画像に基づいてフォーカスレンズから撮像面までの距離を既定量ずつ変更する変更手段(S11)、および算出手段によって算出された輝度差に基づいて既定量の大きさを調整する調整手段(S35~S43, S5~S9)を備える。   An imaging device according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) has an imaging surface for capturing a scene through a focus lens (12), and repeatedly outputs an electronic image generated on the imaging surface. (16) calculating means for calculating a luminance difference between the representative pixel on the electronic image output in advance from the imaging means and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means ( 62), a changing unit (S11) for changing the distance from the focus lens to the imaging surface by a predetermined amount based on the electronic image output from the imaging unit, and a predetermined amount based on the luminance difference calculated by the calculating unit Adjustment means (S35 to S43, S5 to S9) for adjusting the height is provided.

好ましくは、代表画素を各々が有する複数の画素ブロック(SBK, SBK, …)を撮像面に割り当てる第1割り当て手段(60)がさらに備えられ、算出手段は第1割り当て手段によって割り当てられた画素ブロック毎に輝度差を算出する。   Preferably, first allocation means (60) for assigning a plurality of pixel blocks (SBK, SBK,...) Each having a representative pixel to the imaging surface is further provided, and the calculation means is a pixel block assigned by the first assignment means. The brightness difference is calculated every time.

さらに好ましくは、複数の大画素ブロックを撮像面に割り当てる第2割り当て手段(48)がさらに備えられ、複数の画素ブロックは第2割り当て手段によって割り当てられた複数の大画素ブロックの各々を形成する。   More preferably, a second allocation unit (48) for allocating a plurality of large pixel blocks to the imaging surface is further provided, and the plurality of pixel blocks form each of the plurality of large pixel blocks allocated by the second allocation unit.

好ましくは、調整手段は、算出手段によって注目された2つの電子画像の相関性を輝度差に基づいて特定する特性手段(S35~S37)、特定手段によって特定された相関性が高いとき既定量を低減させる低減手段(S39, S43, S5~S7)、および特定手段によって特定された相関性が低いとき既定量を増大させる増大手段(S39~S41, S5, S9)を含む。   Preferably, the adjusting means is a characteristic means (S35 to S37) for specifying the correlation between the two electronic images noticed by the calculating means based on the luminance difference, and the predetermined amount is set when the correlation specified by the specifying means is high. Reduction means (S39, S43, S5 to S7) for reducing, and increase means (S39 to S41, S5, S9) for increasing the predetermined amount when the correlation specified by the specifying means is low are included.

さらに好ましくは、撮像手段から出力された電子画像のうち抽出エリア(EX)に属する一部の電子画像を抽出する抽出手段(36)、光軸に直交する方向における撮像面の動きが補償されるように抽出エリアの位置を変更する変更手段(S21~S25, S29)、および増大手段の処理に関連して変更手段の処理を制限する制限手段(S27)がさらに備えられる。   More preferably, the extraction means (36) for extracting a part of the electronic image belonging to the extraction area (EX) from the electronic image output from the imaging means, the movement of the imaging surface in the direction orthogonal to the optical axis is compensated. As described above, a change means (S21 to S25, S29) for changing the position of the extraction area and a restriction means (S27) for restricting the process of the change means in relation to the process of the increase means are further provided.

より好ましくは、変更手段は、撮像手段から出力された電子画像に基づいて撮像面の動きを示す動きベクトルを作成する作成手段(S23~S25)、および作成手段によって作成された動きベクトルが補償されるように抽出エリアの配置を調整する配置調整手段(S29)を含む。   More preferably, the changing means compensates the motion vector created by the creating means (S23 to S25) for creating a motion vector indicating the motion of the imaging surface based on the electronic image output from the imaging means, and the creating means. In this way, there is included arrangement adjustment means (S29) for adjusting the arrangement of the extraction areas.

この発明に従う撮像制御プログラムは、フォーカスレンズ(12)を通してシーンを捉える撮像面を有し、撮像面で生成された電子画像を繰り返し出力する撮像手段(16)、および撮像手段から先行して出力された電子画像上の代表画素と撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段(62)を備える撮像機器(10)のプロセッサ(28)に、撮像手段から出力された電子画像に基づいてフォーカスレンズから撮像面までの距離を既定量ずつ変更する変更ステップ(S11)、および算出手段によって算出された輝度差に基づいて既定量の大きさを調整する調整ステップ(S35~S43, S5~S9)を実行させるための、撮像制御プログラムである。   An imaging control program according to the present invention has an imaging surface for capturing a scene through a focus lens (12), and outputs the electronic image generated on the imaging surface repeatedly (16), and is output in advance from the imaging means. The processor of the imaging device (10), comprising a calculation means (62) for calculating a luminance difference between the representative pixel on the electronic image and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means ( 28), a change step (S11) for changing the distance from the focus lens to the imaging surface by a predetermined amount based on the electronic image output from the imaging means, and a predetermined amount based on the luminance difference calculated by the calculating means. It is an imaging control program for executing adjustment steps (S35 to S43, S5 to S9) for adjusting the size.

この発明に従う撮像制御方法は、フォーカスレンズ(12)を通してシーンを捉える撮像面を有し、撮像面で生成された電子画像を繰り返し出力する撮像手段(16)、および撮像手段から先行して出力された電子画像上の代表画素と撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段(62)を備える撮像機器(10)によって実行される撮像制御方法であって、撮像手段から出力された電子画像に基づいてフォーカスレンズから撮像面までの距離を既定量ずつ変更する変更ステップ(S11)、および算出手段によって算出された輝度差に基づいて既定量の大きさを調整する調整ステップ(S35~S43, S5~S9)を備える。   The imaging control method according to the present invention has an imaging surface for capturing a scene through a focus lens (12), and repeatedly outputs an electronic image generated on the imaging surface (16), and is output in advance from the imaging means. Executed by an imaging device (10) comprising a calculation means (62) for calculating a luminance difference between the representative pixel on the electronic image and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means. A change step (S11) for changing the distance from the focus lens to the imaging surface by a predetermined amount based on the electronic image output from the imaging means, and the luminance difference calculated by the calculation means Adjustment steps (S35 to S43, S5 to S9) for adjusting the size of the predetermined amount.

この発明に従う外部制御プログラムは、フォーカスレンズ(12)を通してシーンを捉える撮像面を有し、撮像面で生成された電子画像を繰り返し出力する撮像手段(16)、撮像手段から先行して出力された電子画像上の代表画素と撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段(62)、およびメモリ(46)に保存された内部制御プログラムに従う処理を実行するプロセッサ(28)を備える撮像機器(10)に供給される外部制御プログラムであって、撮像手段から出力された電子画像に基づいてフォーカスレンズから撮像面までの距離を既定量ずつ変更する変更ステップ(S11)、および算出手段によって算出された輝度差に基づいて既定量の大きさを調整する調整ステップ(S35~S43, S5~S9)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   The external control program according to the present invention has an imaging surface for capturing a scene through the focus lens (12), and repeatedly outputs an electronic image generated on the imaging surface (16), which is output in advance from the imaging means. Calculation means (62) for calculating a luminance difference between the representative pixel on the electronic image and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means, and an internal stored in the memory (46) An external control program that is supplied to an imaging device (10) that includes a processor (28) that executes processing according to a control program, and sets a distance from the focus lens to the imaging surface based on an electronic image output from the imaging means A change step (S11) for changing by an amount and an adjustment step (S35 to S43, S5 to S9) for adjusting the size of the predetermined amount based on the luminance difference calculated by the calculation means in cooperation with the internal control program For execution by the processor Te, an external control program.

この発明に従う撮像機器(10)は、フォーカスレンズ(12)を通してシーンを捉える撮像面を有し、撮像面で生成された電子画像を繰り返し出力する撮像手段(16)、撮像手段から先行して出力された電子画像上の代表画素と撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段(62)、外部制御プログラムを取り込む取り込み手段(68)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(46)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(28)を備える撮像機器であって、撮像手段から出力された電子画像に基づいてフォーカスレンズから撮像面までの距離を既定量ずつ変更する変更ステップ(S11)、および算出手段によって算出された輝度差に基づいて既定量の大きさを調整する調整ステップ(S35~S43, S5~S9)を内部制御プログラムと協働して実行するプログラムに相当する。   An imaging device (10) according to the present invention has an imaging surface for capturing a scene through a focus lens (12), and repeatedly outputs an electronic image generated on the imaging surface (16). Calculating means (62) for calculating a luminance difference between the representative pixel on the electronic image and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means, and a capturing means for taking in the external control program ( 68), and an imaging device comprising a processor (28) for executing processing according to the external control program fetched by the fetching means and the internal control program stored in the memory (46), the electronic device output from the imaging means A change step (S11) for changing the distance from the focus lens to the imaging surface by a predetermined amount based on the image, and the size of the predetermined amount based on the luminance difference calculated by the calculation means Adjustment adjusting steps (S35 ~ S43, S5 ~ S9) corresponds to the internal control program in cooperation with a program to be executed.

フォーカスレンズから撮像面までの距離は撮像手段から出力された電子画像に基づいて既定量ずつ変更されるところ、既定量の大きさは先行する電子画像上の代表画素と後続する電子画像上の複数の周辺画素の各々との間の輝度差に基づいて調整される。これによって、光軸に直交する方向における撮像面の動きを考慮した適応的なフォーカス制御が実現される。   The distance from the focus lens to the imaging surface is changed by a predetermined amount based on the electronic image output from the imaging means. The size of the predetermined amount is a representative pixel on the preceding electronic image and a plurality of pixels on the subsequent electronic image. It adjusts based on the luminance difference between each of the peripheral pixels. Thereby, adaptive focus control in consideration of the movement of the imaging surface in the direction orthogonal to the optical axis is realized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 複数の動き検出ブロックおよび単一の抽出エリアを撮像面に割り当てた状態の一例を示す図解図である。It is an illustration figure which shows an example of the state which allocated the several motion detection block and the single extraction area to the imaging surface. 手振れ補正動作の一例を示す図解図である。It is an illustration figure which shows an example of camera shake correction operation | movement. 図2実施例に適用される動き検出回路の構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of a motion detection circuit applied to the embodiment in FIG. 2; FIG. 図5実施例に適用される動き情報作成回路の構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of a configuration of a motion information creation circuit applied to the embodiment in FIG. 5. (A)は動き検出ブロックの構成の一例を示す図解図であり、(B)は微小ブロックの構成の一例を示す図解図である。(A) is an illustration figure which shows an example of a structure of a motion detection block, (B) is an illustration figure which shows an example of a structure of a micro block. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; この発明の他の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of another Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の撮像機器は、基本的に次のように構成される。撮像手段1は、フォーカスレンズ5を通してシーンを捉える撮像面を有し、撮像面で生成された電子画像を繰り返し出力する。算出手段2は、撮像手段1から先行して出力された電子画像上の代表画素と撮像手段1から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する。変更手段3は、撮像手段1から出力された電子画像に基づいてフォーカスレンズ5から撮像面までの距離を既定量ずつ変更する。調整手段4は、算出手段2によって算出された輝度差に基づいて既定量の大きさを調整する。   With reference to FIG. 1, the imaging device of this embodiment is basically configured as follows. The imaging unit 1 has an imaging surface for capturing a scene through the focus lens 5 and repeatedly outputs an electronic image generated on the imaging surface. The calculating unit 2 calculates a luminance difference between the representative pixel on the electronic image output in advance from the imaging unit 1 and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging unit 1. . The changing unit 3 changes the distance from the focus lens 5 to the imaging surface by a predetermined amount based on the electronic image output from the imaging unit 1. The adjusting unit 4 adjusts the predetermined amount based on the luminance difference calculated by the calculating unit 2.

フォーカスレンズ5から撮像面までの距離は撮像手段1から出力された電子画像に基づいて既定量ずつ変更されるところ、既定量の大きさは先行する電子画像上の代表画素と後続する電子画像上の複数の周辺画素の各々との間の輝度差に基づいて調整される。これによって、光軸に直交する方向における撮像面の動きを考慮した適応的なフォーカス制御が実現される。
[実施例]
The distance from the focus lens 5 to the imaging surface is changed by a predetermined amount based on the electronic image output from the imaging means 1, and the size of the predetermined amount is the representative pixel on the preceding electronic image and the succeeding electronic image. Is adjusted based on the luminance difference between each of the plurality of peripheral pixels. Thereby, adaptive focus control in consideration of the movement of the imaging surface in the direction orthogonal to the optical axis is realized.
[Example]

図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。撮像シーンを表す光学像は、これらの部材を通してイメージセンサ16の撮像面に照射される。撮像面は、原色ベイヤ配列の色フィルタ(図示せず)によって覆われる。したがって、各画素では、R(Red),G(Green)およびB(Blue)のいずれか1つの色情報を有する電荷が光電変換によって生成される。   Referring to FIG. 2, the digital video camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image representing the imaging scene is irradiated on the imaging surface of the image sensor 16 through these members. The imaging surface is covered by a primary color Bayer array color filter (not shown). Therefore, in each pixel, a charge having color information of any one of R (Red), G (Green), and B (Blue) is generated by photoelectric conversion.

電源が投入されると、CPU28は、動画取り込み処理を実行するべくドライバ18cを起動する。ドライバ18cは、1/60秒毎に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、撮像シーンを表す生画像データが60fpsのフレームレートで出力される。   When the power is turned on, the CPU 28 activates the driver 18c to execute the moving image capturing process. In response to the vertical synchronization signal Vsync generated every 1/60 seconds, the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the image sensor 16, raw image data representing an imaging scene is output at a frame rate of 60 fps.

前処理回路20は、イメージセンサ16からの生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これによって生成された生画像データは、メモリ制御回路32を通してSDRAM34の生画像エリア34aに書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data from the image sensor 16. The raw image data generated thereby is written into the raw image area 34 a of the SDRAM 34 through the memory control circuit 32.

撮像面には、図3に示す要領で抽出エリアEXが割り当てられる。後処理回路36は、生画像エリア34aに格納された生画像データのうち抽出エリアEXに属する一部の生画像データをメモリ制御回路32を通して1/60秒毎に読み出し、読み出された生画像データに色分離,白バランス調整,YUV変換などの処理を施す。この結果、YUV形式に対応する画像データが1/60秒毎に作成される。作成された画像データは、メモリ制御回路32を通してSDRAM34のYUV画像エリア34bに書き込まれる。   An extraction area EX is allocated to the imaging surface in the manner shown in FIG. The post-processing circuit 36 reads out part of the raw image data belonging to the extraction area EX from the raw image data stored in the raw image area 34a through the memory control circuit 32 every 1/60 seconds, and the read raw image The data is subjected to processing such as color separation, white balance adjustment, and YUV conversion. As a result, image data corresponding to the YUV format is created every 1/60 seconds. The created image data is written into the YUV image area 34 b of the SDRAM 34 through the memory control circuit 32.

LCDドライバ38は、YUV画像エリア34bに格納された画像データを繰り返し読み出し、読み出された画像データに基づいてLCDモニタ40を駆動する。この結果、撮像シーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 38 repeatedly reads the image data stored in the YUV image area 34b, and drives the LCD monitor 40 based on the read image data. As a result, a real-time moving image (through image) representing the imaging scene is displayed on the monitor screen.

前処理回路20は、上述の処理に加えて簡易Y生成処理を実行し、生画像データを簡易的にYデータに変換する。変換されたYデータは、動き検出回路22,AE評価回路24およびAF評価回路26に与えられる。   The preprocessing circuit 20 executes simple Y generation processing in addition to the above processing, and simply converts raw image data into Y data. The converted Y data is supplied to the motion detection circuit 22, the AE evaluation circuit 24, and the AF evaluation circuit 26.

図3を参照して、撮像面には5つの動き検出ブロックMD_1〜MD_5が割り当てられる。動き検出ブロックMD_1およびMD_2は撮像面の上段に水平方向に並ぶように配置され、動き検出ブロックMD_3は撮像面の中央に配置され、そして動き検出ブロックMD_4およびMD_5は撮像面の下段に水平方向に並ぶように配置される。   Referring to FIG. 3, five motion detection blocks MD_1 to MD_5 are assigned to the imaging surface. The motion detection blocks MD_1 and MD_2 are arranged in the horizontal direction on the upper stage of the imaging plane, the motion detection block MD_3 is arranged in the center of the imaging plane, and the motion detection blocks MD_4 and MD_5 are arranged in the horizontal direction on the lower stage of the imaging plane. Arranged side by side.

動き検出回路22は、動き検出ブロックMD_1〜MD_5の各々における撮像シーンの動きを前処理回路20から与えられたYデータに基づいて1/60秒毎に検出し、検出された動きを示す動き情報をCPU28に与える。CPU28は、与えられた動き情報に基づいて全体動きベクトルを作成し、作成された全体動きベクトルに沿って抽出エリアEXを移動させる。抽出エリアEXの位置は、手振れに起因する撮像面の動きが補償(相殺)されるように変更される。撮像面に手振れが生じたとき、抽出エリアEXは図4に示す要領で撮像面上を移動し、これによって手振れが抑制される。   The motion detection circuit 22 detects the motion of the imaging scene in each of the motion detection blocks MD_1 to MD_5 every 1/60 seconds based on the Y data given from the preprocessing circuit 20, and motion information indicating the detected motion Is given to the CPU. The CPU 28 creates an overall motion vector based on the given motion information, and moves the extraction area EX along the created overall motion vector. The position of the extraction area EX is changed so that the movement of the imaging surface due to camera shake is compensated (cancelled). When camera shake occurs on the imaging surface, the extraction area EX moves on the imaging surface in the manner shown in FIG. 4, thereby suppressing camera shake.

なお、このような手振れ補正処理は、光軸に直交する方向における撮像面の動きが手振れに相当するときに許可される一方、光軸に直交する方向における撮像面の動きがパン/チルト動作に相当するときに制限される。撮像面の動きの原因を以下に判別するかについては、後述する。   Such camera shake correction processing is permitted when the movement of the imaging surface in the direction orthogonal to the optical axis corresponds to camera shake, while the movement of the imaging surface in the direction orthogonal to the optical axis is used for the pan / tilt operation. Restricted at corresponding times. Whether to determine the cause of the movement of the imaging surface will be described later.

図2に戻って、AE評価回路24は、前処理回路20から出力されたYデータのうち評価エリアに属する一部のYデータを1/60秒毎に積分し、積分値つまり輝度評価値を出力する。CPU28は、AE評価回路24から出力された輝度評価値に基づいて適正EV値を算出し、算出された適正EV値を定義する絞り量および露光時間をドライバ18bおよび18cに設定する。この結果、LCDモニタ40から出力される動画像の明るさが適度に調整される。   Returning to FIG. 2, the AE evaluation circuit 24 integrates a part of Y data belonging to the evaluation area among the Y data output from the preprocessing circuit 20 every 1/60 seconds, and obtains an integration value, that is, a luminance evaluation value. Output. The CPU 28 calculates an appropriate EV value based on the luminance evaluation value output from the AE evaluation circuit 24, and sets the aperture amount and the exposure time that define the calculated appropriate EV value in the drivers 18b and 18c. As a result, the brightness of the moving image output from the LCD monitor 40 is adjusted appropriately.

AF評価回路26は、前処理回路20から出力されたYデータのうち評価エリア(図示せず)に属する一部のYデータの高周波成分を1/60秒毎に積分し、積分値つまりフォーカス評価値をCPU28に与える。CPU28は、与えられたフォーカス評価値に基づいてAF処理(コンティニュアスAF処理)を実行し、合焦点が存在する方向にフォーカスレンズ12を移動させる。フォーカスレンズ12は、ドライバ18aによって段階的に移動される。この結果、LCDモニタ40から出力される動画像の鮮鋭度が継続的に維持される。   The AF evaluation circuit 26 integrates the high frequency components of some Y data belonging to the evaluation area (not shown) of the Y data output from the preprocessing circuit 20 every 1/60 seconds, and the integrated value, that is, focus evaluation. A value is given to the CPU. The CPU 28 executes AF processing (continuous AF processing) based on the given focus evaluation value, and moves the focus lens 12 in the direction where the in-focus point exists. The focus lens 12 is moved stepwise by the driver 18a. As a result, the sharpness of the moving image output from the LCD monitor 40 is continuously maintained.

なお、フォーカスレンズ12の1回の移動幅つまりステップ幅は、パン/チルト動作が行われる期間以外の期間に“W_S”に設定される一方、パン/チルト動作が行われる期間に“W_L”に設定される。ここで、ステップ幅W_Lは、ステップ幅W_Sよりも大きい。光軸に直交する方向における撮像面の動きを考慮した適応的なフォーカス制御が実現される。   The single movement width, that is, the step width of the focus lens 12 is set to “W_S” in a period other than the period in which the pan / tilt operation is performed, while it is set to “W_L” in the period in which the pan / tilt operation is performed. Is set. Here, the step width W_L is larger than the step width W_S. Adaptive focus control in consideration of the movement of the imaging surface in the direction orthogonal to the optical axis is realized.

キー入力装置30に設けられたムービボタン30mvが操作されると、CPU28は、記録処理を開始するべくメモリI/F42を起動する。メモリI/F42は、YUV画像エリア34bに格納された画像データを1/60秒毎に読み出し、読み出された画像データを記録媒体44内の動画ファイルに書き込む。メモリI/F42は、ムービボタン30mvが再度操作されたときにCPU28によって停止される。この結果、画像データの記録処理が終了される。   When the movie button 30mv provided in the key input device 30 is operated, the CPU 28 activates the memory I / F 42 to start the recording process. The memory I / F 42 reads the image data stored in the YUV image area 34b every 1/60 seconds, and writes the read image data into a moving image file in the recording medium 44. The memory I / F 42 is stopped by the CPU 28 when the movie button 30mv is operated again. As a result, the image data recording process is completed.

動き検出回路22は、図5に示すように構成される。生画像データはラスタ走査態様でイメージセンサ16から出力されるため、Yデータもまたラスタ走査態様で動き検出回路22に入力される。分配器48は、動き検出ブロックMD_1およびMD_4の各々に属するYデータを動き情報作成回路50に与え、動き検出ブロックMD_3に属するYデータを動き情報作成回路52に与え、そして動き検出ブロックMD_2およびMD_5に属するYデータを動き情報作成回路54に与える。   The motion detection circuit 22 is configured as shown in FIG. Since the raw image data is output from the image sensor 16 in a raster scanning manner, the Y data is also input to the motion detection circuit 22 in a raster scanning manner. The distributor 48 provides Y data belonging to each of the motion detection blocks MD_1 and MD_4 to the motion information creation circuit 50, provides Y data belonging to the motion detection block MD_3 to the motion information creation circuit 52, and motion detection blocks MD_2 and MD_5. Y data belonging to the motion information creation circuit 54 is provided.

動き情報作成回路50は、動き検出ブロックMD_1およびMD_4の各々で捉えられた撮像シーンの動きに注目し、部分動きベクトルVC_1および最小相関値MIN_1を動き検出ブロックMD_1の動き情報として出力するとともに、部分動きベクトルVC_4および最小相関値MIN_4を動き検出ブロックMD_4の動き情報として出力する。   The motion information creation circuit 50 pays attention to the motion of the imaging scene captured by each of the motion detection blocks MD_1 and MD_4, and outputs the partial motion vector VC_1 and the minimum correlation value MIN_1 as motion information of the motion detection block MD_1. The motion vector VC_4 and the minimum correlation value MIN_4 are output as motion information of the motion detection block MD_4.

動き情報作成回路52は、動き検出ブロックMD_3で捉えられた撮像シーンの動きに注目し、部分動きベクトルVC_3および最小相関値MIN_3を動き検出ブロックMD_3の動き情報として出力する。   The motion information creation circuit 52 pays attention to the motion of the imaging scene captured by the motion detection block MD_3, and outputs the partial motion vector VC_3 and the minimum correlation value MIN_3 as motion information of the motion detection block MD_3.

動き情報作成回路54は、動き検出ブロックMD_2およびMD_5の各々で捉えられた撮像シーンの動きに注目し、部分動きベクトルVC_2および最小相関値MIN_2を動き検出ブロックMD_2の動き情報として出力するとともに、部分動きベクトルVC_5および最小相関値MIN_5を動き検出ブロックMD_5の動き情報として出力する。   The motion information creation circuit 54 pays attention to the motion of the imaging scene captured by each of the motion detection blocks MD_2 and MD_5, and outputs the partial motion vector VC_2 and the minimum correlation value MIN_2 as motion information of the motion detection block MD_2. The motion vector VC_5 and the minimum correlation value MIN_5 are output as motion information of the motion detection block MD_5.

全体動きベクトルは、動き情報作成回路50〜54から出力された動き情報のうち、部分動きベクトルVC_1〜VC_5に基づいて作成される。具体的には、全体動きベクトルは、部分動きベクトルVC_1〜VC_5を合成することで作成される。手振れ補正処理は、こうして作成された全体動きベクトルを参照して実行される。   The entire motion vector is created based on the partial motion vectors VC_1 to VC_5 among the motion information output from the motion information creation circuits 50 to 54. Specifically, the entire motion vector is created by combining the partial motion vectors VC_1 to VC_5. The camera shake correction process is executed with reference to the overall motion vector thus created.

また、光軸に直交する方向における撮像面の動きの原因は、動き情報を形成する最小相関値MIN_1〜MIN_5に基づいて判別される。具体的には、最小相関値MIN_1〜MIN_5の平均値が平均相関値AVとして算出され、算出された平均相関値AVが基準値REFと比較され、比較結果に応じて撮像面の動きの原因が判別される。   Further, the cause of the movement of the imaging surface in the direction orthogonal to the optical axis is determined based on the minimum correlation values MIN_1 to MIN_5 that form the movement information. Specifically, the average value of the minimum correlation values MIN_1 to MIN_5 is calculated as the average correlation value AV, the calculated average correlation value AV is compared with the reference value REF, and the cause of the movement of the imaging surface is determined according to the comparison result. Determined.

後述するように、最小相関値MIN_1〜MIN_5および平均相関値AVは、光軸に直交する方向における撮像面の動き量が大きいほど増大する。したがって、平均相関値AVが基準値REF以上であれば撮像面の動きの原因はパン/チルト動作であると判別され、平均相関値AVが基準値REF未満であれば撮像面の動きの原因は手振れであると判別される。   As will be described later, the minimum correlation values MIN_1 to MIN_5 and the average correlation value AV increase as the amount of motion of the imaging surface in the direction orthogonal to the optical axis increases. Therefore, if the average correlation value AV is greater than or equal to the reference value REF, it is determined that the cause of the movement of the imaging surface is pan / tilt operation, and if the average correlation value AV is less than the reference value REF, the cause of the movement of the imaging surface is It is determined that the camera shake has occurred.

動き情報作成回路50〜54の各々は、図6に示すように構成される。Yデータは、LPF56でノイズ除去処理を施された後、代表点メモリ58および相関値算出回路62に与えられる。図7(A)を参照して、動き検出ブロックMD_1〜MD_5の各々は、P×Q個の微小ブロックSBK,SBK,…によって形成される。また、図7(B)を参照して、各々の微小ブロックSBKは、p×q個の画素によって形成される。   Each of the motion information creation circuits 50 to 54 is configured as shown in FIG. The Y data is subjected to noise removal processing by the LPF 56 and is then supplied to the representative point memory 58 and the correlation value calculation circuit 62. Referring to FIG. 7A, each of motion detection blocks MD_1 to MD_5 is formed by P × Q minute blocks SBK, SBK,. Also, referring to FIG. 7B, each micro block SBK is formed by p × q pixels.

なお、微小ブロックSBK,SBK,…の配置は、レジスタ60に登録される。また、“P”,“Q”,“p”および“q”はいずれも2以上の整数に相当する。以下では、各微小ブロックSBKの中央に存在する画素つまり図7(A)および図7(B)に黒丸で示す画素を“代表画素”と定義する。   The arrangement of the minute blocks SBK, SBK,... Is registered in the register 60. “P”, “Q”, “p”, and “q” all correspond to integers of 2 or more. Hereinafter, a pixel present at the center of each micro block SBK, that is, a pixel indicated by a black circle in FIGS. 7A and 7B is defined as a “representative pixel”.

図6に戻って、代表点メモリ58は、動き検出ブロックMD_N(N:1〜5のいずれか)に属するYデータからP×Q個の代表画素のYデータを抽出し、抽出されたYデータを記憶する。相関値算出回路62は、動き検出ブロックMD_Nに属するP×Q個の微小ブロックSBK,SBK,…の各々に対応して、代表点メモリ58に記憶された前フレームの代表画素のYデータ値とLPF56から与えられた現フレームの各画素のYデータ値との差分を相関値として算出する。この結果、P×Q×p×q個の相関値が、動き検出ブロックMD_Nに対応して相関値算出回路60から出力される。なお、出力されたP×Q×p×q個の相関値の各々は、相関値の算出の基礎となった2つの画素の位置を示す画素位置情報を伴う。   Returning to FIG. 6, the representative point memory 58 extracts Y data of P × Q representative pixels from the Y data belonging to the motion detection block MD_N (N: any one of 1 to 5), and the extracted Y data Remember. The correlation value calculation circuit 62 corresponds to each of the P × Q minute blocks SBK, SBK,... Belonging to the motion detection block MD_N and the Y data value of the representative pixel of the previous frame stored in the representative point memory 58. A difference from the Y data value of each pixel of the current frame given from the LPF 56 is calculated as a correlation value. As a result, P × Q × p × q correlation values are output from the correlation value calculation circuit 60 corresponding to the motion detection block MD_N. Each of the output P × Q × p × q correlation values is accompanied by pixel position information indicating the positions of two pixels that are the basis for calculating the correlation value.

最小値算出回路64は、P×Q×p×q個の相関値の中から最小値を抽出し、抽出した最小値を最小相関値MIN_Nとして出力する。最小相関値MIN_Nは、動き検出ブロックMD_Nに動きが生じたときに増大する。したがって、最小相関値MIN_Nに注目することで、撮像シーンに動きが生じたか否かを判別することができる。   The minimum value calculation circuit 64 extracts the minimum value from the P × Q × p × q correlation values, and outputs the extracted minimum value as the minimum correlation value MIN_N. The minimum correlation value MIN_N increases when a motion occurs in the motion detection block MD_N. Therefore, by paying attention to the minimum correlation value MIN_N, it is possible to determine whether or not a motion has occurred in the imaging scene.

部分動きベクトル作成回路66は、最小相関値MIN_Nに付随する画素位置情報に基づいて部分動きベクトルVC_Nを作成する。作成された部分動きベクトルVC_Nは、画素位置情報が示す2つの画素のうち前フレームの画素を起点とし、現フレームの画素を終点とするベクトルである。現フレームの画素が図7(B)にハッチングで示す画素である場合、部分動きベクトルVC_Nは図7(B)に矢印で示す方向および大きさを示す。   The partial motion vector creation circuit 66 creates a partial motion vector VC_N based on pixel position information associated with the minimum correlation value MIN_N. The created partial motion vector VC_N is a vector having a pixel of the previous frame as a starting point and a pixel of the current frame as an end point among two pixels indicated by the pixel position information. When the pixel of the current frame is a pixel indicated by hatching in FIG. 7B, the partial motion vector VC_N indicates a direction and a size indicated by an arrow in FIG. 7B.

CPU28は、図8に示す動画撮像タスク,図9に示す手振れ補正タスクおよび図10に示すパン/チルト判別タスクを含む複数のタスクを並列的に処理する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ46に記憶される。   The CPU 28 processes in parallel a plurality of tasks including a moving image capturing task shown in FIG. 8, a camera shake correction task shown in FIG. 9, and a pan / tilt discrimination task shown in FIG. Note that control programs corresponding to these tasks are stored in the flash memory 46.

図8を参照して、ステップS1では動画取り込み処理を実行し、ステップS3ではAE処理を実行する。ステップS1の処理の結果、スルー画像がLCDモニタ40に表示される。また、ステップS3の処理の結果、スルー画像の明るさが適度に調整される。   Referring to FIG. 8, a moving image capturing process is executed in step S1, and an AE process is executed in step S3. As a result of the processing in step S1, a through image is displayed on the LCD monitor 40. Further, as a result of the processing in step S3, the brightness of the through image is appropriately adjusted.

ステップS5では、フラグFLGptが“0”を示すか否かを判別する。判別結果がYESであれば、パン/チルト動作は発生していないとみなし、ステップS7でステップ幅を“W_S”に設定する。これに対して、判別結果がNOであれば、パン/チルト動作が発生しているとみなし、ステップS9でステップ幅を“W_L”に設定する。   In step S5, it is determined whether or not the flag FLGpt indicates “0”. If the determination result is YES, it is considered that no pan / tilt operation has occurred, and the step width is set to “W_S” in step S7. On the other hand, if the determination result is NO, it is considered that a pan / tilt operation has occurred, and the step width is set to “W_L” in step S9.

ステップ幅の設定が完了すると、ステップS11でAF処理(コンティニュアスAF処理)を実行する。ステップS11の処理の結果、フォーカスレンズ12は合焦点が存在する方向に1ステップだけ移動する。移動幅は、ステップS7またはS9で設定されたステップ幅に相当する。これによって、スルー画像の鮮鋭度が向上する。   When the setting of the step width is completed, AF processing (continuous AF processing) is executed in step S11. As a result of the processing in step S11, the focus lens 12 moves by one step in the direction in which the focal point exists. The movement width corresponds to the step width set in step S7 or S9. This improves the sharpness of the live view image.

ステップS13ではムービボタン30mvが操作されたか否かを判別し、判別結果がNOであればステップS3に戻る一方、判別結果がYESであればステップS15に進む。ステップS15では記録処理が実行中であるか否かを判別し、判別結果がNOであればステップS17で記録処理の開始をメモリI/F42に命令する一方、判別結果がYESであればステップS19で記録処理の停止をメモリI/F42に命令する。ステップS17またはS19の処理が完了すると、ステップS3に戻る。   In step S13, it is determined whether or not the movie button 30mv has been operated. If the determination result is NO, the process returns to step S3, whereas if the determination result is YES, the process proceeds to step S15. In step S15, it is determined whether or not the recording process is being executed. If the determination result is NO, the memory I / F 42 is commanded to start the recording process in step S17. If the determination result is YES, step S19 is performed. The memory I / F 42 is commanded to stop the recording process. When the process of step S17 or S19 is completed, the process returns to step S3.

図9を参照して、ステップS21では垂直同期信号Vsyncが発生したか否かを繰り返し判別する。判別結果がNOからYESに更新されるとステップS23に進み、動き検出回路22から部分動きベクトルVC_1〜VC_5を取り込む。ステップS25では、取り込まれた部分動きベクトルVC_1〜VC_5に基づいて全体動きベクトルを作成する。   Referring to FIG. 9, in step S21, it is repeatedly determined whether or not the vertical synchronization signal Vsync is generated. When the determination result is updated from NO to YES, the process proceeds to step S23, and the partial motion vectors VC_1 to VC_5 are fetched from the motion detection circuit 22. In step S25, an overall motion vector is created based on the captured partial motion vectors VC_1 to VC_5.

ステップS27では、フラグFLGptが“0”であるか否かを判別する。判別結果がNOであれば、パン/チルト動作が発生しているとみなし、ステップS21に戻る。これに対して、判別結果がYESであれば、パン/チルト動作は発生していないとみなし、ステップS29に進む。ステップS29では、ステップS25で作成された全体動きベクトルに沿って抽出エリアEXを移動させる。ステップS29の処理が完了すると、ステップS21に戻る。   In step S27, it is determined whether or not the flag FLGpt is “0”. If the determination result is NO, it is considered that a pan / tilt operation has occurred, and the process returns to step S21. On the other hand, if the determination result is YES, it is considered that no pan / tilt operation has occurred, and the process proceeds to step S29. In step S29, the extraction area EX is moved along the entire motion vector created in step S25. When the process of step S29 is completed, the process returns to step S21.

図10を参照して、ステップS31ではフラグFLGptを“0”に設定し、ステップS33では垂直同期信号Vsyncが発生したか否かを繰り返し判別する。判別結果がNOからYESに更新されるとステップS35に進み、動き検出回路22から最小相関値MIN_1〜MIN_5を取り込む。   Referring to FIG. 10, in step S31, the flag FLGpt is set to “0”, and in step S33, it is repeatedly determined whether or not the vertical synchronization signal Vsync has been generated. When the determination result is updated from NO to YES, the process proceeds to step S35, and the minimum correlation values MIN_1 to MIN_5 are fetched from the motion detection circuit 22.

ステップS37では取り込まれた最小相関値MIN_1〜MIN_5を平均して平均相関値AVを算出し、ステップS39では算出された平均相関値AVが基準値REF以上であるか否かを判別する。判別結果がYESであれば、パン/チルト動作が発生したとみなし、ステップS41でフラグFLGptを“1”に設定する。これに対して、判別結果がNOであれば、パン/チルト動作は発生していないとみなし、ステップS43でフラグFLGptを“0”に設定する。ステップS41またはS43の処理が完了すると、ステップS33に戻る。   In step S37, the average correlation value AV is calculated by averaging the acquired minimum correlation values MIN_1 to MIN_5. In step S39, it is determined whether or not the calculated average correlation value AV is equal to or greater than the reference value REF. If the determination result is YES, it is considered that a pan / tilt operation has occurred, and the flag FLGpt is set to “1” in a step S41. On the other hand, if the determination result is NO, it is considered that no pan / tilt operation has occurred, and the flag FLGpt is set to “0” in step S43. When the process of step S41 or S43 is completed, the process returns to step S33.

以上の説明から分かるように、イメージセンサ16は、撮像シーンを表す光学像が照射される撮像面を有し、生画像データを繰り返し出力する。動き検出回路22に設けられた相関値算出回路62は、前フレームの生画像データ上の代表画素と現フレームの生画像データ上の複数の周辺画素の各々との間の輝度差を相関値として算出する。CPU28は、算出された相関値に基づいてフォーカスレンズ12のステップ幅を“W_S”または“W_L”に設定し(S35~S43, S5~S9)、イメージセンサ16から出力された生画像データに基づいてフォーカスレンズ12の位置を“W_S”または“W_L”ずつ変更する(S11)。   As can be seen from the above description, the image sensor 16 has an imaging surface on which an optical image representing an imaging scene is irradiated, and repeatedly outputs raw image data. The correlation value calculation circuit 62 provided in the motion detection circuit 22 uses a luminance difference between the representative pixel on the raw image data of the previous frame and each of a plurality of peripheral pixels on the raw image data of the current frame as a correlation value. calculate. The CPU 28 sets the step width of the focus lens 12 to “W_S” or “W_L” based on the calculated correlation value (S35 to S43, S5 to S9), and based on the raw image data output from the image sensor 16. The position of the focus lens 12 is changed by “W_S” or “W_L” (S11).

フォーカスレンズ12から撮像面までの距離はイメージセンサ16から出力された生画像データに基づいて段階的に変更されるところ、ステップ幅の大きさは前フレームの生画像データ上の代表画素と現フレームの生画像データ上の複数の周辺画素の各々との間の輝度差に基づいて調整される。これによって、光軸に直交する方向における撮像面の動きを考慮した適応的なフォーカス制御が実現される。   The distance from the focus lens 12 to the imaging surface is changed step by step based on the raw image data output from the image sensor 16, and the step width is the representative pixel on the raw image data of the previous frame and the current frame. Is adjusted based on the luminance difference between each of the plurality of peripheral pixels on the raw image data. Thereby, adaptive focus control in consideration of the movement of the imaging surface in the direction orthogonal to the optical axis is realized.

なお、この実施例では、フラグFLGptが“0”を示すときにステップ幅を“W_S”に設定し、フラグFLGptが“1”を示すときにステップ幅を“W_L”に設定するようにしている。しかし、フラグFLGptが“0”を示すときにステップ幅を“W_L”に設定し、フラグFLGptが“1”を示すときにステップ幅を“W_S”に設定するようにしてもよい。   In this embodiment, the step width is set to “W_S” when the flag FLGpt indicates “0”, and the step width is set to “W_L” when the flag FLGpt indicates “1”. . However, the step width may be set to “W_L” when the flag FLGpt indicates “0”, and the step width may be set to “W_S” when the flag FLGpt indicates “1”.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ46に予め記憶される。しかし、図11に示すように通信I/F68をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ46に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 46 in advance. However, as shown in FIG. 11, a communication I / F 68 is provided in the digital camera 10, and some control programs are prepared as internal control programs in the flash memory 46 from the beginning, while some other control programs are prepared as external control programs. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

さらに、この実施例では、CPU28によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   Furthermore, in this embodiment, the processing executed by the CPU 28 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルビデオカメラ
16 …イメージセンサ
20 …前処理回路
22 …動き検出回路
28 …CPU
34 …SDRAM
36 …後処理回路
46 …フラッシュメモリ
DESCRIPTION OF SYMBOLS 10 ... Digital video camera 16 ... Image sensor 20 ... Pre-processing circuit 22 ... Motion detection circuit 28 ... CPU
34 ... SDRAM
36: Post-processing circuit 46: Flash memory

Claims (10)

フォーカスレンズを通してシーンを捉える撮像面を有し、前記撮像面で生成された電子画像を繰り返し出力する撮像手段、
前記撮像手段から先行して出力された電子画像上の代表画素と前記撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段、
前記撮像手段から出力された電子画像に基づいて前記フォーカスレンズから前記撮像面までの距離を既定量ずつ変更する変更手段、および
前記算出手段によって算出された輝度差に基づいて前記既定量の大きさを調整する調整手段を備える、撮像機器。
An imaging unit having an imaging surface for capturing a scene through a focus lens, and repeatedly outputting an electronic image generated on the imaging surface;
Calculating means for calculating a luminance difference between a representative pixel on the electronic image output in advance from the imaging means and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means;
A changing unit that changes a distance from the focus lens to the imaging surface by a predetermined amount based on an electronic image output from the imaging unit; and a size of the predetermined amount based on a luminance difference calculated by the calculating unit. An imaging device comprising adjustment means for adjusting
前記代表画素を各々が有する複数の画素ブロックを前記撮像面に割り当てる第1割り当て手段をさらに備え、
前記算出手段は前記第1割り当て手段によって割り当てられた画素ブロック毎に前記輝度差を算出する、請求項1記載の撮像機器。
First assigning means for assigning a plurality of pixel blocks each having the representative pixel to the imaging surface;
The imaging apparatus according to claim 1, wherein the calculation unit calculates the luminance difference for each pixel block allocated by the first allocation unit.
複数の大画素ブロックを前記撮像面に割り当てる第2割り当て手段をさらに備え、
前記複数の画素ブロックは前記第2割り当て手段によって割り当てられた複数の大画素ブロックの各々を形成する、請求項2記載の撮像機器。
A second assigning means for assigning a plurality of large pixel blocks to the imaging surface;
The imaging device according to claim 2, wherein the plurality of pixel blocks form each of a plurality of large pixel blocks allocated by the second allocation unit.
前記調整手段は、前記算出手段によって注目された2つの電子画像の相関性を前記輝度差に基づいて特定する特性手段、前記特定手段によって特定された相関性が高いとき前記既定量を低減させる低減手段、および前記特定手段によって特定された相関性が低いとき前記既定量を増大させる増大手段を含む、請求項1ないし3のいずれかに記載の撮像機器。   The adjusting means is a characteristic means for specifying the correlation between the two electronic images noticed by the calculating means based on the luminance difference, and a reduction for reducing the predetermined amount when the correlation specified by the specifying means is high. The imaging apparatus according to claim 1, further comprising: an increase unit configured to increase the predetermined amount when the correlation specified by the specifying unit is low. 前記撮像手段から出力された電子画像のうち抽出エリアに属する一部の電子画像を抽出する抽出手段、
光軸に直交する方向における前記撮像面の動きが補償されるように前記抽出エリアの位置を変更する変更手段、および
前記増大手段の処理に関連して前記変更手段の処理を制限する制限手段をさらに備える、請求項4記載の撮像機器。
Extraction means for extracting a part of the electronic image belonging to the extraction area from the electronic image output from the imaging means;
Changing means for changing the position of the extraction area so that the movement of the imaging surface in a direction orthogonal to the optical axis is compensated; and limiting means for restricting the processing of the changing means in relation to the processing of the increasing means The imaging device according to claim 4, further comprising:
前記変更手段は、前記撮像手段から出力された電子画像に基づいて前記撮像面の動きを示す動きベクトルを作成する作成手段、および前記作成手段によって作成された動きベクトルが補償されるように前記抽出エリアの配置を調整する配置調整手段を含む、請求項5記載の撮像機器。   The changing unit creates a motion vector indicating the motion of the imaging surface based on the electronic image output from the imaging unit, and the extraction so that the motion vector created by the creating unit is compensated The imaging apparatus according to claim 5, further comprising arrangement adjusting means for adjusting the arrangement of the area. フォーカスレンズを通してシーンを捉える撮像面を有し、前記撮像面で生成された電子画像を繰り返し出力する撮像手段、および
前記撮像手段から先行して出力された電子画像上の代表画素と前記撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段を備える撮像機器のプロセッサに、
前記撮像手段から出力された電子画像に基づいて前記フォーカスレンズから前記撮像面までの距離を既定量ずつ変更する変更ステップ、および
前記算出手段によって算出された輝度差に基づいて前記既定量の大きさを調整する調整ステップを実行させるための、撮像制御プログラム。
An imaging unit having an imaging surface for capturing a scene through a focus lens, and repeatedly outputting an electronic image generated on the imaging surface; a representative pixel on the electronic image output in advance from the imaging unit; and the imaging unit In a processor of an imaging device including a calculation unit that calculates a luminance difference between each of a plurality of peripheral pixels on an electronic image output with a delay,
A changing step of changing a distance from the focus lens to the imaging surface by a predetermined amount based on an electronic image output from the imaging unit; and a size of the predetermined amount based on a luminance difference calculated by the calculating unit The imaging control program for performing the adjustment step which adjusts.
フォーカスレンズを通してシーンを捉える撮像面を有し、前記撮像面で生成された電子画像を繰り返し出力する撮像手段、および
前記撮像手段から先行して出力された電子画像上の代表画素と前記撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段を備える撮像機器によって実行される撮像制御方法であって、
前記撮像手段から出力された電子画像に基づいて前記フォーカスレンズから前記撮像面までの距離を既定量ずつ変更する変更ステップ、および
前記算出手段によって算出された輝度差に基づいて前記既定量の大きさを調整する調整ステップを備える、撮像制御方法。
An imaging unit having an imaging surface for capturing a scene through a focus lens, and repeatedly outputting an electronic image generated on the imaging surface; a representative pixel on the electronic image output in advance from the imaging unit; and the imaging unit An imaging control method executed by an imaging device including a calculation unit that calculates a luminance difference between each of a plurality of peripheral pixels on a delayed electronic image,
A changing step of changing a distance from the focus lens to the imaging surface by a predetermined amount based on an electronic image output from the imaging unit; and a size of the predetermined amount based on a luminance difference calculated by the calculating unit An imaging control method, comprising an adjustment step for adjusting.
フォーカスレンズを通してシーンを捉える撮像面を有し、前記撮像面で生成された電子画像を繰り返し出力する撮像手段、
前記撮像手段から先行して出力された電子画像上の代表画素と前記撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える撮像機器に供給される外部制御プログラムであって、
前記撮像手段から出力された電子画像に基づいて前記フォーカスレンズから前記撮像面までの距離を既定量ずつ変更する変更ステップ、および
前記算出手段によって算出された輝度差に基づいて前記既定量の大きさを調整する調整ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An imaging unit having an imaging surface for capturing a scene through a focus lens, and repeatedly outputting an electronic image generated on the imaging surface;
A calculating means for calculating a luminance difference between a representative pixel on the electronic image output in advance from the imaging means and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means; and a memory An external control program supplied to an imaging device including a processor that executes processing according to the internal control program stored in
A changing step of changing a distance from the focus lens to the imaging surface by a predetermined amount based on an electronic image output from the imaging unit; and a size of the predetermined amount based on a luminance difference calculated by the calculating unit An external control program for causing the processor to execute an adjustment step for adjusting the value in cooperation with the internal control program.
フォーカスレンズを通してシーンを捉える撮像面を有し、前記撮像面で生成された電子画像を繰り返し出力する撮像手段、
前記撮像手段から先行して出力された電子画像上の代表画素と前記撮像手段から遅れて出力された電子画像上の複数の周辺画素の各々との間の輝度差を算出する算出手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える撮像機器であって、
前記撮像手段から出力された電子画像に基づいて前記フォーカスレンズから前記撮像面までの距離を既定量ずつ変更する変更ステップ、および
前記算出手段によって算出された輝度差に基づいて前記既定量の大きさを調整する調整ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、撮像機器。
An imaging unit having an imaging surface for capturing a scene through a focus lens, and repeatedly outputting an electronic image generated on the imaging surface;
Calculating means for calculating a luminance difference between a representative pixel on the electronic image output in advance from the imaging means and each of a plurality of peripheral pixels on the electronic image output delayed from the imaging means;
An imaging device comprising: a capturing unit that captures an external control program; and a processor that executes processing according to the external control program captured by the capturing unit and an internal control program stored in a memory,
A changing step of changing a distance from the focus lens to the imaging surface by a predetermined amount based on an electronic image output from the imaging unit; and a size of the predetermined amount based on a luminance difference calculated by the calculating unit An imaging apparatus corresponding to a program that executes an adjustment step for adjusting the image in cooperation with the internal control program.
JP2013015511A 2013-01-30 2013-01-30 Imaging apparatus Pending JP2014145974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013015511A JP2014145974A (en) 2013-01-30 2013-01-30 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013015511A JP2014145974A (en) 2013-01-30 2013-01-30 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2014145974A true JP2014145974A (en) 2014-08-14

Family

ID=51426263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013015511A Pending JP2014145974A (en) 2013-01-30 2013-01-30 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2014145974A (en)

Similar Documents

Publication Publication Date Title
US8253812B2 (en) Video camera which adopts a focal-plane electronic shutter system
JP6460653B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
US8237850B2 (en) Electronic camera that adjusts the distance from an optical lens to an imaging surface
US9071766B2 (en) Image capturing apparatus and control method thereof
JP2015144475A (en) Imaging apparatus, control method of the same, program and storage medium
JP2011182151A (en) Image composing apparatus
JP2015019354A (en) Imaging apparatus, image processing apparatus, and control method therefor
JP7142507B2 (en) Image processing device, image processing method, and imaging device
CN116266877A (en) Image processing apparatus and method, image capturing apparatus, and computer readable medium
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP5197064B2 (en) Video camera
JP6294607B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4964062B2 (en) Electronic camera
JP4827811B2 (en) Electronic camera
JP6199065B2 (en) Electronic camera
JP2014145974A (en) Imaging apparatus
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
US11832020B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP7475846B2 (en) Information processing device, imaging device, information processing method, and imaging device control method
JP2010245582A (en) Electronic camera
US8270673B2 (en) Motion detecting apparatus
JP2007333909A (en) Electronic camera
JP2017182668A (en) Data processor, imaging device, and data processing method
JP2022093912A (en) Imaging device, imaging method, and program
JP2014174217A (en) Electronic camera