JP4989524B2 - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP4989524B2
JP4989524B2 JP2008057964A JP2008057964A JP4989524B2 JP 4989524 B2 JP4989524 B2 JP 4989524B2 JP 2008057964 A JP2008057964 A JP 2008057964A JP 2008057964 A JP2008057964 A JP 2008057964A JP 4989524 B2 JP4989524 B2 JP 4989524B2
Authority
JP
Japan
Prior art keywords
image
object scene
imaging
scene images
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008057964A
Other languages
Japanese (ja)
Other versions
JP2009218697A (en
Inventor
光章 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008057964A priority Critical patent/JP4989524B2/en
Publication of JP2009218697A publication Critical patent/JP2009218697A/en
Application granted granted Critical
Publication of JP4989524B2 publication Critical patent/JP4989524B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、複数の被写界像を合成して不要な動体が排除された合成画像を作成する、電子カメラに関する。   The present invention relates to an electronic camera that creates a composite image from which unnecessary moving objects are eliminated by combining a plurality of object scene images.

この発明はまた、固定パターンノイズが除去された動画像を作成する、電子カメラに関する。   The present invention also relates to an electronic camera that creates a moving image from which fixed pattern noise has been removed.

不要な動体が排除された合成画像を作成するカメラの一例が、特許文献1に開示されている。特許文献1によれば、風景を背景とした人物は、所定の時間間隔で3回連続して撮影される。画像合成にあたっては、撮影された3フレームのうち2フレーム以上で一致する部分が抽出される。これによって、被写界にたまたま通りがかりの第三者が入ったとしても、動きのある第三者の像は除去され、利用者と所望の風景のみが撮影された合成画像が得られる。   An example of a camera that creates a composite image from which unnecessary moving objects are excluded is disclosed in Patent Document 1. According to Patent Document 1, a person with a landscape background is photographed continuously three times at predetermined time intervals. In the image composition, a matching part is extracted from two frames out of three taken frames. As a result, even if a third person who happens to pass through the scene is removed, the image of the moving third party is removed, and a composite image in which only the user and a desired landscape are photographed is obtained.

また、固定パターンノイズが除去された動画像を作成する電子カメラの一例が、特許文献2に開示されている。特許文献2によれば、撮像信号に固定的に現れるノイズに乱数信号が加算される。これによって攪乱されたノイズは、隣接画素相関やフレーム相関を利用して除去される。
特開2005−12660号公報 特開2004−289241号公報
An example of an electronic camera that creates a moving image from which fixed pattern noise has been removed is disclosed in Patent Document 2. According to Patent Document 2, a random number signal is added to noise that appears fixedly in an imaging signal. The noise disturbed by this is removed using adjacent pixel correlation or frame correlation.
Japanese Patent Laid-Open No. 2005-12660 JP 2004-289241 A

しかし、特許文献1では撮影の時間間隔が固定されるため、動きのある第三者の移動速度によっては第三者の像に起因するノイズが合成画像に現れるおそれがある。また、特許文献2では、隣接画素相関またはフレーム相関を利用する前に固定パターンノイズを攪乱する必要があるため、回路構成が複雑化するおそれがある。   However, in Patent Document 1, since the shooting time interval is fixed, noise caused by the third party image may appear in the composite image depending on the moving speed of the third party in motion. Further, in Patent Document 2, since it is necessary to disturb fixed pattern noise before using adjacent pixel correlation or frame correlation, the circuit configuration may be complicated.

それゆえに、この発明の主たる目的は、動体が排除された合成画像の品質の改善することができる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera capable of improving the quality of a composite image from which moving objects are excluded.

この発明の他の目的は、固定パターンノイズが除去された動画像を簡便に作成することができる、電子カメラを提供することである。   Another object of the present invention is to provide an electronic camera capable of easily creating a moving image from which fixed pattern noise has been removed.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する撮像手段(16)、撮像手段によって指定周期毎に生成された複数の被写界像を合成する合成手段(36)、光軸に直交する方向における撮像面の動きを合成手段によって注目される複数の被写界像の各々に対応して検出する検出手段(S23, S27, S65)、および合成手段による画像合成位置を検出手段によって検出された動きを
参照して調整する調整手段(S75)を備え、合成手段は、複数の被写界像に共通する複数の画素を選択し、該複数の画素のうち既定番目の大きさの画素値を有する画素を出力することを特徴とする。
An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; hereinafter the same) has an imaging surface on which an optical image of the object scene is irradiated, and imaging means for periodically generating the object scene image ( 16) combining means (36) for combining a plurality of object scene images generated for each specified period by the image pickup means, and a plurality of objects to be watched by the combining means for the movement of the imaging surface in the direction orthogonal to the optical axis. Detection means (S23, S27, S65) for detecting corresponding to each of the field images, and adjustment means (S75) for adjusting the image synthesis position by the synthesis means with reference to the motion detected by the detection means , means selects a plurality of pixels that are common to a plurality of object scene image, you and outputting a pixel having a predetermined th magnitude of the pixel values of the plurality of pixels.

撮像手段は、被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する。合成手段は、撮像手段によって指定周期毎に生成された複数の被写界像を合成する。また、指定周期の長さを変更指示に応答して変更する変更手段を備え、指定周期の長さは、変更指示に応答して変更手段によって変更される。光軸に直交する方向における撮像面の動きは、合成手段によって注目される複数の被写界像の各々に対応して、検出手段によって検出される。調整手段は、合成手段による画像合成位置を検出手段によって検出された動きを参照して調整する。 The imaging means has an imaging surface on which an optical image of the object scene is irradiated, and periodically generates the object scene image. The synthesizing unit synthesizes a plurality of object scene images generated for each designated period by the imaging unit. In addition, a changing unit that changes the length of the designated cycle in response to the change instruction is provided, and the length of the designated cycle is changed by the changing unit in response to the change instruction. The movement of the imaging surface in the direction orthogonal to the optical axis is detected by the detecting unit corresponding to each of the plurality of object scene images noted by the combining unit. The adjustment means adjusts the image composition position by the composition means with reference to the motion detected by the detection means.

変更指示に応答して指定周期を変更することで、動体の動きが遅いほど指定周期を延長することができ、これによって合成画像から動体を確実に排除することができる。また、光軸に直交する方向における撮像面の振れを考慮して画像合成位置を調整することで、指定周期の延長に起因する撮像面の振れが画像合成に与える影響を軽減することができる。この結果、動体が排除された合成画像の品質の改善が図られる。   By changing the designated period in response to the change instruction, the designated period can be extended as the movement of the moving object is slower, and thus the moving object can be reliably excluded from the synthesized image. Further, by adjusting the image composition position in consideration of the shake of the imaging surface in the direction orthogonal to the optical axis, it is possible to reduce the influence of the shake of the imaging surface due to the extension of the designated period on the image composition. As a result, it is possible to improve the quality of the synthesized image from which moving objects are excluded.

好ましくは、合成手段は、複数の被写界像の各々から指定エリアに属する部分被写界像を抽出する抽出手段(96)、および抽出手段によって抽出された複数の部分被写界像を合成する部分被写界像合成手段(100~112)を含み、調整手段は撮像面の動きが補償されるように指定エリアの位置を調整する。   Preferably, the synthesizing unit extracts the partial scene image belonging to the designated area from each of the plurality of scene images, and synthesizes the plurality of partial scene images extracted by the extracting unit. And a partial scene image synthesizing unit (100 to 112) that adjusts the position of the designated area so that the movement of the imaging surface is compensated.

さらに好ましくは、画素出力手段はメディアンフィルタまたはランクフィルタを含む。 More preferably, fraction containing the output means comprises a median filter or rank filter.

好ましくは、撮像手段によって生成された被写界像に基づく動画像を出力する出力手段(40, 42)、および合成手段によって注目される複数の被写界像が生成された後に合成手段を起動する起動手段(S67)がさらに備えられる。   Preferably, output means (40, 42) for outputting a moving image based on the object scene image generated by the image pickup means, and the composition means is activated after a plurality of object scene images noted by the composition means are generated The starting means (S67) is further provided.

この発明に従う撮像制御プログラムは、被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する撮像手段(16)、および撮像手段によって指定周期毎に生成された複数の被写界像を合成する合成手段(36)を備える電子カメラ(10)のプロセッサ(28)に、指定周期の長さを変更指示に応答して変更する変更ステップ(S35)、光軸に直交する方向における撮像面の動きを合成手段によって注目される複数の被写界像の各々に対応して検出する検出ステップ(S23, S27, S65)、および合成手段による画像合成位置を検出ステップによって検出された動きを参照して調整する調整ステップ(S75)を実行させるための、撮像制御プログラムである。   An imaging control program according to the present invention has an imaging surface on which an optical image of an object scene is irradiated, and is generated at every specified period by an imaging means (16) that periodically generates an object scene image, and the imaging means. A change step (S35) for changing the length of the specified period in response to the change instruction to the processor (28) of the electronic camera (10) provided with the combining means (36) for combining a plurality of object scene images; Detection step (S23, S27, S65) for detecting the movement of the imaging surface in the direction perpendicular to the axis corresponding to each of the plurality of object scene images noted by the combining means, and detecting the image combining position by the combining means It is an imaging control program for executing an adjustment step (S75) in which adjustment is performed with reference to the motion detected in the step.

この発明に従う撮像制御方法は、被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する撮像手段(16)、および撮像手段によって指定周期毎に生成された複数の被写界像を合成する合成手段(36)を備える電子カメラ(10)によって実行される撮像制御方法であって、指定周期の長さを変更指示に応答して変更する変更ステップ(S35)、光軸に直交する方向における撮像面の動きを合成手段によって注目される複数の被写界像の各々に対応して検出する検出ステップ(S23, S27, S65)、および合成手段による画像合成位置を検出ステップによって検出された動きを参照して調整する調整ステップ(S75)を備える。   The imaging control method according to the present invention has an imaging surface on which an optical image of the object scene is irradiated, an imaging means (16) that periodically generates the object scene image, and an imaging means that is generated for each specified period. An imaging control method executed by an electronic camera (10) provided with a synthesizing means (36) for synthesizing a plurality of object scene images, wherein a change step of changing the length of a specified cycle in response to a change instruction S35), a detection step (S23, S27, S65) for detecting the movement of the imaging surface in a direction orthogonal to the optical axis corresponding to each of a plurality of object scene images noted by the combining means, and an image by the combining means An adjustment step (S75) for adjusting the synthesized position with reference to the movement detected by the detection step is provided.

他の発明に従う電子カメラ(10)は、被写界の光学像が照射される撮像面を有し、被写界像を指定周期で生成する撮像手段(16)、撮像手段によって生成された複数の被写界像の中からN個(N:2以上の整数)の被写界像を選択する選択手段(S13)、選択手段の選択態様を指定周期で変更する変更手段(S15)、選択手段によって選択されたN個の被写界像を合成する合成手段(36)、合成手段によって作成された被写界像に基づく動画像を出力する出力手段(40, 42)、および合成手段による画像合成位置を光軸に直交する方向における撮像面の動きを参照して調整する調整手段(S27, S29)を備える。   An electronic camera (10) according to another invention has an imaging surface on which an optical image of an object scene is irradiated, an image pickup means (16) for generating an object scene image at a specified period, and a plurality of images generated by the image pickup means Selection means (S13) for selecting N (N: integer greater than or equal to 2) object scene images from among the object scene images, and changing means (S15) for selecting the selection mode of the selection means at a specified cycle, selection By combining means (36) for combining N object scene images selected by the means, output means (40, 42) for outputting a moving image based on the object scene image created by the combining means, and combining means Adjustment means (S27, S29) for adjusting the image composition position with reference to the movement of the imaging surface in the direction orthogonal to the optical axis is provided.

撮像手段は、被写界の光学像が照射される撮像面を有し、被写界像を指定周期で生成する。選択手段は、撮像手段によって生成された複数の被写界像の中からN個(N:2以上の整数)の被写界像を選択する。選択手段の選択態様は、変更手段によって指定周期で変更される。合成手段は、選択手段によって選択されたN個の被写界像を合成する。合成手段によって作成された被写界像に基づく動画像は、出力手段によって出力される。調整手段は、合成手段による画像合成位置を光軸に直交する方向における撮像面の動きを参照して調整する。   The imaging means has an imaging surface on which an optical image of the object scene is irradiated, and generates the object scene image at a specified period. The selection unit selects N (N: integer greater than or equal to 2) object scene images from the plurality of object scene images generated by the imaging unit. The selection mode of the selection unit is changed by the changing unit at a designated cycle. The synthesizing unit synthesizes the N object scene images selected by the selecting unit. A moving image based on the object scene image created by the synthesizing unit is output by the output unit. The adjusting unit adjusts the image combining position by the combining unit with reference to the movement of the imaging surface in the direction orthogonal to the optical axis.

このように、撮像手段は指定周期で被写界像を生成し、選択手段はN個の被写界像の選択態様を指定周期で変更する。動画像を形成する被写界像は、こうして選択されたN個の被写界像の合成によって得られる。ここで、N個の被写界像の合成位置は、光軸に直交する方向における撮像面の動きを参照して調整される。このため、撮像面に手振れが生じると、固定パターンノイズの相対位置がN個の被写界像の間で相違することとなる。この結果、固定パターンノイズを画像合成の際に(つまり簡便に)除去することができる。   As described above, the imaging unit generates a scene image at a specified cycle, and the selection unit changes the selection mode of the N scene images at the specified cycle. The object scene image forming the moving image is obtained by combining the N object scene images thus selected. Here, the combined position of the N object scene images is adjusted with reference to the movement of the imaging surface in the direction orthogonal to the optical axis. For this reason, when camera shake occurs on the imaging surface, the relative position of the fixed pattern noise differs among the N object scene images. As a result, the fixed pattern noise can be removed during image synthesis (that is, simply).

好ましくは、合成手段は、N個の被写界像の各々から指定エリアに属する部分被写界像を抽出する抽出手段(96)、および抽出手段によって抽出されたN個の部分被写界像を合成する部分被写界像合成手段(100~112)を含み、調整手段は撮像面の動きが補償されるように指定エリアの位置を調整する。   Preferably, the synthesizing means extracts an extraction means (96) for extracting a partial scene image belonging to the designated area from each of the N object scene images, and the N partial scene images extracted by the extraction means. And a partial field image composition unit (100 to 112) for synthesizing the image.

さらに好ましくは、部分被写界像合成手段は、N個の部分被写界像に共通する複数の画素を選択する画素選択手段(102~110)、および画素選択手段によって選択された複数の画素に基づいて1つの画素を出力する画素出力手段(112)を含む。より好ましくは、画素出力手段は複数の画素のうち既定番目の大きさの画素値を有する画素を出力する。   More preferably, the partial scene image synthesizing unit includes a pixel selection unit (102 to 110) that selects a plurality of pixels common to the N partial scene images, and a plurality of pixels selected by the pixel selection unit. The pixel output means (112) for outputting one pixel based on the above is included. More preferably, the pixel output means outputs a pixel having a pixel value of a predetermined size among the plurality of pixels.

この発明によれば、変更指示に応答して指定周期を変更することで、動体の動きが遅いほど指定周期を延長することができ、これによって合成画像から動体を確実に排除することができる。また、光軸に直交する方向における撮像面の振れを考慮して画像合成位置を調整することで、指定周期の延長に起因する撮像面の振れが画像合成に与える影響を軽減することができる。この結果、動体が排除された合成画像の品質の改善が図られる。   According to the present invention, by changing the designated cycle in response to the change instruction, the designated cycle can be extended as the moving body moves slower, and thereby the moving body can be reliably excluded from the synthesized image. Further, by adjusting the image composition position in consideration of the shake of the imaging surface in the direction orthogonal to the optical axis, it is possible to reduce the influence of the shake of the imaging surface due to the extension of the designated period on the image composition. As a result, it is possible to improve the quality of the synthesized image from which moving objects are excluded.

また、他の発明によれば、撮像手段は指定周期で被写界像を生成し、選択手段はN個の被写界像の選択態様を指定周期で変更する。動画像を形成する被写界像は、こうして選択されたN個の被写界像の合成によって得られる。ここで、N個の被写界像の合成位置は、光軸に直交する方向における撮像面の動きを参照して調整される。このため、撮像面に手振れが生じると、固定パターンノイズの相対位置がN個の被写界像の間で相違することとなる。この結果、固定パターンノイズを画像合成の際に(つまり簡便に)除去することができる。   According to another invention, the imaging unit generates a scene image at a specified cycle, and the selection unit changes a selection mode of N field images at a specified cycle. The object scene image forming the moving image is obtained by combining the N object scene images thus selected. Here, the combined position of the N object scene images is adjusted with reference to the movement of the imaging surface in the direction orthogonal to the optical axis. For this reason, when camera shake occurs on the imaging surface, the relative position of the fixed pattern noise differs among the N object scene images. As a result, the fixed pattern noise can be removed during image synthesis (that is, simply).

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のディジタルカメラ10は、光学レンズ12および絞りユニット14を含む。被写界の光学像は、これらの部材を通してCMOS型のイメージセンサ16の撮像面に照射される。撮像面は、原色ベイヤ配列の色フィルタ(図示せず)によって覆われる。したがって、各画素では、R(Red),G(Green)およびB(Blue)のいずれか1つの色情報を有する電荷が光電変換によって生成される。   Referring to FIG. 1, a digital camera 10 of this embodiment includes an optical lens 12 and an aperture unit 14. The optical image of the object scene is irradiated on the imaging surface of the CMOS image sensor 16 through these members. The imaging surface is covered by a primary color Bayer array color filter (not shown). Therefore, in each pixel, a charge having color information of any one of R (Red), G (Green), and B (Blue) is generated by photoelectric conversion.

電源が投入されると、CPU28は、スルー画像処理を実行するべくドライバ18を起動する。ドライバ18は、1/60秒毎に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、被写界を表す生画像データが60fpsのフレームレートで出力される。   When the power is turned on, the CPU 28 activates the driver 18 to execute through image processing. In response to the vertical synchronization signal Vsync generated every 1/60 seconds, the driver 18 exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the image sensor 16, raw image data representing the object scene is output at a frame rate of 60 fps.

前処理回路20は、イメージセンサ16からの生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御,メディアンフィルタなどの処理を施す。これによって生成された生画像データは、メモリ制御回路32を通してSDRAM34の生画像エリア34a(図2参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, gain control, and median filter on the raw image data from the image sensor 16. The raw image data generated thereby is written into the raw image area 34a (see FIG. 2) of the SDRAM 34 through the memory control circuit 32.

メディアンフィルタとは、対象画素およびその周辺に存在する同色画素のレベルの中央値を検出し、検出した中央値を対象画素のレベルとする処理である。また、前処理回路20のメディアンフィルタは、平面方向の周辺画素に注目する。   The median filter is a process of detecting the median level of the target pixel and the same color pixel existing around the target pixel and setting the detected median level to the level of the target pixel. Further, the median filter of the preprocessing circuit 20 focuses on peripheral pixels in the planar direction.

したがって、対象画素が図3(A)に示すマトリクスの中央のR画素であるときは、同じ図3(A)に斜線で示す9画素のレベルの中央値が対象画素のレベルとされる。また、対象画素が図3(B)に示すマトリクスの中央のG画素であるときは、同じ図3(B)に斜線で示す13画素のレベルの中央値が対象画素のレベルとされる。さらに、対象画素が図3(C)に示すマトリクスの中央のB画素であるときは、同じ図3(C)に斜線で示す9画素のレベルの中央値が対象画素のレベルとされる。   Therefore, when the target pixel is the R pixel at the center of the matrix shown in FIG. 3A, the median value of the nine pixels indicated by hatching in the same FIG. 3A is the level of the target pixel. Further, when the target pixel is the G pixel at the center of the matrix shown in FIG. 3B, the median value of the level of 13 pixels indicated by hatching in FIG. 3B is set as the level of the target pixel. Further, when the target pixel is the central B pixel of the matrix shown in FIG. 3C, the median value of the nine pixels indicated by hatching in FIG. 3C is set as the target pixel level.

図2に示す生画像エリア34aは、6つのバンクによって形成される。CPU28は、垂直同期信号Vsyncが発生する毎に、書き込み先のバンクを循環的に変更する。書き込み先のバンクは、バンク1→バンク2→バンク3→バンク4→バンク5→バンク6→バンク1→…の順で指定される。前処理回路20から出力された生画像データは、こうして指定されたバンクに書き込まれる。   The raw image area 34a shown in FIG. 2 is formed by six banks. The CPU 28 cyclically changes the write-destination bank every time the vertical synchronization signal Vsync is generated. The write destination bank is specified in the order of bank 1 → bank 2 → bank 3 → bank 4 → bank 5 → bank 6 → bank 1 →. The raw image data output from the preprocessing circuit 20 is written in the bank thus specified.

前処理回路20は、上述の処理に加えて、簡易Y生成処理および簡易RGB生成処理を実行する。生画像データは、簡易Y変換処理によってYデータに変換され、簡易RGB変換処理によってRGBデータ(各画素がR,GおよびBの全ての色情報を有するデータ)に変換される。簡易Y変換処理によって生成されたYデータは動き検出回路22およびAF評価回路26に与えられ、簡易RGB変換処理によって生成されたRGBデータはAE/AWB評価回路24に与えられる。   The preprocessing circuit 20 executes a simple Y generation process and a simple RGB generation process in addition to the above-described processes. The raw image data is converted into Y data by a simple Y conversion process, and converted into RGB data (data in which each pixel has all color information of R, G, and B) by a simple RGB conversion process. The Y data generated by the simple Y conversion process is supplied to the motion detection circuit 22 and the AF evaluation circuit 26, and the RGB data generated by the simple RGB conversion process is supplied to the AE / AWB evaluation circuit 24.

図5を参照して、撮像面には9つの動き検出エリアMD1〜MD9と1つの抽出エリアEXとが割り当てられる。動き検出エリアMD1〜MD3は撮像面の上段に水平方向に並び、動き検出エリアMD4〜MD6は撮像面の中断に水平方向に並び、動き検出エリアMD7〜MD9は撮像面の下段に水平方向に並ぶ。   Referring to FIG. 5, nine motion detection areas MD1 to MD9 and one extraction area EX are allocated to the imaging surface. The motion detection areas MD1 to MD3 are arranged horizontally in the upper stage of the imaging surface, the motion detection areas MD4 to MD6 are arranged horizontally in the interruption of the imaging surface, and the motion detection areas MD7 to MD9 are arranged horizontally in the lower stage of the imaging surface. .

動き検出回路22は、動き検出エリアMD1〜MD9の各々における被写界の動きを表す部分動きベクトルを、前処理回路20から与えられたYデータに基づいて1/60秒毎に検出する。動き検出回路22はさらに、検出された部分動きベクトルを合成して全体動きベクトルを作成する。全体動きベクトルは、1/60秒毎に動き検出回路22から出力される。   The motion detection circuit 22 detects a partial motion vector representing the motion of the object scene in each of the motion detection areas MD1 to MD9 based on Y data given from the preprocessing circuit 20 every 1/60 seconds. The motion detection circuit 22 further synthesizes the detected partial motion vectors to create an overall motion vector. The entire motion vector is output from the motion detection circuit 22 every 1/60 seconds.

CPU28は、光軸に直交する方向における撮像面の動きが手振れおよびパン/チルト動作のいずれに起因するかを動き検出回路22から出力された全体動きベクトルに基づいて判別し、撮像面の動きが手振れに起因するときに全体動きベクトルに沿って抽出エリアEXを移動させる。抽出エリアEXの位置は、手振れに起因する撮像面の動きが補償(相殺)されるように変更される。   The CPU 28 determines whether the movement of the imaging surface in the direction orthogonal to the optical axis is caused by hand movement or pan / tilt operation based on the entire motion vector output from the motion detection circuit 22, and the movement of the imaging surface is determined. When it is caused by camera shake, the extraction area EX is moved along the entire motion vector. The position of the extraction area EX is changed so that the movement of the imaging surface due to camera shake is compensated (cancelled).

CPU28はその後、現時点の抽出エリアEXの位置をフィルタ回路36に設けられたレジスタRGST1に設定する。図6に示すように、レジスタRGST1は生画像エリア34a上のバンク1〜6にそれぞれ対応する6つのカラムを有する。抽出エリアEXの位置は、この6つのカラムのうち現時点の書き込み先のバンクに対応するカラムに設定される。   Thereafter, the CPU 28 sets the current position of the extraction area EX in the register RGST1 provided in the filter circuit 36. As shown in FIG. 6, the register RGST1 has six columns corresponding to the banks 1 to 6 on the raw image area 34a. The position of the extraction area EX is set to a column corresponding to the current write destination bank among the six columns.

CPU28は、生画像エリア34aに5フレームの生画像データが確保された後、垂直同期信号Vsyncが発生する毎に読み出し開始バンクを循環的に変更する。読み出し開始バンクもまた、バンク1→バンク2→バンク3→バンク4→バンク5→バンク6→バンク1→…の順で指定される。   After the five frames of raw image data are secured in the raw image area 34a, the CPU 28 cyclically changes the read start bank each time the vertical synchronization signal Vsync is generated. The read start bank is also designated in the order of bank 1 → bank 2 → bank 3 → bank 4 → bank 5 → bank 6 → bank 1 →.

フィルタ回路36は、読み出し開始バンクに対応するカラムから始まる5つのカラムをレジスタRGST1から特定し、特定された5つのカラムから5つの位置をそれぞれ検出し、そして検出された5つの位置に従う5つの抽出エリアEXを生画像エリア34a上の5つのバンク(読み出し開始バンクから始まる5つのバンク)にそれぞれ割り当てる。   The filter circuit 36 identifies five columns starting from the column corresponding to the read start bank from the register RGST1, detects five positions from the five identified columns, and extracts five according to the detected five positions. The area EX is allocated to five banks on the raw image area 34a (five banks starting from the read start bank).

フィルタ回路36はさらに、この5つの抽出エリアにそれぞれ属する5フレームの部分生画像データをメモリ制御回路32を通して並列的に読み出し、抽出エリアEXの左上座標を基準として共通する位置に存在する5画素に注目した時間軸方向のメディアンフィルタを実行する。読み出し処理は指定の画素ブロックずつ実行され、かつ5フレームの部分生画像データの読み出しは1/60秒以内に完了する。   The filter circuit 36 further reads out the five frames of partial raw image data belonging to the five extraction areas in parallel through the memory control circuit 32, and sets the five pixels existing at a common position on the basis of the upper left coordinates of the extraction area EX. Execute the median filter in the time axis direction. The readout process is executed for each designated pixel block, and readout of the partial raw image data of 5 frames is completed within 1/60 second.

図4に示す5フレームの部分生画像データにそれぞれ属する5つの画素ブロックMB1〜MB5を読み出し、このうちの5つの画素P1〜P5に注目した場合、この5画素のレベルの中央値が画素P3のレベルとされる。こうして、ノイズが除去された1フレームの部分生画像データが1/60秒毎に生成される。生成された部分生画像データは、メモリ制御回路32を通してSDRAM34のフィルタ画像エリア34b(図2参照)に書き込まれる。   When the five pixel blocks MB1 to MB5 respectively belonging to the five frames of partial raw image data shown in FIG. 4 are read and attention is paid to five of these pixels P1 to P5, the median value of the level of these five pixels is the pixel P3. Level. Thus, one frame of partial raw image data from which noise has been removed is generated every 1/60 seconds. The generated partial raw image data is written into the filter image area 34b (see FIG. 2) of the SDRAM 34 through the memory control circuit 32.

したがって、固定パターンノイズNSが図8(A)〜図8(E)に示す要領で発生し、かつ抽出エリアEXが同じ図8(A)〜図8(E)に示す要領で移動した場合、図8(F)に示すように固定パターンノイズNSが除去された部分生画像データがフィルタ画像エリア34b内に得られる。   Therefore, when the fixed pattern noise NS is generated as shown in FIGS. 8A to 8E, and the extraction area EX is moved as shown in FIGS. 8A to 8E, As shown in FIG. 8F, partial raw image data from which the fixed pattern noise NS is removed is obtained in the filter image area 34b.

後処理回路38は、フィルタ画像エリア34bに格納された部分生画像データをメモリ制御回路32を通して1/60秒毎に読み出し、読み出された部分生画像データに色分離,白バランス調整,YUV変換,縮小ズームなどの処理を施す。この結果、YUV形式に対応する低解像度の画像データが1/60秒毎に作成される。作成された画像データは、動画出力端M_OUTから出力され、メモリ制御回路32を通してSDRAM34のYUV画像エリア34c(図2参照)に書き込まれる。   The post-processing circuit 38 reads the partial raw image data stored in the filter image area 34b every 1/60 seconds through the memory control circuit 32, and performs color separation, white balance adjustment, and YUV conversion to the read partial raw image data. , Processing such as reduction zoom. As a result, low-resolution image data corresponding to the YUV format is created every 1/60 seconds. The created image data is output from the moving image output terminal M_OUT and is written in the YUV image area 34c (see FIG. 2) of the SDRAM 34 through the memory control circuit 32.

LCDドライバ40は、YUV画像エリア34cに格納された画像データを繰り返し読み出し、読み出された画像データに基づいてLCDモニタ42を駆動する。この結果、被写界を表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 40 repeatedly reads the image data stored in the YUV image area 34c, and drives the LCD monitor 42 based on the read image data. As a result, a real-time moving image (through image) representing the scene is displayed on the monitor screen.

AE/AWB評価回路24は、前処理回路20から出力されたRGBデータの各々を1/60秒毎に積分する。CPU28は、AE/AWB評価回路24から出力されたこれらの積分値に基づいて適正EV値と適正白バランス調整ゲインとを算出するべく、スルー画像用AE/AWB処理(簡易的なAE/AWB処理)を実行する。算出された適正EV値を定義する絞り量および露光時間は絞りユニット14およびドライバ18にそれぞれ設定され、算出された適正白バランス調整ゲインは後処理回路38に設定される。この結果、LCDモニタ42から出力される動画像の明るさおよび白バランスが適度に調整される。   The AE / AWB evaluation circuit 24 integrates each of the RGB data output from the preprocessing circuit 20 every 1/60 seconds. The CPU 28 performs through-image AE / AWB processing (simple AE / AWB processing) in order to calculate an appropriate EV value and an appropriate white balance adjustment gain based on these integrated values output from the AE / AWB evaluation circuit 24. ). The aperture amount and exposure time that define the calculated appropriate EV value are set in the aperture unit 14 and the driver 18, respectively, and the calculated appropriate white balance adjustment gain is set in the post-processing circuit 38. As a result, the brightness and white balance of the moving image output from the LCD monitor 42 are adjusted appropriately.

キー入力装置30上のシャッタボタン30sが半押しされると、AE/AWB評価回路24から出力された積分値に基づいて最適EV値および最適白バランス調整ゲインを算出するべく、厳格な記録用AE/AWB処理が実行される。算出された最適EV値を定義する絞り量および露光時間は、上述と同様、絞りユニット14およびドライバ18にそれぞれ設定される。   When the shutter button 30s on the key input device 30 is half-pressed, a strict recording AE is performed so as to calculate the optimum EV value and the optimum white balance adjustment gain based on the integral value output from the AE / AWB evaluation circuit 24. / AWB processing is executed. The aperture amount and the exposure time that define the calculated optimum EV value are set in the aperture unit 14 and the driver 18, respectively, as described above.

記録用AE/AWB処理が完了すると、AF評価回路26の出力に基づくAF処理が実行される。AF評価回路26は、前処理回路20から出力されたYデータの高周波成分を1/60秒毎に積分する。CPU28は、AF評価回路26から出力された積分値を参照して、いわゆる山登り処理によって合焦点を探索する。フォーカスレンズ12は、発見された合焦点に配置される。   When the recording AE / AWB process is completed, the AF process based on the output of the AF evaluation circuit 26 is executed. The AF evaluation circuit 26 integrates the high-frequency component of the Y data output from the preprocessing circuit 20 every 1/60 seconds. The CPU 28 refers to the integrated value output from the AF evaluation circuit 26 and searches for the focal point by so-called hill climbing processing. The focus lens 12 is disposed at the found focal point.

シャッタボタン30sが全押しされると、現時点の静止画撮像モードが通常モードおよび特殊モードのいずれであるかが判別される。CPU28は、判別結果が通常モードを示すとき通常記録処理を実行し、判別結果が特殊モードを示すとき合成記録処理を実行する。   When the shutter button 30s is fully pressed, it is determined whether the current still image capturing mode is the normal mode or the special mode. The CPU 28 executes a normal recording process when the determination result indicates the normal mode, and executes a composite recording process when the determination result indicates the special mode.

通常記録処理に関連して、CPU28は、1フレームの画像データの抽出を後処理回路38に命令し、抽出された画像データの記録をI/F44に命令する。後処理回路38は、シャッタボタン30sが全押しされた時点の1フレームの画像データ(形式:YUV,解像度:高)を抽出し、抽出された画像データを静止画出力端S_OUTから出力する。出力された画像データは、メモリ制御回路32を通してSDRAM34の静止画像エリア34dに書き込まれる。I/F44は、静止画像エリア34dに格納された画像データをメモリ制御回路32を通して読み出し、読み出された画像データをファイル形式で記録媒体46に記録する。   In connection with the normal recording process, the CPU 28 instructs the post-processing circuit 38 to extract one frame of image data, and instructs the I / F 44 to record the extracted image data. The post-processing circuit 38 extracts one frame of image data (format: YUV, resolution: high) at the time when the shutter button 30s is fully pressed, and outputs the extracted image data from the still image output terminal S_OUT. The output image data is written into the still image area 34 d of the SDRAM 34 through the memory control circuit 32. The I / F 44 reads the image data stored in the still image area 34d through the memory control circuit 32, and records the read image data on the recording medium 46 in a file format.

合成記録処理に関連して、CPU28は、キー入力装置30上でのインターバル変更操作によって指定された撮像インターバルをおいて5回の静止画取り込み処理を実行する。撮像インターバルが2秒に設定されれば静止画取り込み処理は2秒毎に実行され、撮像インターバルが3秒に設定されれば静止画取り込み処理は3秒毎に実行される。この5回の静止画取り込み処理は、スルー画像処理と並列して実行される。また、5回の静止画取り込み処理によって、合計5フレームの生画像データがワークエリア34e(図2参照)に退避される。ワークエリア34eは5つのバンクを有し、書き込み先のバンクは静止画取り込み処理が実行される毎に変更される。このため、5フレームの生画像データはこの5つのバンクに順に格納される。   In relation to the composite recording process, the CPU 28 executes five still image capturing processes at an imaging interval designated by an interval changing operation on the key input device 30. If the imaging interval is set to 2 seconds, the still image capturing process is executed every 2 seconds. If the imaging interval is set to 3 seconds, the still image capturing process is executed every 3 seconds. The five still image capturing processes are executed in parallel with the through image processing. In addition, a total of five frames of raw image data is saved in the work area 34e (see FIG. 2) by five still image capturing processes. The work area 34e has five banks, and the writing destination bank is changed every time the still image capturing process is executed. For this reason, 5 frames of raw image data are stored in order in these five banks.

CPU28はまた、静止画取り込み処理が行われた時点の抽出エリアEXの位置を特定し、特定された位置を図7に示すレジスタRGST2に設定する。レジスタRGST2はバンク1〜5にそれぞれ対応する5つのカラムを有し、特定された抽出エリアEXの位置はこの5つのカラムに順に設定される。   The CPU 28 also specifies the position of the extraction area EX at the time when the still image capturing process is performed, and sets the specified position in the register RGST2 shown in FIG. The register RGST2 has five columns respectively corresponding to the banks 1 to 5, and the position of the specified extraction area EX is set in order to these five columns.

レジスタRGST2への設定処理が完了すると、スルー画像処理が停止される。CPU28はその後、読み出し先をワークエリア34eとし、参照レジスタをレジスタRGST2とし、そしてバンク1を読み出し開始バンクとするよう、フィルタ回路36の設定を変更する。CPU28はまた、後処理回路38のズーム倍率を“1.0”に設定する。   When the setting process to the register RGST2 is completed, the through image process is stopped. Thereafter, the CPU 28 changes the setting of the filter circuit 36 so that the read destination is the work area 34e, the reference register is the register RGST2, and the bank 1 is the read start bank. The CPU 28 also sets the zoom magnification of the post-processing circuit 38 to “1.0”.

フィルタ回路36は、読み出し開始バンクに対応するカラムから始まる5つのカラムをレジスタRGST2から特定し、特定された5つのカラムにそれぞれ設定された5つの位置を検出し、そして検出された5つの位置に従う5つの抽出エリアEXをワークエリア34e上の5つのバンク(読み出し開始バンクから始まる5つのバンク)に割り当てる。   The filter circuit 36 identifies the five columns starting from the column corresponding to the read start bank from the register RGST2, detects the five positions set in the five identified columns, and follows the detected five positions. The five extraction areas EX are allocated to five banks (5 banks starting from the read start bank) on the work area 34e.

フィルタ回路36はさらに、この5つの抽出エリアにそれぞれ属する5フレームの部分生画像データをメモリ制御回路32を通して並列的に読み出し、上述した時間軸方向のメディアンフィルタを実行する。メディアンフィルタ処理によってノイズが除去された1フレームの部分生画像データは、メモリ制御回路32を通してSDRAM34のフィルタ画像エリア34b(図2参照)に書き込まれる。   Further, the filter circuit 36 reads out the five frames of partial raw image data belonging to the five extraction areas in parallel through the memory control circuit 32, and executes the above-described median filter in the time axis direction. One frame of partial raw image data from which noise has been removed by the median filter processing is written into the filter image area 34b (see FIG. 2) of the SDRAM 34 through the memory control circuit 32.

ワークエリア34eに退避された5フレームの生画像データが図9(A)〜図9(E)に示すように不要な動体MOをノイズとして含む場合、フィルタ回路36による時間軸方向のメディアンフィルタ処理によって、図9(F)に示すように動体MOが排除された被写界を表す部分画像データが得られる。   When the raw image data of 5 frames saved in the work area 34e includes unnecessary moving body MO as noise as shown in FIGS. 9A to 9E, the median filter processing in the time axis direction by the filter circuit 36 is performed. Thus, as shown in FIG. 9F, partial image data representing the object scene from which the moving body MO is excluded is obtained.

後処理回路38は、フィルタ画像エリア34bに格納された部分生画像データをメモリ制御回路32を通して読み出し、読み出された部分生画像データに色分離,白バランス調整,YUV変換の一連の処理を施す。この結果、YUV形式に対応する高解像度の画像データが1/60秒毎に作成される。作成された画像データは、動画出力端M_OUTから出力され、メモリ制御回路32を通してSDRAM34のYUV画像エリア34c(図2参照)に書き込まれる。   The post-processing circuit 38 reads the partial raw image data stored in the filter image area 34b through the memory control circuit 32, and performs a series of processes of color separation, white balance adjustment, and YUV conversion on the read partial raw image data. . As a result, high-resolution image data corresponding to the YUV format is created every 1/60 seconds. The created image data is output from the moving image output terminal M_OUT and is written in the YUV image area 34c (see FIG. 2) of the SDRAM 34 through the memory control circuit 32.

画像データがYUV画像エリアに格納されると、記録命令がI/F44に与えられる。I/F44は、YUV画像エリア34cに格納された画像データをメモリ制御回路32を通して読み出し、読み出された画像データをファイル形式で記録媒体46に記録する。記録処理が完了すると、後処理回路38のズーム倍率が元に戻され、スルー画像処理が再開される。   When the image data is stored in the YUV image area, a recording command is given to the I / F 44. The I / F 44 reads the image data stored in the YUV image area 34c through the memory control circuit 32, and records the read image data on the recording medium 46 in a file format. When the recording process is completed, the zoom magnification of the post-processing circuit 38 is restored and the through image process is resumed.

前処理回路20は、図10に示すように構成される。撮像装置16から出力された生画像データは、ディジタルクランプ回路50によってディジタルクランプ処理を施され、さらに画素欠陥補正回路52によって画素欠陥補正処理を施される。画素欠陥が補正された生画像データはゲイン制御回路54によって増幅され、増幅された生画像データはメディアンフィルタ56に与えられる。メディアンフィルタ56は、図3(A)〜図3(C)に示す平面方向の周辺画素に注目し、生画像データからノイズを除去する。   The preprocessing circuit 20 is configured as shown in FIG. The raw image data output from the imaging device 16 is subjected to digital clamp processing by the digital clamp circuit 50 and further subjected to pixel defect correction processing by the pixel defect correction circuit 52. The raw image data in which the pixel defect is corrected is amplified by the gain control circuit 54, and the amplified raw image data is given to the median filter 56. The median filter 56 pays attention to the peripheral pixels in the planar direction shown in FIGS. 3A to 3C and removes noise from the raw image data.

Y生成回路62およびRGB生成回路64はそれぞれ、メディアンフィルタ56から出力された生画像データに基づいて、YデータおよびRGBデータを簡易的に生成する。メディアンフィルタ56から出力された生画像データはまた、SRAM60に一時的に格納され、コントローラ58によって発行される書き込み要求とともにメモリ制御回路32に向けて出力される。書き込み要求は、CPU28によって書き込み先として指定されたバンクへの書き込みを要求するものである。出力された生画像データは、メモリ制御回路32によって生画像エリア34aの指定バンクに書き込まれる。   Each of the Y generation circuit 62 and the RGB generation circuit 64 simply generates Y data and RGB data based on the raw image data output from the median filter 56. The raw image data output from the median filter 56 is also temporarily stored in the SRAM 60 and output to the memory control circuit 32 together with a write request issued by the controller 58. The write request is a request for writing to a bank designated as a write destination by the CPU 28. The output raw image data is written into a designated bank of the raw image area 34a by the memory control circuit 32.

動き検出回路22は、図11に示すように構成される。Yデータは、フレームメモリ66および分配器68に与えられる。フレームメモリ66は1フレームに相当する容量を各々が有する2つのバンクによって形成され、与えられたYデータはこの2つのバンクに交互に書き込まれる。   The motion detection circuit 22 is configured as shown in FIG. The Y data is given to the frame memory 66 and the distributor 68. The frame memory 66 is formed by two banks each having a capacity corresponding to one frame, and the supplied Y data is alternately written into the two banks.

分配器68は、動き検出エリアMD1,MD4およびMD7に属するYデータを分配器70に与え、動き検出エリアMD2,MD5およびMD8に属するYデータを分配器72に与え、そして動き検出エリアMD3,MD6およびMD9に属するYデータを分配器74に与える。   Distributor 68 gives Y data belonging to motion detection areas MD1, MD4 and MD7 to distributor 70, Y data belonging to motion detection areas MD2, MD5 and MD8 to distributor 72, and motion detection areas MD3, MD6. Y data belonging to MD9 is supplied to the distributor 74.

分配器70は、動き検出エリアMD1に属するYデータを部分動きベクトル検出回路76に与え、動き検出エリアMD4に属するYデータを部分動きベクトル検出回路82に与え、そして動き検出エリアMD7に属するYデータを部分動きベクトル検出回路88に与える。分配器72は、動き検出エリアMD2に属するYデータを部分動きベクトル検出回路78に与え、動き検出エリアMD5に属するYデータを部分動きベクトル検出回路84に与え、そして動き検出エリアMD8に属するYデータを部分動きベクトル検出回路90に与える。分配器74は、動き検出エリアMD3に属するYデータを部分動きベクトル検出回路80に与え、動き検出エリアMD6に属するYデータを部分動きベクトル検出回路86に与え、そして動き検出エリアMD9に属するYデータを部分動きベクトル検出回路92に与える。   The distributor 70 provides Y data belonging to the motion detection area MD1 to the partial motion vector detection circuit 76, provides Y data belonging to the motion detection area MD4 to the partial motion vector detection circuit 82, and Y data belonging to the motion detection area MD7. Is supplied to the partial motion vector detection circuit 88. The distributor 72 gives Y data belonging to the motion detection area MD2 to the partial motion vector detection circuit 78, gives Y data belonging to the motion detection area MD5 to the partial motion vector detection circuit 84, and Y data belonging to the motion detection area MD8. Is given to the partial motion vector detection circuit 90. The distributor 74 gives Y data belonging to the motion detection area MD3 to the partial motion vector detection circuit 80, gives Y data belonging to the motion detection area MD6 to the partial motion vector detection circuit 86, and Y data belonging to the motion detection area MD9. Is supplied to the partial motion vector detection circuit 92.

部分動きベクトル検出回路76〜92の各々は、分配器70,72または74から与えられたYデータをフレームメモリ66に格納された前フレームのYデータと比較して、注目する動き検出エリアにおける被写界の動きを表す部分動きベクトルを検出する。この結果、動き検出エリアMD1〜MD9にそれぞれ対応する9つの部分動きベクトルが得られる。合成動きベクトル生成回路94は、部分動きベクトル検出回路76〜92でそれぞれ検出された9つの部分動きベクトルを合成し、撮像面全体にわたる被写界の動きを表す全体動きベクトル生成する。   Each of the partial motion vector detection circuits 76 to 92 compares the Y data supplied from the distributor 70, 72 or 74 with the Y data of the previous frame stored in the frame memory 66, and compares the Y data supplied from the distributor 70, 72 or 74 with the target motion detection area. A partial motion vector representing the motion of the scene is detected. As a result, nine partial motion vectors respectively corresponding to the motion detection areas MD1 to MD9 are obtained. The combined motion vector generation circuit 94 combines the nine partial motion vectors detected by the partial motion vector detection circuits 76 to 92, and generates an entire motion vector that represents the motion of the scene over the entire imaging surface.

フィルタ回路36は、図12に示すように構成される。コントローラ96は、スルー画像処理を実行するとき、生画像エリア34aを読み出し先とし、かつレジスタRGST1を参照レジスタとする。これに対して、ワークエリア34eに退避された5フレームの生画像データを合成するとき、コントローラ96は、ワークエリア34eを読み出し先とし、かつレジスタRGST2を参照レジスタとする。   The filter circuit 36 is configured as shown in FIG. When executing the through image processing, the controller 96 sets the raw image area 34a as a reading destination and sets the register RGST1 as a reference register. On the other hand, when combining the five frames of raw image data saved in the work area 34e, the controller 96 sets the work area 34e as a read destination and the register RGST2 as a reference register.

コントローラ96はさらに、CPU28によって指定された読み出し開始バンクから始まる5バンクにそれぞれ割り当てられた5つの抽出エリアEXに属する5フレームの部分生画像データを並列的に読み出すべく、読み出し要求をメモリ制御回路32に向けて繰り返し発行する。各フレームの部分生画像データは指定の画素ブロックずつ読み出され、読み出された部分生画像データは、SRAM98を経てセレクタ100に与えられる。   The controller 96 further issues a read request to the memory control circuit 32 to read in parallel the five frames of partial raw image data belonging to the five extraction areas EX respectively assigned to the five banks starting from the read start bank designated by the CPU 28. Issuing repeatedly toward The partial raw image data of each frame is read for each designated pixel block, and the read partial raw image data is given to the selector 100 via the SRAM 98.

セレクタ100は、1フレーム目の部分生画像データをSRAM102に書き込み、2フレーム目の部分生画像データをSRAM104に書き込み、3フレーム目の部分生画像データをSRAM106に書き込み、4フレーム目の部分生画像データをSRAM108に書き込み、そして5フレーム目の部分生画像データをSRAM110に書き込む。   The selector 100 writes the partial raw image data of the first frame into the SRAM 102, writes the partial raw image data of the second frame into the SRAM 104, writes the partial raw image data of the third frame into the SRAM 106, and the partial raw image of the fourth frame. The data is written into the SRAM 108, and the partial raw image data of the fifth frame is written into the SRAM 110.

メディアンフィルタ112は、抽出エリアEXの左上座標を基準として共通する5画素の画素データをSRAM102〜110から読み出し、読み出された5画素の中から中央値を有する1画素を選択する。こうして選択された画素によって形成された部分生画像データは、SRAM116に一時的に格納され、コントローラ114によって発行される書き込み要求とともにメモリ制御回路32に向けて出力される。出力された部分生画像データは、メモリ制御回路32によってSDRAM34のフィルタ画像エリア34bに書き込まれる。   The median filter 112 reads out common pixel data of five pixels from the SRAMs 102 to 110 on the basis of the upper left coordinates of the extraction area EX, and selects one pixel having a median value from the read out five pixels. The partial raw image data formed by the pixels thus selected is temporarily stored in the SRAM 116 and output to the memory control circuit 32 together with a write request issued by the controller 114. The output partial raw image data is written into the filter image area 34 b of the SDRAM 34 by the memory control circuit 32.

後処理回路38は、図13に示すように構成される。コントローラ118は、SDRAM34のフィルタ画像エリア34bに格納された生画像データを読み出すべく、読み出し要求をメモリ制御回路32に向けて繰り返し発行する。これに応答して読み出された生画像データは、SRAM120を経て色分離回路122に与えられる。色分離回路122は、与えられた生画像データに基づいて各画素がR,GおよびBの全ての色情報を有するRGBデータを生成する。   The post-processing circuit 38 is configured as shown in FIG. The controller 118 repeatedly issues a read request to the memory control circuit 32 in order to read the raw image data stored in the filter image area 34 b of the SDRAM 34. The raw image data read in response to this is given to the color separation circuit 122 via the SRAM 120. The color separation circuit 122 generates RGB data in which each pixel has all the R, G, and B color information based on the given raw image data.

生成されたRGBデータは、白バランス調整回路124によって白バランス調整処理を施された後、YUV変換回路126によってYUV形式の画像データに変換される。変換された画像データは、ズーム回路128を経てSRAM134に書き込まれる。コントローラ132は、SRAM134に蓄積された画像データを書き込み要求とともにメモリ制御回路32に出力する。出力された画像データは、メモリ制御回路32によってSDRAM34のYUV画像エリア34cに書き込まれる。なお、ズーム回路128のズーム倍率は、ワークエリア34eに退避された5フレームの生画像データを合成するとき“1.0”に設定される。   The generated RGB data is subjected to white balance adjustment processing by the white balance adjustment circuit 124 and then converted to YUV format image data by the YUV conversion circuit 126. The converted image data is written into the SRAM 134 through the zoom circuit 128. The controller 132 outputs the image data stored in the SRAM 134 to the memory control circuit 32 together with a write request. The output image data is written into the YUV image area 34 c of the SDRAM 34 by the memory control circuit 32. The zoom magnification of the zoom circuit 128 is set to “1.0” when the five frames of raw image data saved in the work area 34e are combined.

通常モードの下でのシャッタボタン30sが全押しされると、その時点でYUV変換回路126から出力された1フレームの画像データが静止画抽出回路130によって抽出される。抽出された画像データは、SRAM138に一時的に格納され、コントローラ136によって発行される書き込み要求とともにメモリ制御回路32に向けて出力される。出力された画像データは、メモリ制御回路32によってSDRAM34の静止画像エリア34dに書き込まれる。   When the shutter button 30s under the normal mode is fully pressed, one frame of image data output from the YUV conversion circuit 126 at that time is extracted by the still image extraction circuit 130. The extracted image data is temporarily stored in the SRAM 138 and output to the memory control circuit 32 together with a write request issued by the controller 136. The output image data is written into the still image area 34 d of the SDRAM 34 by the memory control circuit 32.

CPU28は、図14に示すバンク制御タスク,図15に示す手振れ補正タスク,図16に示す周期設定タスク,図17〜図19に示す撮像タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ48に記憶される。   The CPU 28 executes in parallel a plurality of tasks including a bank control task shown in FIG. 14, a camera shake correction task shown in FIG. 15, a cycle setting task shown in FIG. 16, and an imaging task shown in FIGS. Note that control programs corresponding to these tasks are stored in the flash memory 48.

図14を参照して、ステップS1では、フィルタ回路36に設けられたコントローラ96の設定を初期化する。これによって、生画像エリア34aがアクセス先とされ、レジスタRGST1が参照レジスタとされる。ステップS3では、バンクを識別するための変数WおよびRを“1”に設定する。垂直同期信号Vsyncが発生するとステップS5でYESと判断し、ステップS7でバンクWを書き込み先のバンクとして前処理回路20のコントローラ58に設定する。設定が完了すると、ステップS9で変数Wをインクリメントする。ただし、変数Wは“1”〜“5”の間で循環し、“5”の次に“1”に更新される。   Referring to FIG. 14, in step S1, settings of controller 96 provided in filter circuit 36 are initialized. Thus, the raw image area 34a is set as an access destination, and the register RGST1 is set as a reference register. In step S3, variables W and R for identifying the bank are set to “1”. When the vertical synchronization signal Vsync is generated, YES is determined in step S5, and the bank W is set in the controller 58 of the preprocessing circuit 20 as a write destination bank in step S7. When the setting is completed, the variable W is incremented in step S9. However, the variable W circulates between “1” to “5” and is updated to “1” after “5”.

ステップS11ではバンク制御タスクが起動してから5フレーム期間が経過したか否かを判別し、NOであればそのままステップS5に戻る一方、YESであればステップS13〜S15の処理を経てステップS5に戻る。ステップS13ではバンクRを読出開始バンクとしてフィルタ回路36のコントローラ96に設定し、ステップS15では変数Rをインクリメントする。変数Rもまた“1”〜“5”の間で循環し、“5”の次に“1”に更新される。   In step S11, it is determined whether or not the five frame period has elapsed since the activation of the bank control task. If NO, the process directly returns to step S5. If YES, the process goes to steps S13 to S15 to step S5. Return. In step S13, the bank R is set as the reading start bank in the controller 96 of the filter circuit 36, and in step S15, the variable R is incremented. The variable R also circulates between “1” to “5”, and is updated to “1” after “5”.

図15を参照して、ステップS21では垂直同期信号Vsyncが発生したか否かを判別し、YESであればステップS23で動き検出回路22から全体動きベクトルを取り込む。ステップS25では現時点の撮像面の動きがパン/チルト動作に起因するものであるか否かを全体動きベクトルに基づいて判別し、YESであればそのままステップS29に進む一方、NOであれば現時点の撮像面の動きは手振れに起因するものとみなし、ステップS27の処理を経てステップS29に進む。   Referring to FIG. 15, in step S21, it is determined whether or not the vertical synchronization signal Vsync has been generated. If YES, the entire motion vector is fetched from the motion detection circuit 22 in step S23. In step S25, it is determined based on the entire motion vector whether or not the current movement of the imaging surface is due to the pan / tilt operation. If YES, the process proceeds directly to step S29. The movement of the imaging surface is considered to be caused by camera shake, and the process proceeds to step S29 through the process of step S27.

ステップS27では、ステップS23で取り込まれた全体動きベクトルに沿って抽出エリアEXを移動させる。ステップS29では現時点の抽出エリアの位置をレジスタRGST1のバンクWに対応するカラムに設定する。ステップS29の処理が完了すると、ステップS21に戻る。   In step S27, the extraction area EX is moved along the entire motion vector captured in step S23. In step S29, the current position of the extraction area is set in the column corresponding to the bank W of the register RGST1. When the process of step S29 is completed, the process returns to step S21.

図16を参照して、ステップS31では、特殊モードの下で参照される撮像インターバルを初期値に設定する。インターバル変更操作が行われるとステップS33でYESと判断し、ステップS35で撮像インターバルを所望の値に変更する。   Referring to FIG. 16, in step S31, an imaging interval referred to under the special mode is set to an initial value. When the interval changing operation is performed, YES is determined in step S33, and the imaging interval is changed to a desired value in step S35.

図17を参照して、ステップS41では、スルー画像処理を開始し、併せてバンク制御タスクおよび手振れ補正タスクを起動する。この結果、スルー画像がLCDモニタ42から出力される。ステップS43ではシャッタボタン30sが半押しされたか否かを判別し、判別結果がNOである限りステップS45のスルー画像用AE/AWB処理を繰り返す。この結果、スルー画像の明るさおよび白バランスが適度に調整される。シャッタボタン30sが半押しされると、ステップS47で記録用AE/AWB処理を実行し、ステップS49でAF処理を実行する。記録用AE/AWB処理によってスルー画像の明るさおよび白バランスが最適値に調整され、AF処理によってフォーカスレンズ12が合焦点に配置される。   Referring to FIG. 17, in step S41, through image processing is started, and at the same time, a bank control task and a camera shake correction task are activated. As a result, a through image is output from the LCD monitor 42. In step S43, it is determined whether or not the shutter button 30s is half-pressed, and as long as the determination result is NO, the through image AE / AWB process in step S45 is repeated. As a result, the brightness and white balance of the through image are appropriately adjusted. When the shutter button 30s is half-pressed, the recording AE / AWB process is executed in step S47, and the AF process is executed in step S49. The brightness and white balance of the through image are adjusted to optimum values by the recording AE / AWB process, and the focus lens 12 is placed at the focal point by the AF process.

ステップS51ではシャッタボタン30sが全押しされたか否かを判別し、ステップS53ではシャッタボタン30sの操作が解除されたか否かを判別する。ステップS51でYESであれば、ステップS55で現時点の静止画撮像モードを判別する。現時点の静止画撮像モードが通常モードであれば、ステップS55でYESと判断し、ステップS57で通常記録処理を実行する。一方、現時点の静止画撮像モードが特殊モードであれば、ステップS55でNOと判断し、ステップS59で合成記録処理を実行する。ステップS57またはS59の処理が完了すると、ステップS43に戻る。また、ステップS53でYESと判断されたときは、そのままステップS43に戻る。   In step S51, it is determined whether or not the shutter button 30s has been fully pressed. In step S53, it is determined whether or not the operation of the shutter button 30s has been released. If “YES” in the step S51, the current still image capturing mode is determined in a step S55. If the current still image capturing mode is the normal mode, “YES” is determined in the step S55, and the normal recording process is executed in a step S57. On the other hand, if the current still image capturing mode is the special mode, NO is determined in step S55, and the composite recording process is executed in step S59. When the process of step S57 or S59 is completed, the process returns to step S43. If YES is determined in the step S53, the process returns to the step S43 as it is.

ステップS59の合成記録処理は、図18〜図19に示すサブルーチンに従って実行される。ステップS61では、バンクを識別するための変数Nを“1”に設定する。次に、ステップS63で静止画取り込み処理を実行し、最新フレームの生画像データをワークエリア34eのバンクNに退避させる。ステップS65では、レジスタRGST2のバンクNに対応するカラムに現時点の抽出エリアEXの位置を設定する。ステップS67では、変数Nが“5”に達したか否かを判別する。ここでNOであればステップS69に進み、撮像インターバルの設定に基づく静止画取り込みタイミングの到来を待つ。静止画取り込みタイミングが到来すると、ステップS71で変数Nをインクリメントし、その後にステップS63に戻る。   The composite recording process in step S59 is executed according to the subroutine shown in FIGS. In step S61, a variable N for identifying a bank is set to “1”. Next, in step S63, still image capturing processing is executed, and the raw image data of the latest frame is saved in the bank N of the work area 34e. In step S65, the current position of the extraction area EX is set in the column corresponding to the bank N of the register RGST2. In step S67, it is determined whether or not the variable N has reached “5”. If “NO” here, the process proceeds to a step S69 to wait for the arrival of the still image capturing timing based on the setting of the imaging interval. When the still image capture timing arrives, the variable N is incremented in step S71, and then the process returns to step S63.

変数Nが“5”に達すると、5フレームの生画像データがワークエリア34eのバンク1〜5に確保されたとみなし、ステップS67からステップS73に進む。ステップS73では、スルー画像処理を停止し、併せてバンク制御タスクおよび手振れ補正タスクも停止する。ステップS75ではフィルタ回路36に設けられたコントローラ96の設定を変更する。これによって、ワークエリア34eが読み出し先とされ、レジスタRGST2が参照レジスタとされ、そしてバンク1が読出開始バンクとされる。ステップS77では後処理回路38に設けられたズーム回路128のズーム倍率を“1.0”に設定する。この結果、ワークエリア34eに格納された5フレームの生画像データに基づく1フレームの画像データがYUV画像エリア34c内に得られる。   When the variable N reaches “5”, it is considered that 5 frames of raw image data are secured in the banks 1 to 5 of the work area 34e, and the process proceeds from step S67 to step S73. In step S73, the through image processing is stopped, and the bank control task and the camera shake correction task are also stopped. In step S75, the setting of the controller 96 provided in the filter circuit 36 is changed. As a result, the work area 34e is set as a read destination, the register RGST2 is set as a reference register, and the bank 1 is set as a read start bank. In step S77, the zoom magnification of the zoom circuit 128 provided in the post-processing circuit 38 is set to “1.0”. As a result, one frame of image data based on the five frames of raw image data stored in the work area 34e is obtained in the YUV image area 34c.

このような画像合成処理が完了すると、ステップS79でYESと判断し、ステップS81で記録処理を実行する。作成された画像データは、ファイル形式で記録媒体46に記録される。記録処理が完了すると、ステップS83で後処理回路38の設定つまりズーム倍率を元に戻す。ステップS85では、スルー画像処理を再開し、併せてバンク制御タスクおよび手振れ補正タスクを再起動する。ステップS85の処理が完了すると、上階層のルーチンに復帰する。   When such image composition processing is completed, YES is determined in step S79, and recording processing is executed in step S81. The created image data is recorded on the recording medium 46 in a file format. When the recording process is completed, the setting of the post-processing circuit 38, that is, the zoom magnification is returned to the original in step S83. In step S85, the through image processing is restarted, and the bank control task and the camera shake correction task are restarted. When the process of step S85 is completed, the process returns to the upper-level routine.

以上の説明から分かるように、イメージセンサ12は、被写界の光学像が照射される撮像面を有し、被写界像を指定周期(=1/60秒)で生成する。CPU28は、イメージセンサ12によって生成された複数の被写界像の中からNフレーム(N=5)の被写界像を選択し(S13)、かつNフレームの被写界像の選択態様を指定周期で変更する(S15)。フィルタ回路36は、こうして選択されたNフレームの被写界像を合成する。合成された被写界像に基づく動画像は、LCDモニタ42から出力される。CPU28は、フィルタ回路36による画像合成位置を光軸に直交する方向における撮像面の動きを参照して調整する(S27, S29)。   As can be seen from the above description, the image sensor 12 has an imaging surface on which an optical image of the object scene is irradiated, and generates the object scene image at a specified period (= 1/60 second). The CPU 28 selects an N-frame (N = 5) scene image from a plurality of scene images generated by the image sensor 12 (S13), and selects an N-frame scene image selection mode. Change at specified cycle (S15). The filter circuit 36 synthesizes the N-frame object scene images thus selected. A moving image based on the combined object scene image is output from the LCD monitor 42. The CPU 28 adjusts the image composition position by the filter circuit 36 with reference to the movement of the imaging surface in the direction orthogonal to the optical axis (S27, S29).

このように、イメージセンサ12は指定周期で被写界像を生成し、CPU28はNフレームの被写界像の選択態様を指定周期で変更する。動画像を形成する各フレームの被写界像は、こうして選択されたNフレームの被写界像の合成によって得られる。ここで、Nフレームの被写界像の合成位置は、光軸に直交する方向における撮像面の動きを参照して調整される。このため、撮像面に手振れが生じると、固定パターンノイズの相対位置がNフレームの被写界像の間で相違することとなる。この結果、固定パターンノイズを画像合成の際に(つまり簡便に)除去することができる。   In this way, the image sensor 12 generates a scene image at a specified cycle, and the CPU 28 changes the selection mode of the N frame scene image at the specified cycle. The scene image of each frame forming the moving image is obtained by synthesizing the N scene images thus selected. Here, the composite position of the N frame object scene image is adjusted with reference to the movement of the imaging surface in the direction orthogonal to the optical axis. For this reason, when camera shake occurs on the imaging surface, the relative position of the fixed pattern noise differs among the N-frame object scene images. As a result, the fixed pattern noise can be removed during image synthesis (that is, simply).

この実施例を別の視点で眺めると、イメージセンサ12は、被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する。フィルタ回路36は、特殊モードの下でのシャッタボタン30sが全押しされたとき、指定周期(指定の撮像インターバル)でイメージセンサ12によって生成された複数の被写界像を合成する。指定周期の長さは、変インターバル更操作に応答してCPU28によって変更される(S35)。光軸に直交する方向における撮像面の動きは、フィルタ回路36によって注目される複数の被写界像の各々に対応して、CPU28によって検出される(S23, S27, S65)。フィルタ回路36による画像合成位置は、検出された動きを参照して調整される(S75)。   When this embodiment is viewed from another viewpoint, the image sensor 12 has an imaging surface on which an optical image of the object scene is irradiated, and periodically generates the object scene image. When the shutter button 30s under the special mode is fully pressed, the filter circuit 36 synthesizes a plurality of object scene images generated by the image sensor 12 at a specified period (specified imaging interval). The length of the designated cycle is changed by the CPU 28 in response to the change interval update operation (S35). The movement of the imaging surface in the direction orthogonal to the optical axis is detected by the CPU 28 corresponding to each of the plurality of object scene images noted by the filter circuit 36 (S23, S27, S65). The image composition position by the filter circuit 36 is adjusted with reference to the detected movement (S75).

インターバル変更操作に応答して指定周期の長さを変更することで、動体の動きが遅いほど指定周期を延長することができ、これによって合成画像から動体を確実に排除することができる。また、光軸に直交する方向における撮像面の振れを考慮して画像合成位置を調整することで、指定周期の延長に起因する撮像面の振れが画像合成に与える影響を軽減することができる。この結果、動体が排除された合成画像の品質の改善が図られる。   By changing the length of the designated cycle in response to the interval change operation, the designated cycle can be extended as the moving body moves slower, and thus the moving body can be reliably excluded from the synthesized image. Further, by adjusting the image composition position in consideration of the shake of the imaging surface in the direction orthogonal to the optical axis, it is possible to reduce the influence of the shake of the imaging surface due to the extension of the designated period on the image composition. As a result, it is possible to improve the quality of the synthesized image from which moving objects are excluded.

なお、この実施例では、生画像データに対して時間軸方向のメディアンフィルタ処理を施すようにしているが、YUV形式の画像データに時間軸方向のメディアンフィルタ処理を施すようにしてもよい。   In this embodiment, the median filter process in the time axis direction is performed on the raw image data. However, the median filter process in the time axis direction may be performed on the image data in the YUV format.

また、この実施例では、生画像データに含まれるノイズを除去するためにメディアンフィルタ56および112を前処理回路20およびフィルタ回路36にそれぞれ設けるようにしているが、メディアンフィルタ56および112の一方または両方をランクフィルタに置き換えるようにしてもよい。   In this embodiment, the median filters 56 and 112 are provided in the preprocessing circuit 20 and the filter circuit 36, respectively, in order to remove noise contained in the raw image data. Both may be replaced with rank filters.

この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図1実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。It is an illustration figure which shows an example of the mapping state of SDRAM applied to FIG. 1 Example. (A)はRデータに対するメディアンフィルタ処理の一例を示す図解図であり、(B)はGデータに対するメディアンフィルタ処理の一例を示す図解図であり、(C)はBデータに対するメディアンフィルタ処理の一例を示す図解図である。(A) is an illustrative view showing an example of a median filter process for R data, (B) is an illustrative view showing an example of a median filter process for G data, and (C) is an example of a median filter process for B data. FIG. 図1実施例に適用されるフィルタ回路の動作の一部を示す図解図である。It is an illustration figure which shows a part of operation | movement of the filter circuit applied to the FIG. 1 Example. 撮像面における動き検出エリアおよび抽出エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the motion detection area and extraction area in an imaging surface. 図1に示すフィルタ回路に適用されるレジスタの構成の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of a configuration of a register applied to the filter circuit shown in FIG. 1. 図1に示すフィルタ回路に適用される他のレジスタの構成の一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a configuration of another register applied to the filter circuit shown in FIG. 1. (A)は撮影画像の一例を示す図解図であり、(B)は撮影画像の他の一例を示す図解図であり、(C)は撮影画像のその他の一例を示す図解図であり、(D)は撮影画像のさらにその他の一例を示す図解図であり、(E)は撮影画像の他の一例を示す図解図であり、そして(F)は合成画像の一例を示す図解図である。(A) is an illustrative view showing an example of a photographed image, (B) is an illustrative view showing another example of the photographed image, (C) is an illustrative view showing another example of the photographed image, ( (D) is an illustrative view showing still another example of the photographed image, (E) is an illustrative view showing another example of the photographed image, and (F) is an illustrative view showing an example of the composite image. (A)は撮影画像の一例を示す図解図であり、(B)は撮影画像の他の一例を示す図解図であり、(C)は撮影画像のその他の一例を示す図解図であり、(D)は撮影画像のさらにその他の一例を示す図解図であり、(E)は撮影画像の他の一例を示す図解図であり、そして(F)は合成画像の一例を示す図解図である。(A) is an illustrative view showing an example of a photographed image, (B) is an illustrative view showing another example of the photographed image, (C) is an illustrative view showing another example of the photographed image, ( (D) is an illustrative view showing still another example of the photographed image, (E) is an illustrative view showing another example of the photographed image, and (F) is an illustrative view showing an example of the composite image. 図1実施例に適用される前処理回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the pre-processing circuit applied to FIG. 1 Example. 図1実施例に適用される動き検出回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the motion detection circuit applied to the FIG. 1 Example. 図1実施例に適用されるフィルタ回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the filter circuit applied to the FIG. 1 Example. 図1実施例に適用される後処理回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the post-processing circuit applied to FIG. 1 Example. 図1実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 12 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 1. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example.

符号の説明Explanation of symbols

10 …ディジタルカメラ
16 …イメージセンサ
20 …前処理回路
22 …動き検出回路
28 …CPU
36 …フィルタ回路
38 …後処理回路
44 …I/F
46 …記録媒体
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Image sensor 20 ... Pre-processing circuit 22 ... Motion detection circuit 28 ... CPU
36 ... Filter circuit 38 ... Post-processing circuit 44 ... I / F
46 Recording medium

Claims (12)

被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する撮像手段、
前記撮像手段によって指定周期毎に生成された複数の被写界像を合成する合成手段、
光軸に直交する方向における前記撮像面の動きを前記合成手段によって注目される複数の被写界像の各々に対応して検出する検出手段、および
前記合成手段による画像合成位置を前記検出手段によって検出された動きを参照して調整する調整手段を備え
前記合成手段は、前記複数の被写界像に共通する複数の画素を選択し、該複数の画素のうち既定番目の大きさの画素値を有する画素を出力する、電子カメラ。
An imaging unit having an imaging surface on which an optical image of the object scene is irradiated, and periodically generating the object scene image;
Synthesizing means for synthesizing a plurality of object scene images generated for each specified period by the imaging means;
Detection means for detecting movement of the imaging surface in a direction orthogonal to the optical axis corresponding to each of a plurality of object scene images noted by the combining means, and an image combining position by the combining means by the detecting means Adjusting means for adjusting by referring to the detected movement ;
The electronic camera is configured to select a plurality of pixels common to the plurality of scene images and output a pixel having a pixel value of a predetermined size among the plurality of pixels .
前記合成手段は、前記複数の被写界像の各々から指定エリアに属する部分被写界像を抽出する抽出手段、および前記抽出手段によって抽出された複数の部分被写界像を合成する部分被写界像合成手段を含み、
前記複数の画素は、前記部分被写界像に含まれる画素である請求項1記載の電子カメラ。
The synthesizing means includes an extracting means for extracting a partial scene image belonging to a specified area from each of the plurality of scene images, and a partial object for synthesizing the plurality of partial scene images extracted by the extracting means. Including field image composition means,
The electronic camera according to claim 1, wherein the plurality of pixels are pixels included in the partial scene image.
前記指定周期の長さを変更指示に応答して変更する変更手段を含む請求項1または2記載の電子カメラ。3. The electronic camera according to claim 1, further comprising changing means for changing the length of the designated cycle in response to a change instruction. 前記合成手段はメディアンフィルタまたはランクフィルタを含む、請求項1乃至3記載の電子カメラ。4. The electronic camera according to claim 1, wherein the synthesizing unit includes a median filter or a rank filter. 前記調整手段は前記撮像面の動きが補償されるように前記指定エリアの位置を調整する、請求項1乃至4記載の電子カメラ。The electronic camera according to claim 1, wherein the adjustment unit adjusts the position of the designated area so that the movement of the imaging surface is compensated. 前記撮像手段によって生成された被写界像に基づく動画像を出力する出力手段、およびOutput means for outputting a moving image based on the object scene image generated by the imaging means; and
前記合成手段によって注目される複数の被写界像が生成された後に前記合成手段を起動する起動手段をさらに備える、請求項1乃至5のいずれかに記載の電子カメラ。The electronic camera according to claim 1, further comprising an activation unit that activates the synthesizing unit after a plurality of object scene images of interest are generated by the synthesizing unit.
被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する撮像手段、および前記撮像手段によって指定周期毎に生成された複数の被写界像を合成する合成手段を備える電子カメラのプロセッサに
軸に直交する方向における前記撮像面の動きを前記合成手段によって注目される複数の被写界像の各々に対応して検出する検出ステップ
記合成手段による画像合成位置を前記検出ステップによって検出された動きを参照して調整する調整ステップ、
前記複数の被写界像に共通する複数の画素を選択する選択ステップ、および
前記複数の画素のうち既定番目の大きさの画素値を有する画素を出力する出力ステップ、を実行させるための、撮像制御プログラム。
An imaging unit having an imaging surface on which an optical image of the object scene is irradiated, and periodically generating the object scene image, and a plurality of object scene images generated for each specified period by the imaging unit are synthesized In the processor of the electronic camera provided with the synthesis means ,
A detection step of detecting movement of the imaging surface in a direction orthogonal to the optical axis corresponding to each of a plurality of object scene images noted by the combining means ;
Adjusting step of adjusting an image synthesis position according to prior Symbol combining means with reference to the motion detected by said detection step,
A selection step of selecting a plurality of pixels common to the plurality of scene images; and
An imaging control program for executing an output step of outputting a pixel having a pixel value of a predetermined size among the plurality of pixels .
被写界の光学像が照射される撮像面を有し、被写界像を周期的に生成する撮像手段、および前記撮像手段によって指定周期毎に生成された複数の被写界像を合成する合成手段を備える電子カメラによって実行される撮像制御方法であって
軸に直交する方向における前記撮像面の動きを前記合成手段によって注目される複数の被写界像の各々に対応して検出する検出ステップ
記合成手段による画像合成位置を前記検出ステップによって検出された動きを参照して調整する調整ステップ、
前記複数の被写界像に共通する複数の画素を選択する選択ステップ、および
前記複数の画素のうち既定番目の大きさの画素値を有する画素を出力する出力ステップ、を備える、撮像制御方法。
An imaging unit having an imaging surface on which an optical image of the object scene is irradiated, and periodically generating the object scene image, and a plurality of object scene images generated for each specified period by the imaging unit are synthesized An imaging control method executed by an electronic camera provided with a synthesis means ,
A detection step of detecting movement of the imaging surface in a direction orthogonal to the optical axis corresponding to each of a plurality of object scene images noted by the combining means ;
Adjusting step of adjusting an image synthesis position according to prior Symbol combining means with reference to the motion detected by said detection step,
A selection step of selecting a plurality of pixels common to the plurality of scene images; and
An imaging control method comprising: an output step of outputting a pixel having a pixel value of a predetermined size among the plurality of pixels .
被写界の光学像が照射される撮像面を有し、被写界像を指定周期で生成する撮像手段、
前記撮像手段によって生成された複数の被写界像の中からN個(N:2以上の整数)の被写界像を選択する選択手段、
前記選択手段によって選択されたN個の被写界像を合成する合成手段、
前記合成手段によって作成された被写界像に基づく動画像を出力する出力手段、および
前記合成手段による画像合成位置を光軸に直交する方向における前記撮像面の動きを参照して調整する調整手段を備え
前記合成手段は、前記N個の被写界像に共通する複数の画素を選択し、該複数の画素のうち既定番目の大きさの画素値を有する画素を出力する、電子カメラ。
An imaging means having an imaging surface on which an optical image of the object scene is irradiated, and generating an object scene image at a specified period;
Selecting means for selecting N (N: integer greater than or equal to 2) object scene images from a plurality of object scene images generated by the imaging means;
Combining means for combining N object scene images selected by the selecting means;
Output means for outputting a moving image based on the object scene image created by the synthesizing means, and adjusting means for adjusting the image synthesis position by the synthesizing means with reference to the movement of the imaging surface in the direction orthogonal to the optical axis equipped with a,
The synthesizing unit is an electronic camera that selects a plurality of pixels common to the N object scene images and outputs a pixel having a predetermined pixel value among the plurality of pixels .
前記合成手段は、前記N個の被写界像の各々から指定エリアに属する部分被写界像を抽出する抽出手段、および前記抽出手段によって抽出されたN個の部分被写界像を合成する部分被写界像合成手段を含み、
前記調整手段は前記撮像面の動きが補償されるように前記指定エリアの位置を調整する、請求項9記載の電子カメラ。
The synthesizing unit extracts an extraction unit that extracts a partial scene image belonging to a specified area from each of the N object scene images, and combines the N partial scene images extracted by the extraction unit. Including partial scene image synthesis means,
The electronic camera according to claim 9, wherein the adjustment unit adjusts the position of the designated area so that the movement of the imaging surface is compensated.
前記部分被写界像合成手段は、前記N個の部分被写界像に共通する複数の画素を選択する画素選択手段、および前記画素選択手段によって選択された複数の画素に基づいて1つの画素を出力する画素出力手段を含む、請求項10記載の電子カメラ。   The partial object scene image synthesizing means includes a pixel selecting means for selecting a plurality of pixels common to the N partial object scene images, and one pixel based on the plurality of pixels selected by the pixel selecting means. The electronic camera according to claim 10, further comprising pixel output means for outputting 前記選択手段の選択態様を前記指定周期で変更する変更手段を含む、請求項11記載の電子カメラ。 The electronic camera according to claim 11 , further comprising a changing unit that changes a selection mode of the selection unit at the designated cycle .
JP2008057964A 2008-03-07 2008-03-07 Electronic camera Expired - Fee Related JP4989524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008057964A JP4989524B2 (en) 2008-03-07 2008-03-07 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008057964A JP4989524B2 (en) 2008-03-07 2008-03-07 Electronic camera

Publications (2)

Publication Number Publication Date
JP2009218697A JP2009218697A (en) 2009-09-24
JP4989524B2 true JP4989524B2 (en) 2012-08-01

Family

ID=41190174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008057964A Expired - Fee Related JP4989524B2 (en) 2008-03-07 2008-03-07 Electronic camera

Country Status (1)

Country Link
JP (1) JP4989524B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004032592A (en) * 2002-06-28 2004-01-29 Sanyo Electric Co Ltd Image composite circuit and imaging apparatus provided with the same
JP4357471B2 (en) * 2005-09-30 2009-11-04 三洋電機株式会社 Image acquisition apparatus and program

Also Published As

Publication number Publication date
JP2009218697A (en) 2009-09-24

Similar Documents

Publication Publication Date Title
JP4974812B2 (en) Electronic camera
JP4286292B2 (en) Electronic camera
US20090213231A1 (en) Video camera
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP2007135133A (en) Imaging apparatus
JP5302058B2 (en) Imaging apparatus and imaging method
JP2011182151A (en) Image composing apparatus
JP7142507B2 (en) Image processing device, image processing method, and imaging device
JP5207955B2 (en) Electronic camera
JP2003179798A (en) Digital camera
JP4792929B2 (en) Digital camera
JP4952574B2 (en) Image composition apparatus and program
JP5191407B2 (en) Image processing device
JP5030822B2 (en) Electronic camera
JP4989524B2 (en) Electronic camera
JP5910613B2 (en) Image composition apparatus and program
JP2009200981A (en) Video camera
JP5142807B2 (en) Imaging apparatus and control method thereof
JP2006246014A (en) Digital camera and image processing method thereof
JP2007124521A (en) Image processing apparatus
JP2009105681A (en) Image processing apparatus and image processing program
JP2022188690A (en) Imaging device, image processing device, image processing method, and storage medium
JP2007043279A (en) Electronic camera
JP2011176458A (en) Digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120427

R151 Written notification of patent or utility model registration

Ref document number: 4989524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees