JP2015154354A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2015154354A
JP2015154354A JP2014027812A JP2014027812A JP2015154354A JP 2015154354 A JP2015154354 A JP 2015154354A JP 2014027812 A JP2014027812 A JP 2014027812A JP 2014027812 A JP2014027812 A JP 2014027812A JP 2015154354 A JP2015154354 A JP 2015154354A
Authority
JP
Japan
Prior art keywords
frame
imaging
image
image signal
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014027812A
Other languages
Japanese (ja)
Inventor
佳朗 阿波谷
Yoshiaki Awaya
佳朗 阿波谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014027812A priority Critical patent/JP2015154354A/en
Publication of JP2015154354A publication Critical patent/JP2015154354A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To compose a moving image in real time without a high-speed processing circuit.SOLUTION: An imaging apparatus comprises: imaging means; processing means that composes a plurality of frames from moving image signals outputted by the imaging means, and generates an image signal in one frame; recording means that records the moving image signal including the image signal generated by the processing means into recording media; and control means that controls the imaging means. The control means controls the imaging means so that the second frame with the number of pixels smaller than the first frame into the first frame in a predetermined period. The processing means detects a positional deviation amount between two images of the second frame from the moving signal outputted from the imaging means, and generates the image signal of one frame by composing a plurality of first frame images on the basis of the detected positional deviation amount.

Description

本発明は撮像装置に関する。   The present invention relates to an imaging apparatus.

近年、複数枚の画像から一枚の画像を生成し、手ぶれ補正や、ダイナミックレンジの拡大、S/Nを改善するといった提案がされている(例えば、特許文献1参照)。静止画の場合は、撮影後の後処理において、時間をかけて処理してもよいため、ソフト処理での後処理による実現手段が多く提案されている。動画についても、同様に、複数フレームから1フレームを生成することが考えられる。   In recent years, proposals have been made to generate a single image from a plurality of images to correct camera shake, expand a dynamic range, and improve S / N (see, for example, Patent Document 1). In the case of a still image, post-shooting post-processing may be processed over time. Therefore, many implementation means using post-processing using software processing have been proposed. Similarly, for a moving image, it is conceivable to generate one frame from a plurality of frames.

特開2009−111773JP2009-111173A

しかしながら、一旦動画を記録した後、再生時に合成する構成とした場合、大量のデータを記録しておく必要があるため、そのままでは記録容量の増加につながってしまう。そのため、例えばデジタルカメラなどの撮像装置において、動画の撮影時に画像合成を行って記録することで、記録されるデータの容量の増加を避けることが可能となる。   However, when a moving image is once recorded and then combined at the time of reproduction, it is necessary to record a large amount of data, and as a result, the recording capacity increases. Therefore, for example, in an imaging device such as a digital camera, it is possible to avoid an increase in the capacity of recorded data by performing image composition and recording when shooting a moving image.

しかし、記録時の画像合成を行う場合、大量のデータをリアルタイムに処理する必要があり、処理回路が必要となる。そのため、回路規模の増大による装置の大型化、或いは、消費電力の増加といった問題がある。   However, when performing image synthesis at the time of recording, it is necessary to process a large amount of data in real time, and a processing circuit is required. For this reason, there are problems such as an increase in the size of the apparatus due to an increase in circuit scale or an increase in power consumption.

本発明はこのような課題を解決し、高速な処理回路を必要とすることなく、リアルタイムに動画の画像合成を行うことが可能な装置を提供することを目的とする。   An object of the present invention is to solve such problems and to provide an apparatus capable of synthesizing a moving image in real time without requiring a high-speed processing circuit.

本発明の撮像装置は、撮像手段と、前記撮像手段から出力された動画信号のうちの、複数のフレームを合成し、1フレームの画像信号を生成する処理手段と、前記処理手段により生成された画像信号を含む動画信号を記録媒体に記録する記録手段と、前記撮像手段を制御する制御手段とを備え、前記制御手段は、第1のフレームの間に、所定の周期で前記第1のフレームよりも画素数が少ない第2のフレームを出力するように、前記撮像手段を制御し、前記処理手段は、前記撮像手段から出力された動画信号のうちの、二つの前記第2のフレームの画像の間の位置ずれ量を検出し、前記検出された位置ずれ量に基づいて、複数の前記第1のフレームの画像を合成することにより、1フレームの画像信号を生成することを特徴とする。   The imaging apparatus of the present invention is generated by an imaging unit, a processing unit that synthesizes a plurality of frames of the moving image signal output from the imaging unit, and generates an image signal of one frame. A recording unit configured to record a moving image signal including an image signal on a recording medium; and a control unit configured to control the imaging unit, wherein the control unit includes the first frame at a predetermined period between the first frames. The imaging means is controlled to output a second frame having a smaller number of pixels than the two, and the processing means is an image of two of the second frames of the moving image signal output from the imaging means. And a plurality of images of the first frame are synthesized based on the detected amount of positional deviation to generate an image signal of one frame.

本発明によれば、高速な処理回路を必要とすることなく、リアルタイムに動画の画像合成を行うことが可能となる。   According to the present invention, it is possible to synthesize a moving image in real time without requiring a high-speed processing circuit.

本発明の実施形態における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in embodiment of this invention. 画像合成処理を説明する図である。It is a figure explaining an image composition process. 画像合成処理を説明する図である。It is a figure explaining an image composition process. メインフレームと補助フレームの説明図である。It is explanatory drawing of a main frame and an auxiliary | assistant frame. メインフレームと補助フレームの説明図である。It is explanatory drawing of a main frame and an auxiliary | assistant frame.

以下、図面を参照して、本発明の好ましい実施例を詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の実施形態に係る撮像装置の構成を示す図である。図1において、制御部101はCPU、メモリ等を含み、撮像装置の各部を制御する。操作部107は、各種のスイッチを備え、ユーザが操作部107を操作することにより、撮像装置に対する指示を行うことができる。制御部101は、操作部107からの操作指示に応じて各部を制御する。撮像部102は、レンズや撮像素子、信号処理回路などを有する。本実施形態では、撮像素子としてCMOSセンサを用いる。また、撮像部102は、被写体像を撮影し、動画信号を出力する。撮像部102は、例えば、1画面(1フレーム)が横1920画素×縦1080画素で、240フレーム/秒(fps)の動画信号を出力することが可能である。   FIG. 1 is a diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention. In FIG. 1, a control unit 101 includes a CPU, a memory, and the like, and controls each unit of the imaging apparatus. The operation unit 107 includes various switches, and the user can give an instruction to the imaging apparatus by operating the operation unit 107. The control unit 101 controls each unit in response to an operation instruction from the operation unit 107. The imaging unit 102 includes a lens, an imaging device, a signal processing circuit, and the like. In this embodiment, a CMOS sensor is used as the image sensor. The imaging unit 102 captures a subject image and outputs a moving image signal. The imaging unit 102 can output a video signal of 240 frames / second (fps), for example, one screen (one frame) is horizontal 1920 pixels × vertical 1080 pixels.

撮像部102からの動画信号は、バス109を介してメモリ103に記憶される。画像合成部104は、メモリ103に記憶された複数画面の画像信号を合成し、1フレームの画像信号を生成する。そのため、画像合成部104は、メモリ103から必要数の画像信号を読み出し、読み出した複数のフレームから、各フレームの画像の間の位置ずれを検出する。そして、検出したずれ量に基づいて、対象となるフレーム画像に対し、画像合成を行い、その結果をメモリ103に記録する。   The moving image signal from the imaging unit 102 is stored in the memory 103 via the bus 109. The image synthesizing unit 104 synthesizes image signals of a plurality of screens stored in the memory 103 to generate one frame of image signal. Therefore, the image composition unit 104 reads a necessary number of image signals from the memory 103, and detects a positional shift between the images of each frame from the plurality of read frames. Then, based on the detected shift amount, image synthesis is performed on the target frame image, and the result is recorded in the memory 103.

記録再生部105は、メモリ103から、合成された画像信号を含む動画信号を読み出し、符号化圧縮処理などを施した後、記録媒体108に記録する。記録媒体108として、例えば、フラッシュメモリカード等を用いる。また、記録再生部105は、記録媒体108に記録された動画信号を読み出し、復号化処理などの信号処理を施し、再生データを出力する。出力部106は、画像合成部104により合成された画像、或いは、再生された画像を外部に出力する。   The recording / playback unit 105 reads out a moving image signal including the synthesized image signal from the memory 103, performs encoding / compression processing, and the like, and then records it on the recording medium 108. For example, a flash memory card or the like is used as the recording medium 108. The recording / playback unit 105 reads the moving image signal recorded on the recording medium 108, performs signal processing such as decoding processing, and outputs playback data. The output unit 106 outputs the image synthesized by the image synthesis unit 104 or the reproduced image to the outside.

次に、動画信号の記録時における、画像合成処理を説明する。図2は、撮像部102から出力された複数フレームの動画信号の各フレームと、動画信号を用いた画像合成処理を説明するための図である。本実施形態では、記録媒体108に記録される動画信号のフレームレートを60fpsとする。また、撮像部102が出力する動画信号のフレームレートは、前述のように240fpsである。撮像部102は、1/120秒間隔で、合成元フレーム(メインフレーム(第1のフレーム))を撮像し、出力する。メインフレームとは図2中のメインフレーム1、2、3、4がそれにあたる。また、メインフレームの画素数は、横1920画素×縦1080画素である。   Next, an image composition process when recording a moving image signal will be described. FIG. 2 is a diagram for explaining each frame of a plurality of frames of moving image signals output from the imaging unit 102 and an image combining process using the moving image signals. In this embodiment, the frame rate of the moving image signal recorded on the recording medium 108 is 60 fps. In addition, the frame rate of the moving image signal output from the imaging unit 102 is 240 fps as described above. The imaging unit 102 images and outputs a synthesis source frame (main frame (first frame)) at an interval of 1/120 seconds. The main frame corresponds to main frames 1, 2, 3, and 4 in FIG. Further, the number of pixels of the main frame is 1920 horizontal pixels × 1080 vertical pixels.

一方、図2の補助フレーム(第2のフレーム)1、2、3、4はメインフレーム1、2、3、4のそれぞれが撮像される間に、撮像部102から出力されるフレームである。例えば図2の場合、メインフレームと補助フレームの時間間隔は1/240秒である。制御部101は、メインフレームの撮影時とは別に、補助フレームのシャッタ速度を制御する。ここで、シャッタ制御とは、例えばCMOSセンサの電子シャッタ制御のことを指す。また、補助フレームについては、手ぶれの少ない画像を得るため、メインフレームよりも、シャッタ速度が比較的、高速に設定される。   On the other hand, auxiliary frames (second frames) 1, 2, 3, and 4 in FIG. 2 are frames output from the imaging unit 102 while each of the main frames 1, 2, 3, and 4 is imaged. For example, in the case of FIG. 2, the time interval between the main frame and the auxiliary frame is 1/240 seconds. The control unit 101 controls the shutter speed of the auxiliary frame separately from the main frame shooting. Here, shutter control refers to electronic shutter control of a CMOS sensor, for example. For the auxiliary frame, the shutter speed is set relatively higher than that of the main frame in order to obtain an image with less camera shake.

本実施形態では、この補助フレームを用いて、画像合成のための位置ずれ量を検出する。そして、検出されたずれ量に基づき、メインフレームの画像合成の際の位置ずれの補正値を決定する。フレームの画像の位置ずれ検出の手段は公知の方法を用いる。例えば、ブロックマッチング法や、テンプレートマッチング法を用いる。例えば、フレーム画像内のある一部の限定された領域や、特徴点に着目し、フレーム間でその特徴点のベクトルずれ量を求め、そのずれ量を用いて画像合成する際の位置ずれ補正を行う。或いは、ある限定された一部の領域ではなく、画像全体に渡り、フレーム間の位置ずれ誤差情報が最小となるように、フレーム間の相関が高くなるように、位置ずれ情報を求める。更に、両者を用いる場合もある。   In the present embodiment, the amount of displacement for image composition is detected using this auxiliary frame. Then, based on the detected shift amount, a correction value for the position shift at the time of image composition of the main frame is determined. A known method is used as means for detecting the positional deviation of the frame image. For example, a block matching method or a template matching method is used. For example, paying attention to a certain limited area or feature point in the frame image, calculating the vector deviation amount of the feature point between frames, and correcting the displacement when synthesizing the image using the deviation amount Do. Alternatively, the misregistration information is obtained so that the correlation between the frames is high so that the misregistration error information between the frames is minimized over the entire image instead of a certain limited area. Furthermore, both may be used.

このように、補助フレームを用いて検出したずれ量に基づき、メインフレームどうし画像合成を行う。図2の場合、補助フレーム1、2により求めた位置ずれ情報((1)位置合わせパラメータ検索)にもとづき、メインフレーム1、2の位置合わせ((2)位置合わせ情報)を行う。そして、画像合成処理((3)複数枚合成処理)を行うことでメインフレーム1、2から合成フレーム1を生成する。また、この合成フレーム1が記録媒体108に記録される。   In this way, image synthesis is performed between the main frames based on the shift amount detected using the auxiliary frame. In the case of FIG. 2, alignment of the main frames 1 and 2 ((2) alignment information) is performed based on the positional deviation information obtained by the auxiliary frames 1 and 2 ((1) alignment parameter search). Then, the composite frame 1 is generated from the main frames 1 and 2 by performing an image composition process ((3) a plurality of sheets composition process). Further, the composite frame 1 is recorded on the recording medium 108.

制御部101は、メインフレームについては、適正露出となるように、被写体光の蓄積時間を制御する。一方、補助フレームは、記録媒体108には記録されず、画像合成時に必要となる位置ずれ情報の検出のためだけに利用される。そのため、制御部101は、メインフレームの露出量とは独立に、位置ずれ情報を検出するのに適した蓄積時間、例えば手ぶれによる画像ぶれを減らすのに必要なシャッタ時間で撮像されるように、撮像部102を制御する。   The control unit 101 controls the accumulation time of the subject light so that the main frame has proper exposure. On the other hand, the auxiliary frame is not recorded on the recording medium 108 but is used only for detecting misregistration information necessary for image composition. For this reason, the control unit 101 captures images with an accumulation time suitable for detecting misregistration information, for example, with a shutter time necessary to reduce image blur due to camera shake, independently of the exposure amount of the main frame. The imaging unit 102 is controlled.

すなわち、メインフレームと補助フレームとで、それぞれ撮像時のシャッタ速度を変える。これにより、記録される画像(メインフレーム)は適正露出で撮像し、合成条件(位置ずれ情報)を算出するための画像(補助フレーム)は画像ぶれを抑えるための条件で撮像される。また、位置あわせパラメータ検索においては、フレーム画像内のある一部の限定された領域や、特徴点に着目して探索してもよい。或いは、画像全体にわたりフレーム間の誤差情報が最小になるように、探索してもよい。一部の限定された領域に、探索エリアが限られる場合に関して、補足説明する。   That is, the shutter speed at the time of imaging is changed between the main frame and the auxiliary frame. As a result, the image to be recorded (main frame) is imaged with appropriate exposure, and the image (auxiliary frame) for calculating the synthesis condition (position shift information) is imaged under the condition for suppressing image blur. Further, in the alignment parameter search, the search may be performed by paying attention to a certain limited area or feature point in the frame image. Or you may search so that the error information between frames may become the minimum over the whole image. A supplementary explanation will be given regarding the case where the search area is limited to some limited areas.

この場合、補助フレームの画角は、メインフレームに対し1/4のサイズとなるように撮影する。補助フレームの各フレームの画素数は、横960画素×縦540画素としている。すなわち、メインフレームのうちの1/4のエリアを切り出したような、画像サイズとしている。制御部101は、補助フレームについては、このようなサイズの画像信号を出力するように、撮像部102を制御する。   In this case, shooting is performed so that the angle of view of the auxiliary frame is ¼ the size of the main frame. The number of pixels in each auxiliary frame is 960 pixels wide × 540 pixels high. That is, the image size is such that a quarter area of the main frame is cut out. The control unit 101 controls the imaging unit 102 so as to output an image signal having such a size for the auxiliary frame.

これは限定された領域での探索を対象とする場合、メインフレーム相当の大きなサイズの画像を必要としないためである。ただし、この場合、補助フレーム内に必要とする特徴点等が含まれている必要がある。すなわち、補助フレームの撮像エリアをどのように選択するかが重要になる。   This is because an image having a large size corresponding to the main frame is not required when searching in a limited area. However, in this case, necessary feature points and the like need to be included in the auxiliary frame. That is, how to select the imaging area of the auxiliary frame is important.

図3に、以上の点を考慮した、補助フレームを使った位置ずれ検出の一例を示す。図3では、メインフレーム2の画像データから、信号処理により特徴点(特異点やエッジ)が多く含まれるエリアを検出する((4)特徴点検出エリア探索)。そして、その情報に基づいて、時間軸的にその後に撮像される補助フレーム3、4の撮像時の撮像エリアを制御する((5)撮像エリアの制御)。   FIG. 3 shows an example of misalignment detection using an auxiliary frame in consideration of the above points. In FIG. 3, an area containing many feature points (singular points and edges) is detected from the image data of the main frame 2 by signal processing ((4) feature point detection area search). And based on the information, the imaging area at the time of imaging of the auxiliary frames 3 and 4 to be subsequently imaged on the time axis is controlled ((5) Control of imaging area).

図4に補助フレームの撮像エリアの例を示す。メインフレームにおいて、例えば、エッジを多く含む領域を補助フレームの撮像領域として設定する場合、この例の場合、建物(家)を含む領域が多くのエッジを含むと判断し、補助フレーム例1のように、そのエリアを補助フレームの撮像エリアとする。または、メインフレームにおいて、例えば特徴点を多く含む領域を補助フレームの撮像領域として設定する場合、顔検出等の既知の技術を用いて人の顔を含むエリアを補助フレームのエリアとして判断する。そして、補助フレーム例2のように、そのエリアを補助フレームの撮像エリアとする。   FIG. 4 shows an example of the imaging area of the auxiliary frame. In the main frame, for example, when an area including many edges is set as the imaging area of the auxiliary frame, in this case, it is determined that the area including the building (house) includes many edges, and the auxiliary frame example 1 In addition, this area is set as an imaging area of the auxiliary frame. Alternatively, for example, when an area including many feature points in the main frame is set as an imaging area of the auxiliary frame, an area including a human face is determined as an area of the auxiliary frame using a known technique such as face detection. Then, as in auxiliary frame example 2, the area is set as an imaging area of the auxiliary frame.

これは、制御装置101がメモリ103からメインフレームの画像信号を読み出し、読み出した画像信号から、補助フレームの撮像エリアを判断し、撮像部102を制御することで実現できる。   This can be realized by the control device 101 reading the image signal of the main frame from the memory 103, determining the imaging area of the auxiliary frame from the read image signal, and controlling the imaging unit 102.

ここでは、一部の限定された領域に、探索エリアが限られる場合に関して説明したが、次に、画像全体にわたってフレーム間の誤差情報が最小になるように、探索する場合に関して補足説明する。図5に補助フレームの撮像イメージの例を示す。この場合、例えば補助フレームの画角はメインフレームに対して等しく、1フレームの画素数は横960画素×540画素としている。すなわち、メインフレームの1/4の解像度の縮小画のイメージである。この縮小画を用いて、補助フレーム間の誤差が最小になるように位置ずれ情報をもとめ、メインフレームの画像合成を行う。   Here, the case where the search area is limited to a part of the limited region has been described. Next, a supplementary description will be given regarding the case where the search is performed so that error information between frames is minimized over the entire image. FIG. 5 shows an example of a captured image of the auxiliary frame. In this case, for example, the angle of view of the auxiliary frame is equal to that of the main frame, and the number of pixels in one frame is 960 pixels × 540 pixels. That is, the image is a reduced image having a resolution of 1/4 of the main frame. Using this reduced image, the positional deviation information is obtained so that the error between the auxiliary frames is minimized, and the image of the main frame is synthesized.

この場合、制御部101は、撮像部102を制御して、補助フレームの画像信号を出力する。例えば、CMOSセンサからの画素読み出し時の水平ラインの間引き、画素の同時読み出しによる合成、後段のアナログ信号処理による合成を行う。または、撮像部102における信号処理部により、縮小された補助フレームの画像を生成する。   In this case, the control unit 101 controls the imaging unit 102 and outputs an auxiliary frame image signal. For example, thinning out of horizontal lines at the time of pixel readout from a CMOS sensor, synthesis by simultaneous readout of pixels, and synthesis by analog signal processing at the subsequent stage are performed. Alternatively, a reduced auxiliary frame image is generated by the signal processing unit in the imaging unit 102.

このように、本実施形態では、撮影された動画信号のうちの複数のフレームを合成し、合成された動画信号を記録する場合に、記録される動画のフレームの間で、位置ずれ検出のためのフレームを撮影する。そして、位置ずれ検出のためのフレームのサイズを、記録される動画信号よりも小さいサイズとしている。そのため、位置ずれ検出のための処理の負荷が少なくなり、高速な処理回路を用いることなく、リアルタイムに画像合成が可能となる。   As described above, in the present embodiment, when a plurality of frames of the captured moving image signal are combined and the combined moving image signal is recorded, a position shift is detected between the recorded moving image frames. Shoot the frame. The size of the frame for detecting displacement is set to be smaller than the recorded moving image signal. For this reason, the processing load for detecting the displacement is reduced, and image synthesis can be performed in real time without using a high-speed processing circuit.

なお、本実施例では、メインフレームと補助フレームとは一枚ずつ交互に撮影されるとしたが、これに限らない。即ち、1フレームごとに交互に撮影する必要はない。メインフレームの間に、所定の周期で補助フレームが出力されるようにすればよい。例えば、メインフレーム複数枚につき、補助フレームが一枚撮影される場合でも良い。あるいは、異なるメインフレームの撮像間に、補助フレームが1枚以上撮影されても良い。   In this embodiment, the main frame and the auxiliary frame are alternately photographed one by one. However, the present invention is not limited to this. That is, it is not necessary to shoot alternately every frame. What is necessary is just to make it output an auxiliary | assistant frame with a predetermined period between main frames. For example, one auxiliary frame may be captured for a plurality of main frames. Alternatively, one or more auxiliary frames may be taken between different main frames.

例えば、メインフレーム複数枚につき、補助フレームが2枚撮影される場合、一枚目は、縮小画相当の画像、2枚目は切り出し相当の画像を撮像する。一枚目の縮小画相当の画像を用いて、時間軸的に後に撮像される切り出し相当の画像の切り出しエリアを制御しても良い。   For example, when two auxiliary frames are captured for a plurality of main frames, the first image captures an image corresponding to a reduced image, and the second image captures an image corresponding to a cutout. Using the image corresponding to the first reduced image, the cutout area of the image corresponding to the cutout imaged later in time may be controlled.

また、補助フレームの例としてメインフレームの1/4の領域を切り出した画像と、メインフレームの1/4の解像度の画像の例を説明したが、これら二つの画像を共に補助フレームとして撮影しても良い。また、補助フレームの画素数をメインフレームの1/4としたが、これに限られるものではない。   In addition, as an example of the auxiliary frame, an example of an image obtained by cutting out a quarter area of the main frame and an image having a resolution of 1/4 of the main frame has been described. Also good. Further, although the number of pixels of the auxiliary frame is set to ¼ of the main frame, it is not limited to this.

また、本実施例では、動画撮影の場合を前提に説明を行ったが、近年、静止画撮影においても、高速連写などのフレームレートの高い撮像が要求される傾向にあり、本実施例は、動画のみならず、静止画撮影にも適応されるものである。   Further, in this embodiment, the description has been made on the premise of moving image shooting, but in recent years also in still image shooting, there is a tendency to require high frame rate imaging such as high-speed continuous shooting. It is applicable not only to moving images but also to still image shooting.

Claims (7)

撮像手段と、
前記撮像手段から出力された動画信号のうちの、複数のフレームを合成し、1フレームの画像信号を生成する処理手段と、
前記処理手段により生成された画像信号を含む動画信号を記録媒体に記録する記録手段と、
前記撮像手段を制御する制御手段とを備え、
前記制御手段は、第1のフレームの間に、所定の周期で前記第1のフレームよりも画素数が少ない第2のフレームを出力するように、前記撮像手段を制御し、
前記処理手段は、前記撮像手段から出力された動画信号のうちの、二つの前記第2のフレームの画像の間の位置ずれ量を検出し、前記検出された位置ずれ量に基づいて、複数の前記第1のフレームの画像を合成することにより、1フレームの画像信号を生成することを特徴とする撮像装置。
Imaging means;
Processing means for synthesizing a plurality of frames of the moving image signal output from the imaging means to generate an image signal of one frame;
Recording means for recording a moving image signal including the image signal generated by the processing means on a recording medium;
Control means for controlling the imaging means,
The control means controls the imaging means to output a second frame having a smaller number of pixels than the first frame in a predetermined cycle during the first frame,
The processing means detects a positional deviation amount between two images of the second frame in the video signal output from the imaging means, and based on the detected positional deviation amount, An image pickup apparatus that generates an image signal of one frame by synthesizing the image of the first frame.
前記制御手段は、前記第1のフレームと、前記第2のフレームとで、独立にシャッタ速度の制御を行うことを特徴とする請求項1に記載に撮像装置。   The image pickup apparatus according to claim 1, wherein the control unit controls the shutter speed independently for the first frame and the second frame. 前記制御手段は、前記第1のフレームよりも、前記第2のフレームのシャッタ速度が高速になるように制御することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the control unit controls the shutter speed of the second frame to be higher than that of the first frame. 前記制御手段は、前記第1のフレームの一部の領域を切り出した、所定のサイズの画像信号を前記第2のフレームとして出力するように、前記撮像手段を制御することを特徴とする請求項1に記載の撮像装置。   The control means controls the imaging means so as to output an image signal of a predetermined size obtained by cutting out a partial area of the first frame as the second frame. The imaging apparatus according to 1. 前記制御手段は、前記第1のフレームのサイズを縮小した、所定のサイズの画像信号を前記第2のフレームとして出力するように、前記撮像手段を制御することを特徴とする請求項1に記載の撮像装置。   2. The control unit according to claim 1, wherein the control unit controls the imaging unit to output an image signal having a predetermined size obtained by reducing the size of the first frame as the second frame. Imaging device. 前記制御手段は、前記第1のフレームと前記第2のフレームを、1フレームおきに交互に出力するように、前記撮像手段を制御することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit controls the imaging unit so that the first frame and the second frame are alternately output every other frame. 前記制御手段は、複数の前記第1のフレームを出力するごとに、前記第2のフレームを出力するように、前記撮像手段を制御することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit controls the imaging unit to output the second frame every time a plurality of the first frames are output.
JP2014027812A 2014-02-17 2014-02-17 Imaging apparatus Pending JP2015154354A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014027812A JP2015154354A (en) 2014-02-17 2014-02-17 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014027812A JP2015154354A (en) 2014-02-17 2014-02-17 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2015154354A true JP2015154354A (en) 2015-08-24

Family

ID=53896176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014027812A Pending JP2015154354A (en) 2014-02-17 2014-02-17 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2015154354A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112095A (en) * 2000-09-29 2002-04-12 Minolta Co Ltd Digital still camera
JP2009153046A (en) * 2007-12-21 2009-07-09 Sanyo Electric Co Ltd Blur correcting device and method, and imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112095A (en) * 2000-09-29 2002-04-12 Minolta Co Ltd Digital still camera
JP2009153046A (en) * 2007-12-21 2009-07-09 Sanyo Electric Co Ltd Blur correcting device and method, and imaging apparatus

Similar Documents

Publication Publication Date Title
JP5163676B2 (en) Imaging apparatus, imaging method, and program
US20080101710A1 (en) Image processing device and imaging device
JP2007135056A (en) Image processor and method, and program
JP2012191486A (en) Image composing apparatus, image composing method, and program
JP2010183560A (en) Image capturing apparatus, image processing method, and program
JP2012199752A (en) Image processing apparatus, image processing method, and program
JP5729237B2 (en) Image processing apparatus, image processing method, and program
JP2013165485A (en) Image processing apparatus, image capturing apparatus, and computer program
TW201101813A (en) Image capturing device, image capturing method and image capturing program
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP4985124B2 (en) Image processing apparatus, image processing method, and image processing program
JP4777116B2 (en) Image processing apparatus and method, and imaging apparatus
JP2008181196A (en) Image processing apparatus, electronic camera, and image processing program
JP6261397B2 (en) Imaging apparatus and control method thereof
JP2012080204A (en) Image processing device and method, and program
JP5267279B2 (en) Image composition apparatus and program
JP6980480B2 (en) Imaging device and control method
JP2010239464A (en) Image compositing device, image reproducing device, and program
JP5892211B2 (en) Imaging apparatus and program
JP5476900B2 (en) Image composition apparatus, image composition method, and program
JP2013084124A (en) Imaging system, imaging device, and image processing method
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP2015154354A (en) Imaging apparatus
JP2011087203A (en) Imaging apparatus
JP2008235958A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180313